Newsua.biz


Стенфордські дослідники: ШІ навчають на фотографіях насильства над дітьми

20 декабря
16:58 2023

За словами дослідників безпеки дітей, ці висновки з’явилися на фоні того, що інструменти штучного інтелекту все частіше рекламуються на форумах педофілів як способи створення сексуальних зображень дітей без цензури. Зважаючи на те, що зображення штучного інтелекту часто потребують навчання лише на кількох фотографіях, щоб їх точно відтворити, наявність понад тисячі фотографій жорстокого поводження з дітьми в тренувальних даних може надати генераторам зображень тривожні можливості, вважають експерти.

Ці фотографії «в основному дають перевагу моделі [ШІ] у тому, що вона може створювати контент про експлуатацію дітей у спосіб, який може нагадувати реальну експлуатацію дітей», — сказав Девід Тіл, автор звіту та головний технолог Стенфордської Інтернет-обсерваторії.

Представники LAION заявили, що вони тимчасово видалили набір даних LAION-5B, «щоб переконатися, що він безпечний перед повторною публікацією».

Останніми роками з’явилися нові інструменти штучного інтелекту, які називаються дифузійними моделями, які дозволяють будь-кому створити переконливе зображення, ввівши короткий опис того, що він хоче побачити. Ці моделі подають мільярди зображень, взятих з Інтернету, і імітують візуальні моделі для створення власних фотографій.

Ці генератори зображень зі штучним інтелектом отримали похвалу за їх здатність створювати гіперреалістичні фотографії, але вони також збільшили швидкість і масштаб, за допомогою яких педофіли можуть створювати нові відверті зображення, оскільки інструменти вимагають менше технічної підкованості, ніж попередні методи, такі як вставлення дітей. ‘ обличчям до тіла дорослих, щоб створити «діпфейки».

Дослідження Тіля вказує на еволюцію в розумінні того, як інструменти штучного інтелекту створюють контент про жорстоке поводження з дітьми. Раніше вважалося, що інструменти штучного інтелекту поєднують дві концепції, такі як «дитина» та «відвертий вміст», щоб створювати неприємні зображення. Тепер отримані дані свідчать про те, що реальні зображення використовуються для вдосконалення результатів ШІ образливих фейків, допомагаючи їм виглядати більш реальними.

Фотографії жорстокого поводження з дітьми є невеликою частиною бази даних LAION-5B, яка містить мільярди зображень, і дослідники стверджують, що вони, ймовірно, були випадково додані, оскільки творці бази даних брали зображення з соціальних мереж, сайтів відео для дорослих та відкритого Інтернету.

Але той факт, що незаконні зображення взагалі були включені, знову підкреслює, наскільки мало відомо про набори даних, які є основою найпотужніших інструментів ШІ. Критики стурбовані тим, що упереджені зображення та відвертий вміст, знайдені в базах даних зображень ШІ, можуть непомітно формувати те, що вони створюють.

Share

Статьи по теме




Последние новости

Хэмилтон поддержал протест Ферстаппена

Читать всю статью

Мы в соцсетях