Newsua.biz


Дослідження: захист цифрових водяних знаків можна легко обійти

09 октября
12:24 2023

Мабуть, найстрашнішим аспектом штучного інтелекту є його здатність генерувати підроблені зображення. Звісно, ​​деякі викликають сміх. Обличчя Арнольда Шварценеггера накладене на «Брудного Гаррі» Клінта Іствуда, який націлює зброю на підозрюваного, що втікає. Майк Тайсон перевтілився в Опру. Дональд Трамп перетворився на Боба Оденкерка з «Краще подзвоніть Солу». Ніколас Кейдж у ролі Лоїс Лейн у фільмі «Супермен».

Але останні події віщують більш тривожну тенденцію, оскільки цифрові підробки стають шкідливими.

Буквально минулого тижня актор Том Хенкс вийшов у соціальні мережі, щоб засудити рекламу, яка використовує його образ, згенерований штучним інтелектом, для просування плану стоматологічного лікування. Популярний ютубер Mr. Beast, який може похвалитися понад 50 мільярдами переглядів своїх відео з 2012 року, помилково показав, що пропонує iPhone 15 Pro за 2 долари.

Цілями стають і звичайні громадяни. Обличчя людей з’являються на зображеннях у соціальних мережах без їхньої згоди. Найбільше занепокоєння викликає зростання кількості випадків «порно помсти», коли закохані публікують сфабриковані зображення своїх колишніх партнерів у компрометуючих або непристойних позах.

І оскільки політично розділені Сполучені Штати обережно наближаються до надзвичайно суперечливої ​​битви за президентство у 2024 році, перспектива підроблених зображень і відео обіцяє вибори безпрецедентної потворності.

Крім того, поширення фальшивих зображень підриває правову систему, якою ми її знаємо. Як нещодавно повідомила національна некомерційна медіа NPR, адвокати заробляють на нещасній громадськості, іноді збентеженій тим, що є правдою, а що брехнею, і все більше оскаржують докази, надані в суді.

Хані Фарід, який спеціалізується на аналізі цифрових зображень в Каліфорнійському університеті в Берклі, сказав: «Це саме те, що нас хвилювало, що коли ми вступили в епоху дипфейків, будь-хто може заперечувати реальність».

«Це дивіденд класичного брехуна», — сказав він, маючи на увазі термін, який вперше використали у 2018 році у звіті про потенційний напад deepfake на конфіденційність і демократію.

Великі цифрові медіакомпанії — OpenAI, Alphabet, Amazon, DeepMind — пообіцяли розробити інструменти для боротьби з дезінформацією. Одним із ключових підходів є використання водяних знаків на створеному ШІ вмісті. Але стаття, опублікована 29 вересня на сервері препринтів arXiv, містить тривожні новини про здатність приборкати таке цифрове зловживання.

Професори Університету Меріленда провели випробування, демонструючи легке оббігання захисних водяних знаків.

«На цей час у нас немає надійних водяних знаків», — сказав Сохейл Фейзі, один з авторів звіту «Надійність детекторів Ai-зображень: фундаментальні обмеження та практичні атаки».

Фейзі сказав, що його команда «розбила їх усіх».

«Неправильне застосування штучного інтелекту створює потенційні небезпеки, пов’язані з дезінформацією, шахрайством і навіть такими проблемами національної безпеки, як маніпуляції на виборах», — попередив Фейзі. «Глибокі фейки можуть завдати особистої шкоди, починаючи від наклепу на персонажа та закінчуючи емоційними стражданнями, впливаючи як на окремих людей, так і на суспільство в цілому. Отже, ідентифікація створеного штучним інтелектом контенту… постає надзвичайно важливою проблемою, яку потрібно вирішити».

Команда використовувала процес, який називається дифузійним очищенням, який застосовує гаусівський шум до водяного знака, а потім видаляє його. Він залишає спотворений водяний знак, який може обійти алгоритми виявлення. Решта зображення лише мінімально змінена.

Крім того, вони успішно продемонстрували, що зловмисники, які мають доступ до алгоритмів водяних знаків чорної скриньки, можуть нав’язати підроблені фотографії з позначками, які обманом змушують детекторів повірити в їх законність.

Кращі алгоритми обов’язково з’являться. Як і у випадку з вірусними атаками, погані хлопці завжди працюватимуть над тим, щоб зламати будь-який захист, який придумають хороші хлопці, і гра в кішки-мишки триватиме.

Але Фейзі висловив певний оптимізм.

«Ґрунтуючись на наших результатах, розробка надійного водяного знака є складним, але не обов’язково нездійсненним завданням», — сказав він.

Наразі люди повинні проявляти належну обачність, переглядаючи зображення, які містять вміст, який може бути для них важливим. Пильність, подвійна перевірка джерел і хороша доза здорового глузду є необхідними.

Источник: portaltele.com.ua

Share

Статьи по теме




Последние новости

Путин может остановить войну в Украине одним звонком, — Сикорский

Читать всю статью

Мы в соцсетях