Як боротися з дезінформацією та Deepfake: план від Microsoft

Обман із використанням штучного інтелекту дедалі частіше пронизує наше онлайн-життя. Відомі випадки включають змінені зображення протестувальників чи відео, які поширюють дезінформацію, наприклад для впливу на українців щодо служби у війську. Такі матеріали непомітно з’являються в соціальних мережах і набирають тисячі переглядів, що робить проблему особливо складною.
Microsoft запропонувала план, як перевіряти справжність онлайн-контенту. Її дослідники оцінили різні методи документування цифрових маніпуляцій, включно з водяними знаками, цифровими підписами та відстеженням походження файлів, і запропонували стандарти, які можуть застосовувати соціальні платформи та компанії, що працюють зі штучним інтелектом. Ці інструменти не визначають правду, але показують, чи контент був змінений.
Експерти кажуть, що впровадження таких методів значно ускладнить поширення обману, хоча повністю проблему це не вирішує. Люди часто піддаються впливу навіть відомо неправдивого контенту, але більшість хоче знати правду. Деякі платформи вже почали маркувати штучно створений контент, проте лише частково, і повна реалізація стандартів залежить від бізнес-моделей компаній і регуляторних вимог.
Законодавчі ініціативи, як-от Закон Каліфорнії про прозорість ШІ та правила ЄС, зобов’яжуть компанії розкривати походження контенту. Microsoft прагне брати участь у формуванні таких норм, водночас визнаючи, що поспішне чи непослідовне маркування може підривати довіру. Поки інструменти перевірки контенту вдосконалюються, важливо, щоб їх застосовували обережно та послідовно, зважаючи на складність сучасної цифрової дезінформації.
Источник: itechua.com


