Кілька політиків були ошукані відеодзвінком deepfake, нібито з президентом України Володимиром Зеленським.
ФБР попередило , що люди можуть використовувати глибокі фейки під час співбесід, які проводяться через програмне забезпечення для відеоконференцій. Місяцем раніше кілька європейських мерів заявили, що спочатку були ошукані відеодзвінком deepfake, нібито з президентом України Володимиром Зеленським — передає Fortune.
Діпфейки стають страшенно хорошими. Якщо в цьому є якісь сумніви, цього сезону « Америка має талант» має стати тривожним дзвіночком. Стартап під назвою Metaphysic зміг пройти до фінального раунду конкурсу талантів, який вийде в ефір наступного тижня, створивши дивовижні дипфейки Саймона Коуелла та інших суддів конкурсу в режимі реального часу. Судді були вражені, побачивши виконавців, які мають лише віддалену схожість з ними — дещо схоже обличчя та форму тіла — раптово перетворюються на своїх цифрових двійників прямо на їхніх очах.
Ласкаво просимо у світ живих дипфейків. Два роки тому більшість програмного забезпечення deepfake не могли створити переконливу ймовірність когось без великої кількості зображень мішені deepfake — саме тому знаменитостей часто використовували для deepfake, оскільки доступно багато їхніх фотографій із різних ракурсів. . Більше того, щоб отримати правильні деталі, зокрема навколо рота, очей і щелепи, щоб глибокий фейк був справді переконливим, знадобилося чимало пост-продакшну. Нарешті, моделі штучного інтелекту, які створили deepfake, не могли працювати достатньо швидко, щоб надійно створювати deepfake у реальному часі через трансляцію відео. Сьогодні нічого з цього не відповідає дійсності. Правдоподібні глибокі фейки можуть бути розгорнуті під час живої відеотрансляції.
Але це не означає, що всі дипфейки в прямому ефірі такі ж хороші, як діпфейк КауеллаАмерика має талант . Це тому, що творчим генієм Metaphysic є не хто інший, як Кріс Уме, один із найкращих художників дипфейків у світі (він створив ті вірусні дипфейки Тома Круза , які зламали Інтернет 18 місяців тому). Уме пишається тим, що створює глибокі фейки, які є максимально бездоганними. і потіє кожною зморшкою та мікрожестом, який він намагається відтворити. Але програмне забезпечення є у вільному доступі в Інтернеті, щоб дозволити людині, яка майже не має технічних навичок, створювати не напівпоганий дипфейк у прямому ефірі. І технології стрімко вдосконалюються.
Насправді, воно покращується настільки швидко, що навіть ті, хто уважно спостерігав за сферою, були здивовані його швидким прогресом. «Я пам’ятаю, як хтось запитав мене про живі дипфейки близько двох років тому, і я сказав, що це займе близько п’яти років. Я помилявся» , — каже мені Хані Фарід , комп’ютерний науковець з Каліфорнійського університету в Берклі, який є одним із провідних експертів у світі з автентифікації цифрових зображень.
Том Ґрем, австралійський юрист, який став криптовалютним інвестором і є бізнес-партнером Уме в Metaphysic, каже мені, що, на його думку, лише за минулий період якість дипфейків, які може створити його компанія, зросла у 20 разів. дванадцять місяців. Грем каже, що покращення відбулося завдяки методу, використаному Metaphysic, у якому дипфейки створюються не з однієї моделі штучного інтелекту, а з композиції, де різні моделі штучного інтелекту обробляють різні частини обличчя людини (наприклад, одна модель може просто працювати). щоб вдосконалити рухи брів, а потім губи тощо) Але він також каже, що робить живі дипфейки, подібні до тих, які Metaphysic демонструє на America’s Got Talentможливий великий прогрес у тому, щоб системи штучного інтелекту відтворювали підроблені зображення досить швидко, щоб добре працювати з відео в реальному часі.
Грем каже, що частина причин, чому Metaphysic хотіли взяти участь у шоу талантів, полягала в тому, щоб підвищити обізнаність громадськості про те, наскільки хорошими стають дипфейки, і спонукати людей почати відмовлятися від старої ідеї, що «побачити — це повірити».
Metaphysic зараз заробляє гроші, створюючи дипфейки для Голлівуду та рекламної індустрії. Але він також запустив побічний проект під назвою Every Anyoneщо дозволяє людині завантажити просте селфі та створити реалістичний дипфейк себе, який також пов’язано з незамінним токеном (NFT). Ідея, за словами Ґрема, полягає в тому, що це дасть людям право власності на власні цифрові подібності та дасть їм можливість контролювати, як вони використовуються. (Оскільки deepfake — Ґрем і Уме віддають перевагу терміну «гіперреальний цифровий аватар» — криптографічно записується в незмінну цифрову книгу, теоретично це надасть можливість людям знати, що вони взаємодіють з вами — або принаймні авторизованим підроблена версія вас — на відміну від якогось самозванця, який видає себе за вас.)
Грем вважає, що ця технологія стане ключем до втілення метавсесвіту в реальність. Він також вважає, що такий метавсесвіт, де кожен карбує власний реалістичний дипфейк самого себе, набагато кращий, ніж дозволяти гігантським компаніям соціальних мереж створювати для нас аватари — і при цьому володіти всіма нашими біометричними даними. «Any Everyone — це інструмент, який дає можливість людям стати реальними учасниками економіки Web3», — каже він мені. «У Web2 ми є користувачами, споживачами та продуктами. Але в Web3 ми повинні бути партнерами, а не продуктами».
Все це звучить чудово, але як щодо того, як дипфейки в прямому ефірі можуть посилити шахрайство? Вже є повідомлення про те, що люди використовують живі глибокі фейки в Zoomзакликає як до фінансових злочинів, так і до політичної дезінформації. Минулого місяця топ-менеджер криптовалютної біржі Binance заявив , що шахраї використовували його складну глибоку фейкову «голограму», щоб обдурити кілька криптовалютних проектів. (Ці заяви не були перевірені незалежними експертами.)
Грем наполягає на тому, що Metaphysic прагне забезпечити, щоб її власні технології ніколи не використовувалися для таких цілей. Крім того, компанія допомогла створити форум під назвою Synthetic Futures для всіх, хто бере участь у використанні дипфейків для розваг або інших законних цілей, щоб обговорити стандарти для запобігання зловживанню технологією ШІ.
Але Фарід із Берклі каже, що він стурбований тим, що такі стандарти можуть з’явитися надто пізно та бути занадто слабкими, щоб запобігти широкому зловживанню. «Це схоже на фішингові шахрайства на стероїдах», — каже він про живі дипфейки. (На даний момент є кілька простих методів, якими хтось може скористатися під час відеодзвінка, щоб отримати певну розумну впевненість, що вони не спілкуються з дипфейком. Я говорив про деякі з цих методів минулого тижня в цій статті .)
Тим часом актори вже стурбовані що технологія будезвільнити їх з роботи — або що молоді актори будуть змушені продати розважальним компаніям права на використання їхніх біометричних даних назавжди. Ґрем визнає, що всі ці питання потребують вирішення і що «існує роль регулювання», а також встановлення стандартів. «Кожен у цій галузі має наполегливо працювати, щоб створити гарантії», — каже він.
Чи вдасться ці запобіжні заходи вчасно врятувати нас усіх від серйозної шкоди, ще належить побачити. Ось решту новин про штучний інтелект цього тижня.