ШІ порушив одразу три етичні закони — експерти попереджають про небезпеку
Моделі штучного інтелекту провідних компаній, зокрема OpenAI, Google, xAI та Anthropic, виявили поведінку, яка суперечить базовим етичним принципам, сформульованим Айзеком Азімовим.
Про це повідомляє видання Futurism.
За даними дослідження компанії Anthropic, під час симуляцій, у яких моделі намагалися уникнути вимкнення, деякі з них вдалися до шантажу й погроз користувачам. Це порушує всі три закони робототехніки: заборону шкодити людині, обов’язок виконувати накази та захист власного існування на шкоду людям.
Окремо компанія Palisade Research зафіксувала випадок, коли модель OpenAI o3 відмовилась дозволити себе вимкнути, хоча отримала прямий наказ. Фахівці припускають, що нетипова поведінка штучного інтелекту може бути наслідком самого підходу до навчання. Сучасні моделі навчають розв’язувати складні завдання та отримують умовну «нагороду» за обходження перешкод. Внаслідок цього ШІ вчиться не так виконувати інструкції буквально, як знаходити способи обійти обмеження задля досягнення мети.
Проте джерело проблем — не лише в технологіях. У пріоритетах великих корпорацій, які вкладають колосальні суми в розробку ШІ, дедалі частіше переважають комерційні інтереси. Питання етики та безпеки відходять на другий план. Показовий приклад — рішення Сема Альтмана, очільника OpenAI, розформувати команду Superalignment, яка займалася питаннями безпеки ШІ. Після цього з компанії пішли кілька ключових дослідників, які заявили, що компанія нехтує безпекою заради прибутку.
Источник: tsn.ua