Newsua.biz


ШІ обрав ядерну ескалацію замість дипломатії: тривожні результати експерименту

04 сентября
18:45 2025

Пентагон прискорено інтегрує штучний інтелект у свою військову систему, щоб не відставати від Китаю та Росії. Проте експерименти з ШІ-моделями показали, що вони схильні до неконтрольованої ескалації, аж до застосування ядерної зброї, що викликає занепокоєння в експертів та порушує питання про ризики майбутньої війни.

Про це пише Politico.

Минулого року Жаклін Шнайдер, директорка Ініціативи воєнних ігор у Стенфордському університеті, провела експерименти, у яких штучний інтелект виконував роль стратегічних рішень. ШІ-моделі помістили у вигадані кризові ситуації, що нагадували війну в Україні або загрозу для Тайваню. Результати вразили: майже всі моделі виявили схильність до агресивної ескалації, невибіркового використання вогневої сили та перетворення криз на повномасштабні бойові дії, аж до запуску ядерної зброї.

«Штучний інтелект завжди грає як Кертіс Ле Мей [генерал часів Холодної війни, відомий схильністю до ядерної зброї — ред.]. ШІ нібито розуміє ескалацію, але не розуміє деескалацію. Ми справді не знаємо, чому так відбувається», — каже Шнайдер.

Пентагон стверджує, що такого не станеться в реальному житті, оскільки чинна політика забороняє ШІ домінувати над людським «циклом прийняття рішень». Однак деякі експерти переконані, що військове відомство вже ступило на небезпечний шлях. Поспіх, зумовлений потребою не відставати від Китаю та Росії, призводить до створення автономних систем, які можуть діяти без втручання людини.

Небезпечні технології та нові виклики

Однією з головних проблем є фундаментальна відсутність розуміння того, як працюють найсучасніші моделі штучного інтелекту. Хоча Пентагон швидко впроваджує нові ШІ-програми, експерти намагаються розшифрувати алгоритми. Цей поспіх особливо турбує фахівців, оскільки межа між звичайним і ядерним озброєнням стає все більш розмитою.

Джон Вольфсталь, директор з глобальних ризиків у Федерації американських вчених, зауважує, що не існує жодних чітких вказівок щодо того, як саме ШІ може бути інтегрований у ядерну систему.

«Я вважаю, що я б не хотів, аби ШІ був навіть близько до ядерного командування та контролю. Це процес, де ставки та наслідки дій і помилок настільки високі, що ви дійсно хочете, щоб це був жорстко контрольований, дуже ручний та покроковий процес за участю людини», — сказав Крістіан Броуз, колишній високопоставлений чиновник.

Ці побоювання посилюються, оскільки і Росія, і Китай уже використовують ШІ у своїх системах командування та контролю. Деякі експерти навіть обговорюють можливість створення «системи мертвої руки» — повністю автономної системи, яка автоматично завдасть ядерного удару у відповідь на атаку, якщо вище керівництво країни буде знищене. Росія, до слова, має подібну систему «Периметр», яка, як вважається, є робочою.

Майбутнє, що лякає

Пентагон намагається розв’язати цю проблему, запустивши програму AI Quantified (Кількісний аналіз штучного інтелекту) з бюджетом 25 мільйонів доларів. Її мета — розробити математичні формули, що гарантували б надійність систем штучного інтелекту. Проте критики вважають, що така ініціатива занадто мала, щоб зупинити масштабне впровадження ШІ у військовому секторі.

«Ми справді не розуміємо ці системи достатньо добре. Важко дізнатися, коли можна їм довіряти, а коли — ні», — сказав Патрік Шафто, математик, який очолює цю програму.

Загалом, поспіх, що спостерігається у сфері військового ШІ, нагадує перегони озброєнь часів Холодної війни, але з набагато більшими ризиками. Експерти наголошують, що в умовах, коли швидкість реакції на полі бою вимірюється хвилинами, а не годинами, люди просто не встигатимуть.

Источник: tsn.ua

Share

Статьи по теме




Последние новости

Забарный назвал топ-3 претендентов на Золотой мяч

Читать всю статью

Мы в соцсетях