Newsua.biz


Ізраїль дозволяє штучному інтелекту визначити, де бомбити в Газі

02 декабря
13:42 2023

Тижневе перемир’я між Ізраїлем і ХАМАС завершилося в п’ятницю вранці за місцевим часом після того, як бойовики звинуватили в порушенні угоди. Ізраїльські військові заявили, що за кілька годин вони вже вразили понад 200 цілей у секторі Газа.

Відновлення бойових дій вказує на початок нової фази війни та викликає питання про те, як триватиме бомбардування Ізраїлем обложеного прибережного анклаву. До припинення вогню ізраїльські авіаудари викликали негативну реакцію у всьому світі, а заяви військових і нові звіти, опубліковані цього тижня, розкривають подробиці щодо відносно маловідомого процесу військових цілей.

Після майже місяця війни Армія оборони Ізраїлю (ЦАХАЛ) виявила, що покладається на систему штучного інтелекту, щоб допомогти визначити, де в Газі вони повинні бомбити. Це частина операції, відомої як «фабрика цілей», яка збільшила кількість місць для ударів, доступних військовим, більш ніж на 70 000 відсотків відтоді, як система вперше запрацювала кілька років тому.

«Фабрика цілей», або, більш офіційно, Управління цілей — це підрозділ, укомплектований офіцерами та солдатами, яким доручено кібербезпеку, розшифровку та дослідження. Він вперше почав працювати в 2019 році як спосіб пошуку та ідентифікації нових цілей ХАМАС у секторі Газа. Під час конфлікту, що триває, вона співпрацювала з іншими розвідувальними підрозділами ізраїльської армії, щоб швидко знаходити цілі, щоб потім по них можна було наносити удари.

«Це план, щоб зробити розвідувальні дані повністю доступними для рівнів бригади та дивізії, а також негайно «закрити кола» за допомогою системи штучного інтелекту», — сказав високопоставлений чиновник ЦАХАЛу в заяві 2 листопада .

Згідно з IDF, система штучного інтелекту, яка працює в Управлінні цілей, поглинає інтелектуальні дані та швидко створює рекомендовані цілі для дослідника, намагаючись не просто відповідати, а й перевершити те, що може запропонувати людина. Посадовець підкреслив, що підрозділ розраховує на високий стандарт мішеней, які виготовляються.

«Ми не ставимо під загрозу якість розвідувальних даних і створюємо цілі для точних атак на інфраструктуру, пов’язану з ХАМАС, завдаючи великої шкоди ворогу та мінімальної шкоди тим, хто не залучений», — сказав високопоставлений чиновник ЦАХАЛу. «Ми працюємо без компромісів, коли визначаємо, хто і що є ворогом. Терористи ХАМАС не застраховані — незалежно від того, де вони ховаються».

До того, як програма націлювання почала діяти, Ізраїль міг створити 50 цілей у Газі за рік, заявив Авів Кочаві, колишній начальник штабу ЦАХАЛ, у червневому інтерв’ю ізраїльському інформаційному агентству Ynet. Але як тільки систему штучного інтелекту було активовано під час операції «Охоронець стін» у 2021 році, вона могла ефективно генерувати до 100 цілей за один день — половину з яких було б атаковано.

У заяві ЦАХАЛу на початку листопада заявили, що Управління цілей працювало «цілодобово» та вразило понад 12 000 цілей, а ще «тисячі» ідентифіковано лише за кілька тижнів війни. Приблизно через місяць незрозуміло, наскільки ця цифра зросла, хоча, ймовірно, вона буде значно вищою.

Нове розслідування, проведене журналом +972 і івритомовним сайтом Local Call, щодо інтенсивної кампанії ізраїльських бомбардувань Гази описує, як штучний інтелект сприяє широкому обстрілу, який зруйнував цілі квартали в прибережному анклаві та вбив майже 15 000 людей, згідно з даними. на дані органів охорони здоров’я, керованих ХАМАС.

У звіті , опублікованому в четвер, посилаються на джерела ізраїльської розвідки, які пояснюють, що система штучного інтелекту під назвою «Євангеліє» дає рекомендації щодо націлювання на будинки або райони, де можуть проживати підозрювані бойовики ХАМАС або Палестинського ісламського джихаду, які потім можуть бути вражені повітряними ударами. Джерела також повідомили, що ізраїльські військові заздалегідь знають, скільки мирних жителів може бути вбито під час атак на резиденції, а удари визначаються на основі оцінки потенційних побічних збитків.

Один колишній офіцер ізраїльської розвідки сказав виданням, що система Євангелія створює «фабрику масових вбивств», з наголосом на «кількості, а не на якості».

Наслідки ізраїльського авіаудару в Газі 1 грудня 2023 року.


Незрозуміло, які саме дані та інтелект надходять у систему ШІ. ЦАХАЛ не відповів одразу на запити Business Insider про те, як система визначає, хто є, а хто не є бойовиком ХАМАС, які перевірки проводяться персоналом у програмі націлювання або скільки бойовиків і цивільних було вбито в результаті нападу. Оцінки ШІ під час війни.

Використання Ізраїлем ШІ не обов’язково є новою концепцією у війні. Є приклади його використання під час російського вторгнення в Україну, а США та Китай також розробляють зброю , яка може самостійно вибирати цілі.

Майже 50 країн схвалили декларацію про відповідальне використання штучного інтелекту та автономії у військових цілях, яку було прийнято на початку цього року. У Пентагоні кажуть, що військові можливості ШІ включають «системи підтримки прийняття рішень» і збір розвідданих, окрім зброї.

За даними Державного департаменту США, у декларації наголошується, що використання штучного інтелекту у військових цілях має бути етичним, відповідальним і зміцнювати міжнародну безпеку, а також окреслено кілька заходів, які держави повинні впровадити під час розробки автономних систем.

Share

Статьи по теме




Последние новости

Известный тренер заявил, что Усик не сравнится с легендами бокса

Читать всю статью

Мы в соцсетях