Newsua.biz


До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності — аналітик

17 января
05:18 2024

Штучний інтелект — це інструмент, і до нього треба поставитися як до будь-якого інструменту – тобто встановлювати запобіжники і вимоги там, де він несе серйозну загрозу приватності та безпеці людини.

Про це під час презентації в Укрінформі гайду для організацій громадянського суспільства про інструменти штучного інтелекту заявив заступник директорки Центру демократії та верховенства права (ЦЕДЕМ) Ігор Розкладай.

«ШІ – це інструмент, і я погоджуюся з тим, що до нього треба поставитися як до будь-якого інструменту – тобто, встановлювати запобіжники, встановлювати вимоги там, де він несе серйозну загрозу приватності, безпеці, по суті, життю людини. І точно не наділяти його функцією прийняття остаточного рішення», — сказав він.

Розкладай зазначив, що штучний інтелект може бути допоміжним інструментом — наприклад, виловлювати з мережі зображення злочинців, наприклад.

«Але не ШІ має прийняти рішення, що це злочинець і його треба пристрелити. Цей достатньо розумний збалансований підхід має дозволити нам нормально взаємодіяти з цим явищем. Його (штучний інтелект – ред.) точно не треба боятися і забороняти, але … над ним потрібно працювати і постійно проводити аналіз ризиків», — вважає аналітик.

Головна юридична радниця Європейського центру некомерційного права (ECNL) Фраческа Фануччі заявила, що залежно від мети і контексту застосування цієї технології можуть існувати різні рівні ризику для людей.

«Один із найперших ризиків – це помилково позитивні або негативні ідентифікації. Те, що називають «хибно позитивні». Ми завжди маємо пам’ятати, що алгоритм ніколи не повертає остаточний результат, а лише (показує – ред.) імовірності. Це означає, що коли велика кількість людей перевіряється масово – наприклад, на вулиці, площі, або там, де багато машин, — існує ризик помилкової ідентифікації», — розповіла юридична радниця ECNL.

За її словами, в Україні зараз діє воєнний стан, і для таких випадків існують міжнародні стандарти відступу від захисту певних прав людини. 

«Ці відступи мають бути винятковими і тимчасовими і виправдовуватися виключно характером і невідкладністю ситуації. Тобто, наприклад, якщо ці камери (з функцією розпізнавання обличчя – ред.) встановили через війну, тоді їх треба прибрати після закінчення війни чи провести нову оцінку ризиків, для чого їх можна застосовувати», — вважає Фануччі.

Розкладай переконаний, що технології на кшталт цих камер мають дуже жорстко регулюватися.

«Так само як і медичні дані, біометричні дані – вони мають максимально жорстко обмежитися, максимальне має бути протоколювання. Має бути дуже обмежений термін зберігання цих відео і так далі, бо інакше це – шлях до Китаю, де кожен поліцейський, дивлячись на вас, вже знає про вас все», — заявив він.

Источник: ukrinform.ua

Share

Статьи по теме




Последние новости

Дженніфер Лопес закрутила роман із охоронцем — фото та відео

Читать всю статью

Мы в соцсетях