Newsua.biz


Не розкривайте своїх секретів чат-ботам: експерт зі ШІ пояснив, чому це небезпечно

27 декабря
21:42 2023

На думку професора Майка Вулдріджа, відверті бесіди з ChatGPT про проблеми на роботі або політичні уподобання можуть обернутися проти користувачів.

Майк Вулдрідж, професор Оксфордського університету і фахівець у галузі штучного інтелекту (ШІ), вважає, що розмовляти відверто з чат-ботом — небезпечно, оскільки бот говоритиме вам лише те, що ви хочете чути. Чим саме ризикують користувачі, передає The Guardian.

Майк Вулдрідж стверджує, що нейромережі на кшталт ChatGPT навчаються на основі тієї інформації, яку вони отримують від користувачів. Простіше кажучи, якщо від якоїсь кількості людей ШІ отримає дані про те, що якісь групи людей «погані», то надалі він буде всі свої відповіді щодо запитів про ці групи будувати на основі висновку, що вони — «погані». Наслідки можуть бути непередбачуваними.

У своїх лекціях учений задається питанням: чи зможе ШІ коли-небудь по-справжньому стати схожим на людину? Він особисто вважає, що не варто шукати «свідомість» або «співчуття» в нейромережах. У них просто цього немає.

«Ця технологія ніколи нічого не відчувала», — каже він. — «Вона створена для того, щоб спробувати сказати вам почути те, що ви хочете. Це все, на що вона здатна».

На думку професора, все, що ви вводите в ChatGPT, буде безпосередньо передано в майбутні версії ChatGPT. І якщо, поміркувавши, ви вирішите, що розкрили боту занадто багато, видалення інформації нічого не вирішить, оскільки дані, потрапивши в систему, там і залишаються.

Представник компанії-розробника OpenAI повідомив, що у квітні 2023 року було запроваджено функцію вимкнення історії чату. Як стверджують творці ChatGPT, розмови, розпочаті під час вимкненої історії чату, не використовуватимуть для навчання і поліпшення ШІ-моделей.

Источник: focus.ua

Share

Статьи по теме




Последние новости

Почему от оргазма может болеть голова

Читать всю статью

Мы в соцсетях