Newsua.biz


Виявилося, що ChatGPT готовий розкрити корпоративні секрети

19 апреля
01:21 2023

Відповідно до звіту ізраїльської венчурної фірми Team8, компанії, які використовують інструменти генеративного штучного інтелекту, такі як ChatGPT, можуть піддавати ризику конфіденційну інформацію про клієнтів і комерційні таємниці. 

Широке впровадження нових чат-ботів та інструментів для написання штучного інтелекту може зробити компанії вразливими до витоку даних і судових позовів, йдеться у звіті, який був наданий Bloomberg News до його публікації. Є побоювання, що чат-боти можуть бути використані хакерами для доступу до конфіденційної корпоративної інформації або здійснення дій проти компанії. Є також побоювання, що конфіденційна інформація, яка зараз передається в чат-боти, може бути використана компаніями штучного інтелекту в майбутньому.

Великі технологічні компанії, включаючи Microsoft Corp. і Alphabet Inc., намагаються додати генеративні можливості штучного інтелекту для вдосконалення чат-ботів і пошукових систем, навчаючи свої моделі на даних, зібраних з Інтернету, щоб надати користувачам єдиний доступ до їхніх запитів. Якщо ці інструменти надсилають конфіденційні або особисті дані, буде дуже важко стерти інформацію, йдеться у звіті. 

«Використання GenAI на підприємстві може призвести до доступу та обробки конфіденційної інформації, інтелектуальної власності, вихідного коду, комерційних таємниць та інших даних за допомогою прямого введення користувача або API, включаючи клієнтську або приватну інформацію та конфіденційну інформацію», — йдеться у звіті. класифікуючи ризик як «високий». Він назвав ризики «керованими», якщо запровадити відповідні запобіжні заходи. 

У звіті Team8 наголошується, що запити чат-ботів не вводяться в широкомовні моделі для навчання штучного інтелекту, всупереч останнім повідомленням про те, що такі підказки потенційно можуть бачити інші. 

«На момент написання цієї статті великі мовні моделі не можуть оновлюватися в режимі реального часу і, отже, не можуть повертати введені дані до відповіді іншого, фактично розвінчуючи цю проблему. Однак це не обов’язково стосується навчання майбутніх версій цих моделей», – йдеться в повідомленні. 

У документі відмічено три інші проблеми «високого ризику» в інтеграції генеративних інструментів штучного інтелекту та підкреслено підвищену загрозу поширення інформації через сторонні програми. Корпорація Майкрософт вбудувала деякі функції чат-ботів зі штучним інтелектом у свою пошукову систему Bing та інструменти Microsoft 365. 

Share

Статьи по теме




Последние новости

В России атакованы еще два склада с боеприпасами — фото и видео

Читать всю статью

Мы в соцсетях