Виявилося, що ChatGPT готовий розкрити корпоративні секрети
Відповідно до звіту ізраїльської венчурної фірми Team8, компанії, які використовують інструменти генеративного штучного інтелекту, такі як ChatGPT, можуть піддавати ризику конфіденційну інформацію про клієнтів і комерційні таємниці.
Широке впровадження нових чат-ботів та інструментів для написання штучного інтелекту може зробити компанії вразливими до витоку даних і судових позовів, йдеться у звіті, який був наданий Bloomberg News до його публікації. Є побоювання, що чат-боти можуть бути використані хакерами для доступу до конфіденційної корпоративної інформації або здійснення дій проти компанії. Є також побоювання, що конфіденційна інформація, яка зараз передається в чат-боти, може бути використана компаніями штучного інтелекту в майбутньому.
Великі технологічні компанії, включаючи Microsoft Corp. і Alphabet Inc., намагаються додати генеративні можливості штучного інтелекту для вдосконалення чат-ботів і пошукових систем, навчаючи свої моделі на даних, зібраних з Інтернету, щоб надати користувачам єдиний доступ до їхніх запитів. Якщо ці інструменти надсилають конфіденційні або особисті дані, буде дуже важко стерти інформацію, йдеться у звіті.
«Використання GenAI на підприємстві може призвести до доступу та обробки конфіденційної інформації, інтелектуальної власності, вихідного коду, комерційних таємниць та інших даних за допомогою прямого введення користувача або API, включаючи клієнтську або приватну інформацію та конфіденційну інформацію», — йдеться у звіті. класифікуючи ризик як «високий». Він назвав ризики «керованими», якщо запровадити відповідні запобіжні заходи.
У звіті Team8 наголошується, що запити чат-ботів не вводяться в широкомовні моделі для навчання штучного інтелекту, всупереч останнім повідомленням про те, що такі підказки потенційно можуть бачити інші.
«На момент написання цієї статті великі мовні моделі не можуть оновлюватися в режимі реального часу і, отже, не можуть повертати введені дані до відповіді іншого, фактично розвінчуючи цю проблему. Однак це не обов’язково стосується навчання майбутніх версій цих моделей», – йдеться в повідомленні.
У документі відмічено три інші проблеми «високого ризику» в інтеграції генеративних інструментів штучного інтелекту та підкреслено підвищену загрозу поширення інформації через сторонні програми. Корпорація Майкрософт вбудувала деякі функції чат-ботів зі штучним інтелектом у свою пошукову систему Bing та інструменти Microsoft 365.
«Наприклад, сторонні додатки, що використовують API GenAI, у разі зламу можуть потенційно надати доступ до електронної пошти та веб-браузера та дозволити зловмиснику виконувати дії від імені користувача», — йдеться у повідомленні.
Існує «середній ризик», що використання генеративного штучного інтелекту може посилити дискримінацію, завдати шкоди репутації компанії або піддати її судовим позовам через проблеми з авторським правом.
Енн Джонсон, корпоративний віце-президент Microsoft, брала участь у складанні звіту. Microsoft інвестувала мільярди в Open AI, розробника ChatGPT.
«Microsoft заохочує прозоре обговорення нових кіберризиків у спільнотах безпеки та ШІ», — сказав представник Microsoft.
Десятки керівників інформаційної безпеки американських компаній також вказані як учасники звіту. Звіт Team8 також підтримав Майкл Роджерс, колишній голова Агентства національної безпеки США та Кіберкомандування США.