Newsua.biz


OpenAI видаляє користувачів у Китаї та Північній Кореї, підозрюваних у зловмисних діях

23 февраля
09:37 2025

OpenAI видалив облікові записи користувачів з Китаю та Північної Кореї, які, на думку компанії штучного інтелекту, використовували її технологію для зловмисних цілей, включаючи стеження та операції впливу на думку, повідомив виробник ChatGPT.

Ці дії є способами, якими авторитарні режими можуть спробувати використати ШІ проти США, а також проти власного народу, йдеться у звіті OpenAI, додаючи, що він використовував інструменти ШІ для виявлення операцій.

Компанія не вказала, скільки облікових записів було заблоковано або протягом якого періоду відбулася ця дія.

В одному випадку користувачі ChatGPT створювали статті новин іспанською мовою, які паплюжили Сполучені Штати та були опубліковані основними новинними виданнями в Латинській Америці під назвою китайської компанії.

У другому випадку зловмисники, потенційно пов’язані з Північною Кореєю, використовували ШІ для створення резюме та онлайн-профілів для фіктивних претендентів на роботу з метою шахрайського отримання роботи в західних компаніях.

Інший набір облікових записів ChatGPT, які, як видається, були пов’язані з операцією фінансового шахрайства в Камбоджі, використовували технологію OpenAI для перекладу та створення коментарів у соціальних мережах і на комунікаційних платформах, включаючи X і Facebook.

Уряд США висловив занепокоєння з приводу ймовірного використання Китаєм штучного інтелекту для придушення свого населення, поширення дезінформації та підриву безпеки Сполучених Штатів та їхніх союзників.
ChatGPT від OpenAI є найпопулярнішим чат-ботом штучного інтелекту, і щотижнева кількість активних користувачів компанії перевищила 400 мільйонів . Він веде переговори про залучення до 40 мільярдів доларів США при оцінці в 300 мільярдів доларів, що може стати рекордним єдиним раундом фінансування для приватної компанії.

Share

Статьи по теме




Последние новости

Через «хакерську атаку» на рахунок жінка віддала всі свої заощадження шахраю

Читать всю статью

Мы в соцсетях