Newsua.biz


OpenAI видаляє користувачів у Китаї та Північній Кореї, підозрюваних у зловмисних діях

23 февраля
09:37 2025

OpenAI видалив облікові записи користувачів з Китаю та Північної Кореї, які, на думку компанії штучного інтелекту, використовували її технологію для зловмисних цілей, включаючи стеження та операції впливу на думку, повідомив виробник ChatGPT.

Ці дії є способами, якими авторитарні режими можуть спробувати використати ШІ проти США, а також проти власного народу, йдеться у звіті OpenAI, додаючи, що він використовував інструменти ШІ для виявлення операцій.

Компанія не вказала, скільки облікових записів було заблоковано або протягом якого періоду відбулася ця дія.

В одному випадку користувачі ChatGPT створювали статті новин іспанською мовою, які паплюжили Сполучені Штати та були опубліковані основними новинними виданнями в Латинській Америці під назвою китайської компанії.

У другому випадку зловмисники, потенційно пов’язані з Північною Кореєю, використовували ШІ для створення резюме та онлайн-профілів для фіктивних претендентів на роботу з метою шахрайського отримання роботи в західних компаніях.

Інший набір облікових записів ChatGPT, які, як видається, були пов’язані з операцією фінансового шахрайства в Камбоджі, використовували технологію OpenAI для перекладу та створення коментарів у соціальних мережах і на комунікаційних платформах, включаючи X і Facebook.

Уряд США висловив занепокоєння з приводу ймовірного використання Китаєм штучного інтелекту для придушення свого населення, поширення дезінформації та підриву безпеки Сполучених Штатів та їхніх союзників.
ChatGPT від OpenAI є найпопулярнішим чат-ботом штучного інтелекту, і щотижнева кількість активних користувачів компанії перевищила 400 мільйонів . Він веде переговори про залучення до 40 мільярдів доларів США при оцінці в 300 мільярдів доларів, що може стати рекордним єдиним раундом фінансування для приватної компанії.

Share

Статьи по теме




Последние новости

Зеленский прокомментировал возможность выборов — Новости bigmir)net

Читать всю статью

Мы в соцсетях