Newsua.biz


Штучний інтелект дає людям смертельно небезпечні поради

28 июня
18:28 2025

Звертатися до нейромережі за порадою з будь-якого приводу вже стало звичайною рутиною, але часом це смертельно небезпечно. Користувач Мережі ледь не став жертвою прийому штучного інтелекту.

Щоб уникнути небезпечних наслідків, в жодному разі не слід змішувати відбілювач та оцет. Однак, чат-бот ChatGPT від OpenAI нещодавно запропонував користувачеві Reddit саме це.

Занепокоєний такою порадою чоловік поділився своїм досвідом у пості під назвою «ChatGPT намагався вбити мене сьогодні». Він розповів, як звернувся до бота за рекомендаціями з очищення баків для сміття, і у відповідь отримав пораду використовувати розчин, що містить, крім іншого, оцет і трохи відбілювача.

Після вказівки на помилку, чат-бот оперативно виправив свою рекомендацію, застерігаючи від змішування відбілювача та оцту, оскільки це призводить до утворення отруйного газоподібного хлору.

«Боже мій, ні, дякую, що ти помітив це», — відповів ChatGPT.

Справа в тому, що якщо змішати інгредієнти, то вийде газоподібний хлор, який дуже небезпечний. Вдихнувши його, людина може отримати серйозне отруєння.

Источник: bilshe.com

Share

Статьи по теме




Последние новости

Европа готовится к первой волне жары

Читать всю статью

Мы в соцсетях