ChatGPT дав чоловікові пораду, після якої він потрапив у лікарню
У США чоловік потрапив в лікарню після того, як поспілкувався зі штучним інтелектом і послухався його поради.
Про це повідомило American College of Physicians Journals. 60-річний користувач мережі почав турбуватися стосовно того, скільки солі у своєму раціоні та її негативним впливом на здоров’я. Він запитав, чи можна повністю відмовитися від вживання хлориду натрію.
ШІ порадив замінити його бромідом — речовиною, яка у великих дозах токсична. Не знаючи цього, американець замовив у мережі бромід натрію та вживав його замість солі.
Через три місяці з’явилися галюцинації, і чоловіка госпіталізували. Лікарі діагностували бромізм — отруєння бромом, яке може викликати судоми, психічні розлади та інші тяжкі симптоми.
Після трьох тижнів лікування його виписали. Медики застерегли не сприймати поради ШІ як медичну істину. OpenAI нагадує, що ChatGPT не призначений для діагностики чи лікування, а надана інформація може бути неточною.
Источник: nv.ua