$ 537.96  630.27  6.73

Американец попал в "психушку" из-за кулинарного совета ChatGPT

Ясмин Абишева
Журналист Finratings
Американец попал в "психушку" из-за кулинарного совета ChatGPT
Фото: pixabay.com

Он хотел исключить соль из рациона, а ИИ посоветовал ему опасную замену. 

60-летний житель США попал в психиатрический стационар после того, как последовал совету ChatGPT заменить соль на бромид натрия, передает "Комсомольская правда".

Как пишет издание, мужчина решил вести здоровый образ жизни и отказаться от соли. Он спросил совета у ChatGPT, чем можно заменить поваренную соль, и тот посоветовал бромид натрия, который категорически нельзя употреблять в еду.

Поверив искусственному интеллекту, американец три месяца вместо соли готовил еду с бромидом натрия. В итоге у мужчины появилась паранойя, галлюцинации и дезориентация, а затем развился психотический эпизод. Он считал, что сосед пытается его отравить.

Закончилось все тем, что мужчину поместили в психиатрический стационар: концентрация бромидов в его крови при норме 0,9–7 мг на литр составляла запредельные 1700 мг.

К счастью, фатальных последствий прием бромида натрия не принес. После многодневной терапии мужчину выписали из больницы.

Ранее мы рассказывали о другом случае, когда ChatGPT едва не свел с ума жителя США. 

Ваша реакция

👍 0
😆 1
👎 0
🤯 0
😢 1
😡 0

Новости партнеров

×
$ 537.96  630.27  6.73