Американец попал в "психушку" из-за кулинарного совета ChatGPT

Он хотел исключить соль из рациона, а ИИ посоветовал ему опасную замену.
60-летний житель США попал в психиатрический стационар после того, как последовал совету ChatGPT заменить соль на бромид натрия, передает "Комсомольская правда".
Как пишет издание, мужчина решил вести здоровый образ жизни и отказаться от соли. Он спросил совета у ChatGPT, чем можно заменить поваренную соль, и тот посоветовал бромид натрия, который категорически нельзя употреблять в еду.
Поверив искусственному интеллекту, американец три месяца вместо соли готовил еду с бромидом натрия. В итоге у мужчины появилась паранойя, галлюцинации и дезориентация, а затем развился психотический эпизод. Он считал, что сосед пытается его отравить.
Закончилось все тем, что мужчину поместили в психиатрический стационар: концентрация бромидов в его крови при норме 0,9–7 мг на литр составляла запредельные 1700 мг.
К счастью, фатальных последствий прием бромида натрия не принес. После многодневной терапии мужчину выписали из больницы.
Ранее мы рассказывали о другом случае, когда ChatGPT едва не свел с ума жителя США.