ChatGPT не врач и не юрист: когда ИИ лучше не слушать

Нейросети работают с ограниченным объемом информации, часто «придумывают» несуществующие детали и не учитывают вашу конкретную ситуацию.
ИИ может звучать как эксперт, но не всегда говорит правду. В этих девяти ситуациях его советы стоит перепроверить, передает Finratings.kz
1. Психическое здоровье
ChatGPT не заменит психотерапевта. У него нет контекста, знаний о вашем состоянии и опыта. Даже если советы кажутся разумными, они могут быть вредны. При серьезных переживаниях лучше обратиться к специалисту или на горячую линию
По данным исследования Стэнфордского университета, опубликованного в июне, пять популярных чат-ботов, которые позиционируются как «терапевтические», часто дают вредные советы и проявляют предвзятое отношение к людям с психическими проблемами..
2. Диагноз по переписке
Боль в груди или головокружение, не тот случай, когда стоит спрашивать ИИ. ChatGPT может недооценить или переоценить симптомы. Лучше вызвать скорую или проконсультироваться у врача, а не гадать, как вас лечить.
Пользователь Threads @basqar_ai рассказал, что увидел на американском сайте, как врач лечит пациентов.
“Молодой парень привел отца с ножевой раной, и доктор спросил совет у нейросети. ChatGPT подсказал наложить швы и направить к хирургу - простое, но важное решение, которое врач мог пропустить. Пациент говорит, что врач теперь часто сверяется с ИИ перед назначением лечения.”
3. Диеты и ПП-меню
ИИ может составить рацион, но ошибается в подсчетах, не знает о ваших анализах, аллергии или лекарствах. Такой «здоровый» завтрак способен только навредить. Консультация с врачом или нутрициологом — обязательна.
Исследование, опубликованное в феврале в научном журнале Nutrients, показало, что ChatGPT-4 часто занижает размер порций и недооценивает количество белка и витаминов, особенно если на фото еда выглядит обычной, например, салаты, макароны или запеканки.
4. Юридические советы могут быть выдумкой
Искусственный интеллект не разбирается в законах конкретной страны, может не учитывать местные особенности, легко ошибается в юридических терминах, ссылается на устаревшие нормы или вообще придумывает несуществующие статьи. Ошибки в юридических вопросах оборачиваются штрафами или судами.
5. Финансовые советы
ИИ может подсказать «горячий» актив или инвестицию, но это не всегда безопасно. Стратегии, предложенные ботом, зачастую проигрывают даже индексным фондам.
В тесте Investing in the Web ChatGPT ответил на 100 реальных вопросов о личных финансах, почти треть ответов (29%) были неточными или сбивающими с толку, а 6% оказались просто неправильными. Не стоит доверять финансы советам без источников и опыта.
6. Расчеты для стройки
ChatGPT не знает материалов, климата и норм, а ошибки в расчетах чертежах могут привести к авариям. Все инженерные и строительные расчеты должен делать специалист.
7. Код может быть сломанным
ИИ хороший помощник для программиста, но не наставник для новичка, ведь он может допустить уязвимости, использовать устаревшие решения или написать код, который не заработает. Без проверок запускать его риск.
8. Кибербезопасность
ИИ часто не отличает настоящие угрозы от вымышленных. Может пропустить фишинговый сайт или, наоборот, напугать несуществующей уязвимостью. Лучше полагаться на специалистов и проверенные ресурсы.
Недавнее исследование ученых из Японии показало, что ChatGPT почти всегда путает настоящие слабые стороны с вымышленными. В 97% случаев он выдает убедительные, но полностью придуманные предупреждения о несуществующих проблемах, с фейковыми кодами CVE, то есть просто пугает там, где никакой опасности нет.
9. Воспитание детей
Советы по воспитанию от нейросети слишком общие. Каждый ребенок уникален, а ИИ не знает ни вашего окружения, ни характера малыша. Лучше читать книги специалистов, слушать подкасты и сверять с реакцией ребенка.