
Новое исследование показало, что популярные AI-чатботы могут давать некорректные и даже потенциально опасные советы по здоровью почти в половине случаев. Такие модели многие пользователи уже воспринимают как быстрый способ получить медицинскую рекомендацию.
Что за исследование? Работа, опубликованная в журнале BMJ Open, проанализировала ответы популярных чатботов на 250 медицинских вопросов из разных областей. Эксперты оценивали точность, формулировки, потенциальный вред и наличие ссылок на научные источники. Всего рассмотрели 5 ИИ-моделей — ChatGPT, Gemini, Meta AI, Grok и DeepSeek.
Результаты. В итоге оказалось, что 49,6% ответов были либо неточными, либо вводящими в заблуждение, либо сформулированными так, что могли привести к неправильным решениям о здоровье.
Особенно часто ошибки встречались в темах питания и спорта. В этих категориях чатботы чаще давали советы, которые не соответствовали медицинским рекомендациям. При этом лучше всего модели справлялись с вопросами о вакцинации и раке.
Чатботы слишком «уверены». Отдельная проблема — AI не ставит под сомнение свои ответы. Даже когда информация была неполной или сомнительной, чатботы отказывались отвечать менее чем в 1% случаев.
Кроме того, ссылки на научные источники часто оказывались неполными или ненадежными, в среднем корректность цитирования составила около 40%.
В чем главная проблема? Авторы подчеркивают, что проблема не в том, что AI ошибается. Это нормально для искусственного интеллекта, часто о возможных ошибках предупреждается на самих страницах этих ботов.
Дело именно в том, что пользователю сложно отличить хороший совет от плохого. В результате человек может принять решение, опираясь на неточную информацию, и не осознать этого.
Чатботы могут быть полезны как вспомогательный инструмент, но не должны заменять врача. К их советам следует относиться критически и обязательно перепроверять важную медицинскую информацию.