Популярные AI-чатботы часто дают сомнительные советы по вопросам здоровья

Опубликовано 17 апреля 2026 17:14

Юлия Петрова

Юлия Петрова

unsplash.com, бильд-редактор: Адэлина Мамедова

Новое исследование показало, что популярные AI-чатботы могут давать некорректные и даже потенциально опасные советы по здоровью почти в половине случаев. Такие модели многие пользователи уже воспринимают как быстрый способ получить медицинскую рекомендацию.

Что за исследование? Работа, опубликованная в журнале BMJ Open, проанализировала ответы популярных чатботов на 250 медицинских вопросов из разных областей. Эксперты оценивали точность, формулировки, потенциальный вред и наличие ссылок на научные источники. Всего рассмотрели 5 ИИ-моделей — ChatGPT, Gemini, Meta AI, Grok и DeepSeek.

Результаты. В итоге оказалось, что 49,6% ответов были либо неточными, либо вводящими в заблуждение, либо сформулированными так, что могли привести к неправильным решениям о здоровье.

Особенно часто ошибки встречались в темах питания и спорта. В этих категориях чатботы чаще давали советы, которые не соответствовали медицинским рекомендациям. При этом лучше всего модели справлялись с вопросами о вакцинации и раке.

Чатботы слишком «уверены». Отдельная проблема — AI не ставит под сомнение свои ответы. Даже когда информация была неполной или сомнительной, чатботы отказывались отвечать менее чем в 1% случаев. 

Кроме того, ссылки на научные источники часто оказывались неполными или ненадежными, в среднем корректность цитирования составила около 40%. 

В чем главная проблема? Авторы подчеркивают, что проблема не в том, что AI ошибается. Это нормально для искусственного интеллекта, часто о возможных ошибках предупреждается на самих страницах этих ботов. 

Дело именно в том, что пользователю сложно отличить хороший совет от плохого. В результате человек может принять решение, опираясь на неточную информацию, и не осознать этого.

Чатботы могут быть полезны как вспомогательный инструмент, но не должны заменять врача. К их советам следует относиться критически и обязательно перепроверять важную медицинскую информацию.

Если статья вызывает у вас тревогу, обсудите ее с искусственным психологом

Обсудить тревогу
Читайте также