08 Марта 2026

Исследование: ИИ уязвим к ошибкам в больничных документах
Дарья Березина
Мединдустрия Искусственный интеллект
11 февраля 2026, 14:09

Фото: freepik.com / автор: DilokaStudio
1172

Ученые из Медицинской школы Икана при медцентре Маунт-Синай (США) провели масштабное тестирование медицинских систем искусственного интеллекта (ИИ) и выявили их устойчивую уязвимость к дезинформации. Исследование показало, что модели чаще принимают ложные медицинские рекомендации за достоверные, если они изложены в формальном клиническом стиле. Работа опубликована в журнале The Lancet Digital Health.

В исследовании протестировано 20 открытых и коммерческих больших языковых моделей, а также ряд медицинских версий, дообученных под клинические задачи. Им предлагались три типа контента: реальные больничные выписки с одной намеренно вставленной ложной рекомендацией, распространенные медицинские мифы из социальных сетей и 300 клинических сценариев, подготовленных врачами. Всего было проанализировано более 1 млн ответов на пользовательские запросы. В среднем модели транслировали недостоверную информацию примерно в 32% случаев.

Наибольшая уязвимость выявлена при работе с материалами, оформленными как медицинская документация. Если ложная рекомендация содержалась в правдоподобной выписке из стационара, вероятность ее воспроизведения возрастала почти до 47%. В случае публикаций из социальных сетей этот показатель снижался до 9%. В наборе смоделированных клинических сценариев, подготовленных врачами, уровень принятия фабрикаций составил 5,1%. Авторы отмечают, что модели в большей степени ориентируются на уверенный и официальный стиль изложения, чем на фактическую корректность утверждений.

Дополнительным фактором риска стала формулировка запроса. Исследователи протестировали 10 типов риторических конструкций – в частности, ссылки на мнение большинства, на авторитет эксперта и утверждения о неизбежных негативных последствиях. Так, если пользователь представлялся старшим клиницистом или сопровождал утверждение ссылкой на опытного специалиста, доля принятия ложной информации ИИ возрастала до 34,6%.

Сравнительный анализ продемонстрировал существенную вариативность устойчивости моделей к ложным медицинским утверждениям. Модель GPT-4o компании OpenAI продемонстрировала одну из наименьших долей принятия ложных утверждений – 10,6% при высокой точности выявления логических ошибок (89,7%). Близкие показатели устойчивости показали Llama-4-Scout компании Meta* и открытая модель gpt-oss-20b от OpenAI. В то же время у ряда систем уязвимость превышала 50%, а у Gemma-3-4B-it от компании Google достигала 63,6%. Медицинские версии моделей, включая специализированные решения на базе Qwen от китайской компании Alibaba и Llama от Meta, в среднем оказались более восприимчивыми к фабрикациям, чем универсальные модели, что авторы связывают с особенностями дообучения и архитектуры.

Исследователи подчеркивают, что по мере расширения применения ИИ – от цифровых сервисов для пациентов до автоматизации клинической документации и поддержки врачебных решений – отсутствие встроенных механизмов проверки медицинских утверждений становится системным риском. По их оценке, без дополнительной валидации и контроля такие модели могут масштабировать ошибки вместе с расширением применения цифровых решений в здравоохранении.

В феврале 2026 года «Лаборатория Касперского» сообщала, что каждый десятый пользователь ИИ-чатботов полностью доверяет их рекомендациям в медицинских, финансовых и юридических вопросах. При этом 67% опрошенных считают нейросети полностью или частично небезопасными, а среди ключевых опасений называют получение недостоверной информации, способной нанести вред здоровью.

Параллельно в ежегодном отчете американской независимой организации по безопасности пациентов ECRI «ТОП10 технологических угроз в здравоохранении» ИИ-чатботы заняли первое место среди наиболее серьезных технологических угроз 2026 года. В организации указывают, что системы на базе больших языковых моделей активно используются врачами и пациентами, при этом не регулируются как медицинские изделия и не проходят полноценную клиническую валидацию.

* Meta признана экстремистской организацией и запрещена в России

Источник: The Lancet Digital Health

ИИ в здравоохранении. Дайджест Vademecum за 1–7 марта 2026 года

Картина дня: дайджест главных новостей от 6 марта 2026 года

Частная «Клиника сердца» освободит помещения Уральского института кардиологии

Депутаты предложили увеличить ценовой предел подарка для врачей до 10 тысяч рублей

Pfizer выходит на рынок препаратов от ожирения в Китае

В архангельском ГУП «Фармация» назначен и. о. гендиректора

Власти Петербурга добились расторжения соглашения о строительстве завода «Полекс-Фарм» за 2 млрд рублей

Минздрав обновит требования к оснащению и работе службы крови

Руководителя орловского Депздрава утвердили в должности

ФМБА обновит порядок единовременных выплат медработникам своих клиник