ИИ превосходит человека в медицинских тестах, но уступает в реальной диагностике — исследование выявило ограничения

0
176
Модели ИИ превосходят человека в медицинских тестах знаний, но испытывают трудности в реальной клинической диагностике, подчеркивая необходимость человеческого контроля в здравоохранении.

ПАТТАЙЯ, Таиланд – Все больше людей обращаются к искусственному интеллекту для получения медицинских рекомендаций, используя его для анализа симптомов и медицинских отчетов перед визитом к врачу. Хотя системы ИИ способны за секунды выдавать структурированные оценки, остается вопрос, могут ли они действительно точно диагностировать и лечить пациентов.

Исследование Марбургского университета в Германии сравнило 13 больших языковых моделей с 123 студентами-медиками и врачами с использованием стандартизированных тестов по острому повреждению почек. Результаты показали явное превосходство ИИ: модели в среднем набрали около 90 процентов, а некоторые — максимальный балл. Люди показали средний результат лишь 48,7 процента. При этом ИИ выполнял задания значительно быстрее.


Однако, несмотря на высокий уровень знаний, модели по-прежнему не обладают клиническим мышлением, необходимым для реальной медицинской практики.

Другое исследование, опубликованное в журнале JAMA Network Open, показало, что большие языковые модели испытывают трудности с клиническим мышлением, особенно на ранних этапах случаев, когда информации недостаточно. В 29 смоделированных сценариях системы более чем в 80 процентах случаев не смогли сформировать корректный дифференциальный диагноз.

Исследователи подчеркивают, что дифференциальный диагноз является ключевой частью «искусства и науки» медицины — областью, в которой ИИ пока не может заменить человека. Поэтому искусственный интеллект рассматривается как инструмент поддержки, а не замены врачей.

Йенс Клесейк из университетской клиники Эссена отметил, что цифровые системы уже трансформируют процессы в здравоохранении, такие как документация и координация, однако они должны работать под контролем специалистов. Эксперты согласны, что человеческий надзор остается необходимым для безопасного использования ИИ в медицине.

При этом возникает риск ошибок в использовании технологий. Опытные врачи могут распознавать неточности в рекомендациях ИИ, тогда как менее опытные пользователи часто не обладают достаточной критической оценкой.


Еще одна проблема — «передача процесса мышления» ИИ, когда пользователи чрезмерно доверяют системам, выдающим уверенные, но не всегда точные ответы. Это может со временем снизить способность к самостоятельному анализу.

Исследователи предупреждают, что постепенная зависимость от ИИ может привести к ослаблению ключевых медицинских навыков, требующих постоянной практики и человеческого опыта.