Искусственный интеллект в клинической практике. Польза и вред
Исследование, проведенное в Мичиганском университете, показало, что систематически предвзятые модели искусственного интеллекта (ИИ) могут снижать точность диагностики у госпитализированных пациентов. Это подчеркивает важность осторожного использования ИИ в клинической практике.
ИИ-модели обучаются на больших объемах данных, которые могут быть несбалансированными. Например:
Чтобы изучить, как предвзятость ИИ влияет на диагностическую точность врачей, исследователи провели рандомизированное клиническое исследование в формате веб-опроса. В исследовании, которое проводилось с апреля 2022 по январь 2023 года, участвовали госпитальные врачи, практикующие медсестры и помощники врачей из 13 штатов США. Результаты были опубликованы в журнале JAMA.
Участники были разделены на две группы:
На первом этапе исследователи установили базовый уровень диагностической точности врачей. Участникам были представлены девять клинических случаев пациентов с острой дыхательной недостаточностью. Каждый случай включал:
Исследование показало, что ИИ имеет потенциал для улучшения диагностической точности, но его предвзятость может нанести вред. Врачам следует:
Искусственный интеллект продолжает развиваться, но его внедрение в клиническую практику требует осторожности. Необходимы дополнительные исследования, чтобы улучшить взаимодействие врачей с ИИ и минимизировать риски, связанные с его использованием.
Проблема предвзятости в ИИ-моделях
ИИ-модели обучаются на больших объемах данных, которые могут быть несбалансированными. Например:
- Данные могут быть собраны преимущественно среди определенных групп населения (например, одной этнической группы), что делает модели менее точными для других групп (например, этнических меньшинств).
- Данные могут не учитывать редкие заболевания или сложные комбинации состояний, что приводит к ошибкам в диагностике.
- Предвзятость может усиливаться на этапе разработки алгоритмов, если они оптимизируются для достижения высокой общей точности, но игнорируют точность для небольших субпопуляций.
Цель и методология исследования
Чтобы изучить, как предвзятость ИИ влияет на диагностическую точность врачей, исследователи провели рандомизированное клиническое исследование в формате веб-опроса. В исследовании, которое проводилось с апреля 2022 по январь 2023 года, участвовали госпитальные врачи, практикующие медсестры и помощники врачей из 13 штатов США. Результаты были опубликованы в журнале JAMA.
Участники были разделены на две группы:
- Группа с объяснениями ИИ: 226 врачей получали рекомендации ИИ, сопровождаемые пояснениями ("ходом мыслей" модели).
- Группа без объяснений: 231 врач получал только рекомендации ИИ без дополнительных пояснений.
Ход исследования
На первом этапе исследователи установили базовый уровень диагностической точности врачей. Участникам были представлены девять клинических случаев пациентов с острой дыхательной недостаточностью. Каждый случай включал:
- Симптомы пациента.
- Данные физикального осмотра.
- Результаты лабораторных анализов.
- Рентгенограммы грудной клетки.
Врачи анализировали:
- Два случая без рекомендаций ИИ (для определения базовой точности).
- Шесть случаев с рекомендациями ИИ (как стандартных, так и предвзятых моделей).
- Один случай с рекомендациями гипотетического коллеги (для сравнения).
Результаты исследования
- Базовая диагностическая точность врачей составила 73% для диагнозов пневмонии, сердечной недостаточности и хронической обструктивной болезни легких (ХОБЛ).
- При использовании стандартных моделей ИИ точность врачей увеличилась:
- На 2,9% — без объяснений.
- На 4,4% — с объяснениями.
- Однако при использовании систематически предвзятых моделей ИИ точность снизилась:
- На 11,3% — без объяснений.
- На 9,1% — с объяснениями.
Исследователи отметили, что снижение точности связано с уменьшением диагностической специфичности врачей. При этом добавление объяснений ИИ не смогло существенно улучшить ситуацию.
Ограничения исследования
- Использование веб-опроса, который может отличаться от реальных клинических условий.
- Более молодой, чем в среднем, состав участников, что могло повлиять на результаты.
- Фокус на врачах, принимающих решения о лечении, что может не отражать опыт других специалистов.
Выводы и рекомендации
Исследование показало, что ИИ имеет потенциал для улучшения диагностической точности, но его предвзятость может нанести вред. Врачам следует:
- Критически оценивать рекомендации ИИ, особенно для пациентов из underrepresented групп.
- Не полагаться исключительно на ИИ, а использовать его как вспомогательный инструмент.
Для разработчиков ИИ важно:
- Проводить тщательную проверку моделей на предвзятость перед внедрением.
- Учитывать потребности клиницистов при создании инструментов ИИ.
Заключение
Искусственный интеллект продолжает развиваться, но его внедрение в клиническую практику требует осторожности. Необходимы дополнительные исследования, чтобы улучшить взаимодействие врачей с ИИ и минимизировать риски, связанные с его использованием.