От цифровых писцов до ChatGPT искусственный интеллект (ИИ) быстро проникает в клиники врачей общей практики. Новое исследование Сиднейского университета предупреждает, что технологии опережают проверки безопасности, подвергая риску пациентов и системы здравоохранения.
В исследовании, опубликованном в The Lancet Primary Care, были обобщены глобальные данные о том, как ИИ используется в первичной медико-санитарной помощи, с использованием данных из США, Великобритании, Австралии, нескольких африканских стран, Латинской Америки, Ирландии и других регионов. Было обнаружено, что инструменты искусственного интеллекта, такие как ChatGPT, AI-писцы и приложения для работы с пациентами, все чаще используются для клинических запросов, документации и консультаций для пациентов, однако большинство из них развертываются без тщательной оценки или нормативного надзора.
«Первичная медико-санитарная помощь является основой систем здравоохранения, обеспечивая доступную и непрерывную помощь», — сказала руководитель исследования доцент Лилиана Ларанхо, научный сотрудник Horizon в Центре прикладных исследований Вестмида. «ИИ может ослабить нагрузку на перегруженные службы, но без мер безопасности мы рискуем непредвиденными последствиями для безопасности пациентов и качества медицинской помощи».
Врачи общей практики и пациенты обращаются к ИИ, но фактические данные отстают
Первичная медико-санитарная помощь во всем мире испытывает трудности: от нехватки рабочей силы до выгорания врачей и растущей сложности здравоохранения, и все это усугубляется пандемией COVID-19. ИИ рекламировался как решение с инструментами, которые экономят время за счет обобщения консультаций, автоматизации администрирования и поддержки принятия решений.
В Великобритании каждый пятый врач общей практики сообщил об использовании генеративного ИИ в клинической практике в 2024 году. Однако обзор показал, что большинство исследований ИИ в первичной медико-санитарной помощи основано на моделировании, а не на реальных испытаниях, что оставляет серьезные пробелы в эффективности, безопасности и справедливости.
Количество врачей общей практики, использующих генеративный ИИ в Австралии, достоверно не известно, но оценивается в 40 процентов.
«ИИ уже есть в наших клиниках, но без австралийских данных о том, сколько врачей общей практики его используют, или надлежащего надзора, мы закрываем глаза на безопасность», — сказал доцент Ларанхо.
Хотя писцы с искусственным интеллектом и технологии окружающего прослушивания могут снизить когнитивную нагрузку и повысить удовлетворенность работой врачей общей практики, они также несут в себе такие риски, как предвзятость автоматизации и потеря важных социальных или биографических деталей в медицинских записях.
"Наше исследование показало, что многие врачи общей практики, использующие ИИ-писцов, не хотят снова печатать. Они говорят, что это ускоряет консультации и позволяет им сосредоточиться на пациентах, но эти инструменты могут упускать важные личные данные и могут вносить предвзятость", - сказал доцент Ларанхо.
Пациентам программы проверки симптомов и приложения для здоровья обещают удобство и персонализированный уход, но их точность часто варьируется, и многим не хватает возможности для независимой оценки.
"Генераторные модели, такие как ChatGPT, могут звучать убедительно, но фактически неверны", - сказал доцент Ларанхо. «Они часто соглашаются с пользователями, даже когда они ошибаются, что опасно для пациентов и сложно для врачей».
Риски ИИ для справедливости и окружающей среды
Эксперты предупреждают, что, хотя ИИ обещает более быструю диагностику и персонализированный уход, он также может углубить пробелы в здоровье, если закрадывается предвзятость. Например, дерматологические инструменты часто ошибочно диагностируют более темные оттенки кожи, которые обычно недостаточно представлены в наборах обучающих данных.
И наоборот, исследователи утверждают, что при правильном проектировании ИИ может решить проблему неравенства: одно исследование артрита удвоило число чернокожих пациентов, имеющих право на замену коленного сустава, благодаря использованию алгоритма, обученного на разнообразном наборе данных, что делает его более способным прогнозировать боль в колене, о которой сообщают пациенты, по сравнению со стандартной интерпретацией рентгеновских снимков врача.
«Игнорирование социально-экономических факторов и универсального дизайна может превратить ИИ в первичной медико-санитарной помощи из прорыва в неудачу», — сказал доцент Ларанхо.
Экологические затраты также огромны. Training GPT-3, версия ChatGPT, выпущенная в 2020 году, выбросила количество углекислого газа, эквивалентное 188 полетам между Нью-Йорком и Сан-Франциско. Центры обработки данных в настоящее время потребляют около 1 процента мировой электроэнергии, а в Ирландии на центры обработки данных приходится более 20 процентов национального потребления электроэнергии.
«Воздействие ИИ на окружающую среду представляет собой проблему», — сказал доцент Ларанхо. «Нам нужны устойчивые подходы, которые сочетают инновации с равенством и здоровьем планеты».
Исследователи призывают правительства, врачей и разработчиков технологий уделять первоочередное внимание:
- надежная оценка и реальный мониторинг инструментов искусственного интеллекта;
- нормативно-правовая база, идущая в ногу с инновациями;
- образование врачей и общественности для повышения грамотности в области искусственного интеллекта;
- стратегии смягчения предвзятости для обеспечения справедливости в здравоохранении.
- устойчивые методы снижения воздействия ИИ на окружающую среду

04:00







