Генеративный искусственный интеллект на подходе в сферу здравоохранения, и не все в восторге

Генеративный искусственный интеллект, который может создавать и анализировать изображения, текст, аудио, видео и многое другое, все чаще проникает в сферу здравоохранения, за что стоят как крупные технологические компании, так и стартапы.

Google Cloud, дивизион облачных услуг и продуктов Google, сотрудничает с Highmark Health, некоммерческой организацией по здравоохранению с штаб-квартирой в Питтсбурге, над генеративными инструментами искусственного интеллекта, созданными для персонализации опыта приема пациентов. AWS-дивизия Amazon говорит, что работает с не названными клиентами над способом использования генеративного искусственного интеллекта для анализа медицинских баз данных по “социальным определителям здоровья”. И Microsoft Azure помогает создать систему генеративного искусственного интеллекта для Providence, сети некоммерческого здравоохранения, автоматически направляющую сообщения от пациентов к медицинским работникам.

В числе примечательных стартапов генеративного искусственного интеллекта в сфере здравоохранения Ambience Healthcare, разрабатывающий приложение генеративного искусственного интеллекта для клиницистов; Nabla, фоновый помощник по искусственному интеллекту для практикующих специалистов; и Abridge, создающий аналитические инструменты для медицинской документации.

Широкий азарт по поводу генеративного искусственного интеллекта отражается в инвестициях в усилия по генеративному искусственному интеллекту в области здравоохранения. Коллективно стартапы генеративного искусственного интеллекта в сфере здравоохранения привлекли десятки миллионов долларов венчурного капитала на сегодняшний день, и подавляющее большинство инвесторов в здравоохранении говорят, что генеративный искусственный интеллект значительно влияет на их стратегии инвестирования.

Но и профессионалы, и пациенты неоднозначно смотрят на то, готов ли генеративный искусственный интеллект, ориентированный на здравоохранение, к запуску в прямом эфире.

Генеративный искусственный интеллект может быть не тем, что люди хотят

По последнему опросу Deloitte лишь около половины (53%) американских потребителей сказали, что они считают, что генеративный искусственный интеллект мог бы улучшить здравоохранение — например, сделав его более доступным или сократив время ожидания приема. Меньше половины сказали, что они ожидают, что генеративный искусственный интеллект сделает медицинскую помощь более доступной.

Андрей Борковский, главный интеллектуальный агент в сети здравоохранения VA Sunshine, крупнейшей здравоохранительной системы Управления ветеранов США, считает, что цинизм вполне обоснован. Борковский предупредил, что внедрение генеративного искусственного интеллекта может быть преждевременным из-за его “существенных” ограничений и опасений по поводу его эффективности.

“Одной из ключевых проблем с генеративным искусственным интеллектом является его неспособность решать сложные медицинские запросы или чрезвычайные ситуации”, — сказал он журналу TechCrunch. “Его ограниченная база знаний — то есть отсутствие актуальной клинической информации — и отсутствие человеческой экспертизы делает его неспособным предоставлять полноценные медицинские советы или рекомендации по лечению.”

Несколько исследований подтверждают эти аспекты.

В статье в журнале JAMA Pediatrics чатбот генеративного искусственного интеллекта OpenAI, ChatGPT, которым некоторые медицинские организации испытывали на ограниченные случаи использования, оказался ошибочным в 83% случаев при диагностике детских заболеваний. Испытывая OpenAI’s GPT-4 в качестве диагностического помощника в Бостонском медицинском центре Бет Израиль, врачи обнаружили, что модель в 60% случаев ошибается в первоочередной мочестности диагноза.

Сегодняшний генеративный искусственный интеллект также испытывает трудности с административными медицинскими задачами, которые являются неотъемлемой частью повседневного рабочего процесса медицинских работников. По бенчмарку MedAlign, оценивающему, насколько хорошо генеративный искусственный интеллект может выполнять такие задачи, как резюмирование карточек пациентов и поиск в заметках, GPT-4 провалился в 35% случаев.

OpenAI и многие другие поставщики генеративного искусственного интеллекта предупреждают, что нельзя полагаться на их модели для медицинских советов. Но Борковский и другие считают, что они могли бы сделать больше. “Полное полагание на генеративный искусственный интеллект в здравоохранении может привести к ошибочным диагнозам, неадекватным методам лечения или даже ситуациям, угрожающим жизни”, — сказал Борковский.

Ян Эггер, руководитель программ по искусственному интеллекту в медицине Института по искусственному интеллекту в медицине Университета Дуйсбург-Эссен, который изучает применение новейших технологий в области ухода за пациентами, разделяет опасения Борковского. Он считает, что единственный безопасный способ использования генеративного искусственного интеллекта в здравоохранении в настоящее время — это под пристальным вниманием врача.

“Результаты могут быть полностью неправильными, и все сложнее и сложнее оставаться в курсе этого”, — сказал Эггер. “Конечно, генеративный искусственный интеллект может использоваться, например, для предварительного написания выписных писем. Но врачи несут ответственность за его проверку и принятие окончательного решения.”

Генеративный искусственный интеллект может усиливать стереотипы

Один из особенно вредных способов, которым генеративный искусственный интеллект в сфере здравоохранения может ошибаться, — это укрепление стереотипов.

В исследовании из Стэнфордской медицины 2023 года группа исследователей протестировала ChatGPT и другие чатботы, работающие на генеративном искусственном интеллекте, по вопросам о функции почек, емкости легких и толщине кожи. Как выявили соавторы, ответы ChatGPT часто были неверными, и они содержали несколько подкрепленных давно известных неправдоподобных убеждений о существующих биологических различиях между чернокожими и белыми людьми — недостоверности, которые, как известно, привели к неправильным диагнозам заболеваний от медицинских работников.

Ирония заключается в том, что пациенты, наиболее склонные к дискриминации со стороны генеративного искусственного интеллекта в здравоохранении, также наиболее склонны к его использованию.

Люди, лишенные медицинского обеспечения — в основном люди цвета кожи, согласно исследованию KFF — более склонны попробовать генеративный искусственный интеллект для вещей, таких как поиск доктора или поддержки психического здоровья, показал опрос Deloitte. Если рекомендации искусственного интеллекта искажены предвзятостью, это может усугубить неравенства в лечении.

Тем не менее, некоторые эксперты утверждают, что генеративный искусственный интеллект улучшается в этом отношении.

В исследовании Microsoft, опубликованном в конце 2023 года, исследователи сообщили, что они достигли точности 90,2% на четырех сложных медицинских маркерах, используя GPT-4. Обычный GPT-4 не мог достичь этого результата. Но, согласно исследователям, через инженерию запросов — создание запросов для GPT-4 для получения определенных результатов — они смогли увеличить результаты модели на 16,2 процентных пункта. (Следует отметить, что Microsoft является крупным инвестором в OpenAI.)

За пределами чатботов

Однако задавать чатботу вопрос не единственное, в чем генеративный искусственный интеллект хорош. Некоторые исследователи считают, что медицинское изображение может существенно выиграть от мощи генеративного искусственного интеллекта.

В июле группа ученых представила систему под названием CoDoC, разработанную для определения, когда специалисты по медицинскому изображению должны полагаться на искусственный интеллект для диагностики вместо традиционных техник. Согласно соавторам, CoDoC справилась лучше специалистов, сокращая клинические процессы на 66%. В ноябре китайская исследовательская группа продемонстрировала Panda, модель искусственного интеллекта, используемую для обнаружения потенциальных опухолей поджелудочной железы на рентгеновских снимках. Исследование показало, что Panda очень точно классифицирует эти опухоли, которые часто обнаруживаются слишком поздно для оперативного вмешательства.

Действительно, Арун Тирунавукарасу, клинический исследователь Университета Оксфорда, сказал, что в короткосрочной и среднесрочной перспективе “нет ничего уникального” в преграждении развертывания генеративного искусственного интеллекта в области здравоохранения.

“Более мирным применениям технологии генеративного искусственного интеллекта в текстовой коррекции, автоматической документации заметок и писем и улучшенных функциях поиска для оптимизации электронных карточек пациентов вполне осуществимы”, — сказал он. “Нет причин, почему технологию генеративного искусственного интел