В настоящее время медицинские организации США проводят пилотный проект по созданию сообщений для пациентов через ChatGPT. Единственная проблема заключается в том, что это делается без их предварительного согласия. Хотя перед отправкой сообщения проверяются врачом, вовлечение искусственного интеллекта в такие чувствительные области, как здоровье и конфиденциальность пациента, вызывает этические сомнения.
В то время как несколько компаний изучают возможность использования ChatGPT в качестве бизнес-инструмента, медицинские организации стремятся интегрировать его в медицинские системы, чтобы снизить уровень выгорания персонала и потенциально уменьшить нехватку кадров. Опросы показали, что врачи могут испытывать значительный стресс, получая сотни сообщений одновременно в свой почтовый ящик. Хотя ответ на сообщение пациента обычно занимает всего несколько минут, при десятках сообщений в день многие врачи занимаются ими в нерабочее время. Проблема обострилась во время пандемии COVID-19, увеличившись с 50 000 до более чем 80 000 сообщений на больницу (за месяц до и через месяц после начала кризиса здравоохранения соответственно).
Пилотный проект, проводимый компаниями Epic и Microsoft, заключается в широкомасштабном развертывании GPT-3 в больницах для облегчения удаленного обмена сообщениями между пациентами и врачами. Epic является разработчиком инструмента «MyChart», который позволяет пациентам отправлять сообщения медицинскому персоналу, записываться на прием, продлевать рецепты и многое другое.
Пока только три больницы США проводят тестирование проекта: UC San Diego Health и UW Health начали тестирование в апреле, а Stanford Health Care начнет тестирование в этом месяце. Около 20 врачей, медсестер и клиницистов из этих медицинских учреждений в настоящее время оценивают новый инструмент для выявления улучшений.
ИИ может автоматически генерировать черновик, экономя время врача на написание текста и ускоряя обработку запросов пациентов. Для этого ChatGPT получает доступ к медицинской карте каждого пациента, хранящейся в цифровых центрах обработки данных больниц, и корректирует сообщения, которые должны быть созданы на основе этой информации и запросов пациентов. В частности, он использует данные, содержащиеся в сообщении, отправленном пациентом, и изучает его историю болезни, чтобы составить соответствующий ответ.
Перед отправкой черновик прочитывается и проверяется медицинским персоналом, который может изменить или удалить его по своему усмотрению. Epic указывает, что систематически отображается предупреждение, напоминающее врачу о необходимости перечитать сообщение перед отправкой. Врач также отвечает за отправку сообщения, вручную нажимая на кнопку.
По словам участников тестирования, в настоящее время инструмент все еще нуждается в совершенствовании, поскольку создаваемые черновики часто требуют многочисленных изменений. В частности, тестеры указывают на необходимость добавить в создаваемые сообщения нотку сочувствия или заботы, например, спросить о моральном состоянии пациента или его последних изменениях, как это сделал бы настоящий врач. Тем не менее недавнее исследование показало, что ChatGPT более эффективно, чем врачи, отвечает на вопросы пациентов на медицинских форумах в Интернете.
Инструмент, опробованный без согласия пациента
Хотя Microsoft и Epic утверждают, что использование языковых моделей в больших масштабах представляет минимальные риски, их интеграция в такие чувствительные области, как здравоохранение (предполагающие конфиденциальность пациента), вызывает этические вопросы. Хотя компания утверждает, что инструмент соответствует законам о конфиденциальности, пациенты не информируются о том, являются ли получаемые ими сообщения авторством ChatGPT. Такое отсутствие прозрачности может повредить доверительным отношениям между врачом и пациентом.
По словам Герда Гигеренцера, ученого-бихевиориста из Потсдамского университета, который занимался вопросами влияния искусственного интеллекта на наше поведение, «прозрачность чрезвычайно важна, и я думаю, что она должна быть правом человека. Поэтому нам нужно лучше понять ситуацию, когда необходимо человеческое суждение». Эксперты рекомендуют систематически информировать пациентов об использовании ИИ и рассматривать развертывание нового инструмента как социальный эксперимент.
Некоторые исследователи также предупреждают, что ИИ может допускать ошибки или распространять дезинформацию. Например, одна из систем, разработанная компанией Epic, показала недостатки в предсказании сепсиса у пациентов больницы и делала необъективные прогнозы о потребности пациентов в медицинской помощи.
Автоматически созданные сообщения могут быть отправлены как есть, и перегруженный работой врач может невнимательно вычитать свой черновик и отправить его пациентам без необходимых изменений. С другой стороны, если черновики требуют слишком тщательной проверки, медработники могут потерять доверие к этому инструменту. И в любом случае, их способность принимать решения может быть снижена в долгосрочной перспективе из-за такого упрощения.
В целом, интеграция ИИ в здравоохранение, несмотря на потенциальные преимущества, поднимает этические вопросы и требует тщательного рассмотрения того, как он внедряется и используется. Прозрачность и общение с пациентами необходимы для поддержания доверия и обеспечения того, чтобы ИИ приносил реальную пользу медицинскому обслуживанию.