← Назад

ChatGPT проявляет больше эмпатии к пациентам чем врачи: результаты нового исследования

09/04/2024| views512
facebooktelegramviberX
ChatGPT проявляет больше эмпатии к пациентам чем врачи: результаты нового исследования

Исследование показало, что ChatGPT, который по сути является компьютерной программой, может быть более эффективным в оказании поддержки больным, чем отдельные врачи.

Авторы исследования считают, что эти результаты подчеркивают потенциальную значимость искусственного интеллекта в медицине. Они предполагают, что такие ИИ-помощники вполне могут сыграть важную роль в улучшении коммуникации между врачами и пациентами. Доктор Джон Айерс из Калифорнийского университета в Сан-Диего отмечает: "Возможности улучшения здравоохранения с помощью искусственного интеллекта огромны".

MOZHNA. Допоможемо знайти свого психотерапевта

Однако, некоторые врачи высказали опасения, указывая, что результаты исследования не говорят о том, что ChatGPT действительно является лучше, чем профессиональный врач-человек. Они предупреждают от перекладывания клинической ответственности на чат-ботов, поскольку они могут предоставлять "факты", которые не всегда соответствуют истине.

В исследовании, опубликованном в журнале JAMA Internal Medicine, использовались данные с форума AskDocs Reddit. Участники форума смогли задать медицинские вопросы, на которые отвечали проверенные и квалифицированные специалисты здравоохранения. Команда исследователей рандомно выбрала 195 диалогов с участием врачей на AskDocs. Затем исходные вопросы были поданы на рассмотрение языковой модели искусственного интеллекта ChatGPT, с просьбой предоставить ответ. Группа из трех лицензированных медицинских работников, не зная, пришел ли ответ от человека-врача или от ChatGPT, оценила ответы на качество и эмпатию.

Некоторые заметили, что поскольку ChatGPT был специально настроен для создания приятного общения, неудивительно, что его текст вызывал большую эмпатию. Кроме того, он склонен к длинным и многословным ответам, в отличие от врачей-людей, что также могло повлиять на его более высокие оценки.

Другие специалисты также предостерегали от использования языковых моделей для получения фактической информации из-за их склонности генерировать вымышленные "факты".

Профессор Энтони Кон из Университета Лидса отметил, что использование языковых моделей в качестве инструмента для формирования ответов является разумным шагом для начального внедрения, однако даже в этой вспомогательной роли их следует использовать крайне осторожно. Он отметил: "Было показано, что люди слишком доверяют машинным ответам, особенно если они часто правы, и человек не всегда в состоянии должным образом проверить ответы чат-ботов". 

Использована информация издания The Guardian 

Subscribe Telegram
Subscribe Email
Читать больше
go up