Чат-боти краще розуміють пацієнтів, ніж лікарі?
Дослідження Каліфорнійського університету показало, що чат-боти з штучним інтелектом можуть краще розуміти та відповідати на емоції пацієнтів, ніж лікарі. У дослідженні, в якому брали участь 195 медичних запитань, судді віддали перевагу відповідям чат-бота в 79% випадків.
Дослідження
Дослідники з Каліфорнійського університету в Берклі провели дослідження, щоб порівняти здатність лікарів і чат-ботів з штучним інтелектом розуміти та відповідати на емоції пацієнтів.
Дослідники зібрали 195 медичних запитань, опублікованих у загальнодоступному субредіті Reddit під назвою “AskDocs”. Ці запитання були різноманітними, включаючи запитання про потенційно серйозні медичні стани, такі як струс мозку, і про менш серйозні проблеми, такі як проковтнута зубочистка.
Медичний працівник, чиї облікові дані були перевірені модератором, відповів на запитання в субредіті. Дослідники також провели запитання через чат-бот ChatGPT, щоб отримати відповідь.
Результати
Групу лікарів запитали, яка відповідь краща — чат-бота чи лікаря. Судді не знали, де чия була відповідь. Кожну справу розглядали три різних судді, а оцінка була усереднена, що склало 585 оцінок.
У 79% випадків судді віддали перевагу відповідям чат-бота. Відповіді чат-бота були більш якісними та чуйними, ніж відповіді лікаря.
Порівняно з відповідями лікаря, приблизно в 4 рази більше відповідей чат-бота потрапило до найвищих категорій якості й приблизно в 10 разів більше відповідей штучного інтелекту отримали найвищі оцінки співпереживання.
Відповіді чат-бота також були приблизно в 4 рази довші, ніж ті, що надав лікар, у середньому 211 слів на пост порівняно з 52 словами лікаря.
Висновки
Дослідження показало, що чат-боти можуть краще розуміти та відповідати на емоції пацієнтів, ніж лікарі. Це може бути пов’язано з тим, що чат-боти не мають таких же емоційних обмежень, як люди. Вони також мають доступ до більшої кількості інформації, що може допомогти їм краще зрозуміти контекст запитання.
Однак дослідження також показало, що чат-боти можуть допускати помилки. Наприклад, ChatGPT, який використовувався в дослідженні, допускає базові помилки в кодуванні та математиці, а багато фактів, включених у його відповіді, є вигаданими або неправильними.
У майбутньому штучний інтелект може стати хорошим помічником лікарям, розвантаживши пошту із великою кількістю запитань пацієнтів. Це також буде корисним і для пацієнтів, які отримають чуйну та корисну відповідь на їх запитання.
Примітки:
- У дослідженні використовувався чат-бот ChatGPT, розроблений компанією OpenAI.
- Дослідження було опубліковане в журналі “JAMA Internal Medicine” у 2023 році.



