Новости
Искусственный интеллект конкурирует со специалистами по точности ответов

Немецкие врачи оценили способность ChatGPT отвечать на вопросы пациентов о хирургическом лечении рака поджелудочной железы и сравнили с ответами двух специалистов.
Список, состоявший из 10 вопросов, был составлен врачами совместно с пациентами университетской больницы Гейдельберга. После этого ChatGPT (версия 4.0) и два хирурга независимо друг от друга ответили на эти вопросы.
Ответы были оценены с помощью онлайн-анкеты 24 пациентами и 25 хирургами. Среди критериев оценки были точность и ясность формулировок для неспециалистов, а также то, насколько эти ответы были эмпатичны.
Пациенты сочли, что ответы ChatGPT по своей точности и ясности были сопоставимы с ответами врачей, кроме того ИИ набрал больше баллов в разделе эмпатия, чем один из хирургов. В целом же в 50 % случаев пациенты предпочитали ответы первого хирурга и в 30 % случаев — ChatGPT. Что касается самих хирургов, то они чаще опознавали ответы, сгенерированные ChatGPT, чем пациенты, которым было сложнее отличить человека от ИИ.
Аналогичные результаты были получены в исследованиях по раку толстой кишки и профилактике сердечно-сосудистых заболеваний. По мнению авторов, эти данные говорят о том, что ChatGPT может служить достаточно надежным дополнительным инструментом общения пациента и врача, упрощая сложные для понимания больного медицинские темы.
Однако специалисты оговариваются, что ИИ не разрабатывался специально для медицины, и его ответы могут содержать ошибки и неточности, поэтому в настоящее время программы не могут заменить, в том числе, человеческий аспект взаимодействия врача и пациента. Нерешенным вопросом остается проблема медицинской ответственности за медицинские ошибки, связанные с использованием ИИ. Без ее решения внедрение новых технологий в повседневную врачебную практику представляется невозможным, говорят ученые.