Новости
Возможности искусственного интеллекта: между пользой и вредом
С 2020 года FDA зарегистрировало более 600 медицинских программ на базе искусственного интеллекта. Однако быстрое внедрение подобных технологий в практику вызывает у медицинского сообщества опасения как практического, так и этического характера
Сегодня в медицинском сообществе выделяется несколько биоэтических принципов, которые используются для оценки использования инструментов искусственного интеллекта (ИИ): автономность, благодеяние, непричинение вреда и справедливость. Но в последнее время к ним добавился еще один: объяснимость. Он связан с тем, что до сих пор остается много вопросов о том, насколько можно доверять полученным ИИ результатам, и где находится предел его возможностей.
Специалисты выделяют несколько областей, где применение ИИ сегодня может быть наиболее эффективным. Одной из самых перспективных они считают процесс получения информированного согласия, так как разговорные модели ИИ могут предоставлять неограниченные по времени возможности для обсуждения преимуществ и рисков врачебных рекомендаций. Также они могут помогать при работе с пациентами, которые испытывают проблемы с коммуникацией: с помощью анализа их социальных сетей и медицинских данных программы предоставят врачам более достоверную информацию, что в свою очередь может гарантировать, что лечение будет соответствовать пожеланиям пациента.
Использование возможностей ИИ также помогает сокращать количество врачебных ошибок за счет улучшения диагностики или разработки более эффективного плана лечения, поскольку система имеет возможность анализировать огромные массивы данных. Также ИИ может выполнять и административные задачи, что экономит время медицинского персонала, позволяя больше времени уделять непосредственно лечению пациентов.
Кроме того использование возможностей ИИ позволяет делать медицину более доступной для жителей отдаленных районов или развивающихся странах.
Но, несмотря на широкие возможности применения ИИ, представители медицинского сообщества беспокоит ряд этических вопросов. Например, алгоритмы ИИ могут отдавать предпочтение определенным результатам, таким как широкое понимание общей выживаемости, тогда как часть пациентов выбирает качество жизни, а не ее продолжительность.
Модели ИИ обучаются на определенных популяциях пациентов, так что предлагаемые ими решения могут плохо работать в группах с отличными от исходных демографическими или клиническими характеристиками. «Эти технологии хорошо работают на узкой популяции, на данных которой и были разработаны, но это не значит, что они будут также эффективны в реальной жизни», считают эксперты.
Кроме того не всегда понятны внутренние процессы принятия решений, которые используют системы ИИ, и отсутствие прозрачности в понимании этих механизмов вызывает серьезное опасение в отношении предлагаемых клинических рекомендаций. Это в свою очередь может привести к возникновению недоверия между врачом и пациентом.
Отмечают специалисты и разницу поколений в отношении использования технологий ИИ. Если молодое поколение врачей больше склонно использовать возможности ИИ, то их старшие коллеги предпочитают полагаться на собственную интуицию и подходить к пациенту комплексно, наблюдая за развитием его болезни.
По мнению специалистов, проблема интеграции возможностей ИИ в повседневную практику обоюдная: не только ИИ должен быть адаптирован под запросы людей, но и люди должны адаптироваться под возможности ИИ.