Новости
Помогает ли искусственный интеллект в научных исследованиях?
Сегодня возможности искусственного интеллекта широко применяются в различных областях, в том числе учеными в исследовательской работе: составлении обзоров литературы, анализе данных и даже создании протоколов клинических испытаний. Однако можно ли доверять полученным результатам?
В недавнем отчете портала Medscape об искусственном интеллекте (ИИ) 24 % респондентов сообщили, что применяют возможности программ для составления обзоров и анализа медицинской литературы и данных. Однако в своей работе Open Al Chat GPT использует массив данных из интернета, в том числе, когда отвечает на заданные ему вопросы. Многие специалисты уверены, что такой принцип работы оставляет открытым вопрос о достоверности полученной от бота информации. Каждый факт, указанный в исследовании или статье, нуждается в подтверждении, — напоминают ученые. Однако в Chat GPT вы его не найдете, разве что кто-то раньше загрузил эту информацию. И это значит, что вы можете получить неверные данные.
Достоверность полученной через ИИ информации тем выше, чем более четкий вопрос вы задаете, — продолжают специалисты. — Если спросить Chat GPT, что говорится в научной литературе, например, о влиянии определенного препарата на мышей, то, скорее всего, бот хорошо справится с поиском статей, которые соответствуют запросу.
И, тем не менее, большая часть ученых сходится во мнении, что использование ИИ в медицинских исследованиях сопряжено с большим риском, так как инструменты доступные программе и близко не обеспечивают необходимой для работы точности данных. Это связано со спецификой ботов, особенно там, где речь идет о больших языковых моделях: все они обучаются на огромных массивах информации, но не могут отличить верную от ошибочной. Но алгоритмы обучения совершенствуются, и новые механизмы позволяют извлекать данные только из авторитетных источников, таких как рецензируемые статьи, а не любых интернет-ресурсы.
.