Можно ли использовать ИИ в медицине и здравоохранении? Пока — нет
В работе, опубликованной ведущим австралийским специалистом по этике ИИ Стефаном Харрером, впервые предлагается комплексная этическая основа для ответственного использования, разработки и управления приложениями генеративного ИИ в здравоохранении и медицине.

Доктор Харрер: «Раньше ИИ были скучными. Теперь они стали захватывающе интересными и опасными»
В исследовании, опубликованном ведущим австралийским специалистом по этике ИИ Стефаном Харрером, подробно описывается, как большие языковые модели (LLM) могут изменить управление информацией, образованием и рабочими процессами в здравоохранении и медицине. Но в то же время, по мнению Харрера, LLM остаются одним из самых опасных и неправильно понимаемых видов ИИ.
LLM являются ключевым компонентом приложений генеративного ИИ для создания нового контента, включая текст, изображения, аудио, код и видео по текстовым инструкциям. Среди примеров, рассмотренных в исследовании: ChatGPT компании OpenAI, Med-PALM компании Google, генератор изображений Stability AI Stable Diffusion и BioGPT компании Microsoft.
Плюсы ИИ и большой минус
В исследовании выделены многие ключевые приложения генеративного ИИ для здравоохранения:
- помощь врачам в составлении медицинских заключений или писем с предварительной авторизацией;
- помощь студентам-медикам в более эффективном обучении;
- упрощение медицинского жаргона при общении врача с пациентом;
- повышение эффективности клинических исследований;
- помощь в преодолении препятствий, связанных с совместимостью и стандартизацией электронных медицинских карт;