Комплексная этическая основа для использования ИИ в здравоохранении и медицине

ТехИнсайдерHi-Tech

Можно ли использовать ИИ в медицине и здравоохранении? Пока — нет

В работе, опубликованной ведущим австралийским специалистом по этике ИИ Стефаном Харрером, впервые предлагается комплексная этическая основа для ответственного использования, разработки и управления приложениями генеративного ИИ в здравоохранении и медицине.

Владимир Губайловский

e3e71bd78c27ba2e819f98b60fac685e_ce_1780x1187x0x387.jpg
Unsplash.com

Доктор Харрер: «Раньше ИИ были скучными. Теперь они стали захватывающе интересными и опасными»

В исследовании, опубликованном ведущим австралийским специалистом по этике ИИ Стефаном Харрером, подробно описывается, как большие языковые модели (LLM) могут изменить управление информацией, образованием и рабочими процессами в здравоохранении и медицине. Но в то же время, по мнению Харрера, LLM остаются одним из самых опасных и неправильно понимаемых видов ИИ.

LLM являются ключевым компонентом приложений генеративного ИИ для создания нового контента, включая текст, изображения, аудио, код и видео по текстовым инструкциям. Среди примеров, рассмотренных в исследовании: ChatGPT компании OpenAI, Med-PALM компании Google, генератор изображений Stability AI Stable Diffusion и BioGPT компании Microsoft.

Плюсы ИИ и большой минус

В исследовании выделены многие ключевые приложения генеративного ИИ для здравоохранения:

  1. помощь врачам в составлении медицинских заключений или писем с предварительной авторизацией;
  2. помощь студентам-медикам в более эффективном обучении;
  3. упрощение медицинского жаргона при общении врача с пациентом;
  4. повышение эффективности клинических исследований;
  5. помощь в преодолении препятствий, связанных с совместимостью и стандартизацией электронных медицинских карт;

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении