Жену известного раввина недавно выписали из одной из иерусалимских больниц, однако вскоре ей вновь понадобилась срочная медицинская помощь. Как стало известно, напоследок врач дал ей тройную дозу лекарства – опираясь на рекомендацию, полученную через ChatGPT.
Уже той же ночью женщине стало плохо, и ее экстренно доставили обратно в больницу для промывания желудка. К счастью, обошлось без трагедии, однако специалисты предупреждают: неправильная дозировка лекарства может привести к тяжёлым, а порой и фатальным последствиям.
Случай, рассказанный некоммерческой организацией в сфере здравоохранения «Лемаанхем», является наглядным примером возможного вреда от использования искусственного интеллекта в медицинской практике. Руководство НКО на днях направило официальное обращение министру здравоохранения Уриэлю Бусо, ряду высокопоставленных сотрудников министерства, а также председателю Ассоциации врачей Израиля с призывом обратить внимание на проблему.
«Невозможные нагрузки в системе здравоохранения побуждают врачей искать быстрые решения. Использование инструментов ИИ заманчиво возможностью сэкономить время, но технология на данный момент недостаточно созрела для сложных медицинских задач, – уверен председатель «Лемаанхем» Йоси Эрблих. – Искусственный интеллект – инструмент с огромным потенциалом в медицине, но его использование нужно контролировать».
Требования «Лемаанхем» сводятся к четырем пунктам:
- Во-первых, минздрав совместно с медицинскими школами и ассоциациями должен сформулировать принципы использования ИИ.
- Во-вторых, надо сформулировать этический кодекс использования искусственного интеллекта в здравоохранении.
- В-третьих, нужно предусмотреть надзорные механизмы.
- В-четвертых, должны быть установлены чувствительные санкции для медицинского персонала и всего учреждения за нарушения этих правил.