Опасная самодиагностика: как ChatGPT чуть не убил женщину

Самодиагностика с помощью ChatGPT может убить: врач провел наглядный эксперимент
Врач проверил ChatGPT на способность ставить правильные диагнозы пациентам

Многие эксперты пророчат ChatGPT большое будущее и предостерегают, что уже в ближайшие годы искусственный интеллект может уничтожить миллионы рабочих мест. А в США модель искусственного интеллекта даже прошла экзамен по получению медицинской лицензии, которая позволяет врачам практиковать. Но способна ли нейросеть заменить медика?

Показательный эксперимент провел американский доктор Джош Тамайо-Сарвер, который работает в отделении неотложной помощи. Об этом пишет издание PRESS hub.

Читайте также:

Может ли ChatGPT быть помощником для врача — эксперимент

Врач залил в чат-бот историю болезни 40 человек, которых он лечил сам в течение определенного времени и попросил подобрать возможные диагнозы на основе полученных медицинских данных.

Тамайо-Сарвер отметил, что нейросеть справилась с анализом распространенных диагнозов.

"Приблизительно для половины моих пациентов ChatGPT предложил шесть возможных диагнозов, и "правильный" диагноз  или по крайней мере диагноз, который я считаю правильным после полной оценки и тестирования  был среди шести предложенных", — объяснил врач.

Несмотря на это, врач заключил, что для скорой помощи знаний и умений чата недостаточно. Поскольку ошибка может стать роковой.

Может ли ChatGPT быть помощником для врача — эксперимент

Как ChatGPT чуть не убил пациентку и почему не стоит заниматься самодиагностикой

У пациентки была внематочная беременность, при которой плод с пороками развития развивается в маточной трубе, а не в матке. Но она не знала о своей беременности.

Поэтому пожаловалась врачу на плохое самочувствие и назвала беспокоившие ее симптомы. В реальной ситуации врач вовремя понял, что к чему и прооперировал молодую пациенту и спас ее.

В то же время, искусственный интеллект не смог определить внематочную беременность женщины, о которой пациентка не знала. Слишком поздно диагностированное состояние могло бы привести к смерти от внутреннего кровотечения.

"Я боюсь, что бесчисленное количество людей уже используют ChatGPT для самодиагностики вместо того, чтобы посещать врача. Если бы моя пациентка в этом случае сделала это, ответ ChatGPT мог бы ее убить", — предупредил врач.

Как ChatGPT чуть не убил пациентку

ChatGPT также поставил неправильный диагноз еще нескольким другим пациентам, которые имели опасные для жизни состояния.

Так пациенту с болью в груди он поставил диагноз "камни в почках", но упустил тот факт, что у пациента на самом деле был разрыв аорты.

Врач заключил, что технология работает, только если у пациента есть какие-то общие симптомы, для некоторых классических случаев и которые представлены очень четко. Но большинство людей, которые обращаются в отделения неотложной помощи, не являются классическими случаями.

"Если кто-то приходит ко мне в приемное отделение и говорит, что у него болит запястье, но это не из-за недавней аварии, это может быть психосоматическая реакция после падения внука пациента, или это может быть заболевание, передающееся половым путем, или это может быть что-то другое. Искусство медицины — это извлекать всю необходимую информацию для создания правильного диагноза", — подытожил врач.

Самодиагностика с помощью ChatGPT

Напомним, мы писали, о том, что ChatGPT удалось поставить точный диагноз больному псу. Благодаря этому ветеринары назначили четырехлапому правильное лечение.

чат-бот ChatGPT здоровье искусственный интеллект медицина