Важно соблюдать осторожность при работе с ИИ.
Учёные из Университета штата Вашингтон в США провели исследование, которое показало, что несмотря на сообщения о ChatGPT проходить медицинские осмотры, было бы неразумно полагаться на него для некоторых оценок состояния здоровья, например, необходимости госпитализации пациента с болью в груди.
Исследование опубликовано в журнале PLOS ONE.
В исследовании, включавшем тысячи смоделированных случаев пациентов с болью в груди, ChatGPT предоставил противоречивые выводы, возвращая разные уровни оценки сердечного риска для одних и тех же данных пациентов. Генеративная система искусственного интеллекта также не смогла сравниться с традиционными методами, которые врачи используют для оценки сердечного риска пациента.
«ChatGPT действовал непоследовательно», — заключил ведущий автор доктор Томас Хестон.
Учитывая те же самые данные, ChatGPT может давать оценку низкого риска, затем в следующий раз — промежуточного риска, а иногда и высокого риска.
Авторы полагают, что проблема, скорее всего, связана с уровнем случайности, встроенным в текущую версию программного обеспечения ChatGPT4, который помогает ему варьировать ответы для имитации естественного языка. Однако эта же случайность не очень хорошо работает в сфере здравоохранения, где требуется единый и последовательный ответ.
Ранее TechnoDzen сообщил, что стволовые клетки ускоряют восстановление нейронов после остановки сердца.