GPT-4 и Google Gemini не справляются с классификацией изображений груди

person
Амина Ерёменко
schedule
30 апр 18:32

Результаты дают напоминание, что LLM имеет ряд серьёзных минусов.

Учёные из Радиологического общества Северной Америки провели исследование, которое показало, что использование общедоступных моделей большого языка (LLM) привело к изменениям в классификации отчетов о визуализации молочной железы, что может оказать негативное влияние на ведение пациентов. По словам экспертов, результаты подчёркивают необходимость регулирования этих LLM в сценариях, требующих высокого медицинского обоснования.

Исследование опубликовано в журнале Radiology.

LLM — это тип искусственного интеллекта (ИИ), широко используемый  для различных целей. В радиологии LLM уже опробованы в самых разных клинических задачах: от обработки форм запросов на рентгенологическое исследование до предоставления рекомендаций по визуализации и поддержки диагностики.

Общедоступные универсальные LLM, такие как ChatGPT (GPT-3.5 и GPT-4) и Google Gemini (ранее Bard), показали многообещающие результаты в некоторых задачах.

Результаты нового исследования показали, что в данных LLM был высокий процент несогласованных присвоений категорий, что могло привести к негативным изменениям в ведении пациентов. Это вызывает некоторые опасения по поводу потенциальных последствий слишком большой зависимости от широко доступных программ LLM.

Ранее TechnoDzen сообщил, что выявлен ген, связанный с развитием жировой болезни печени.

Techno Dzen
Использование данных и файлов cookie: