GPT-4 и Google Gemini не справляются с классификацией изображений груди
696
Результаты дают напоминание, что LLM имеет ряд серьёзных минусов.
Учёные из Радиологического общества Северной Америки провели исследование, которое показало, что использование общедоступных моделей большого языка (LLM) привело к изменениям в классификации отчетов о визуализации молочной железы, что может оказать негативное влияние на ведение пациентов. По словам экспертов, результаты подчёркивают необходимость регулирования этих LLM в сценариях, требующих высокого медицинского обоснования.
Исследование опубликовано в журнале Radiology.
LLM — это тип искусственного интеллекта (ИИ), широко используемый для различных целей. В радиологии LLM уже опробованы в самых разных клинических задачах: от обработки форм запросов на рентгенологическое исследование до предоставления рекомендаций по визуализации и поддержки диагностики.
Общедоступные универсальные LLM, такие как ChatGPT (GPT-3.5 и GPT-4) и Google Gemini (ранее Bard), показали многообещающие результаты в некоторых задачах.
Результаты нового исследования показали, что в данных LLM был высокий процент несогласованных присвоений категорий, что могло привести к негативным изменениям в ведении пациентов. Это вызывает некоторые опасения по поводу потенциальных последствий слишком большой зависимости от широко доступных программ LLM.
Ранее TechnoDzen сообщил, что выявлен ген, связанный с развитием жировой болезни печени.