Результаты дают напоминание, что LLM имеет ряд серьёзных минусов.
Учёные из Радиологического общества Северной Америки провели исследование, которое показало, что использование общедоступных моделей большого языка (LLM) привело к изменениям в классификации отчетов о визуализации молочной железы, что может оказать негативное влияние на ведение пациентов. По словам экспертов, результаты подчёркивают необходимость регулирования этих LLM в сценариях, требующих высокого медицинского обоснования.
Исследование опубликовано в журнале Radiology.
LLM — это тип искусственного интеллекта (ИИ), широко используемый для различных целей. В радиологии LLM уже опробованы в самых разных клинических задачах: от обработки форм запросов на рентгенологическое исследование до предоставления рекомендаций по визуализации и поддержки диагностики.
Общедоступные универсальные LLM, такие как ChatGPT (GPT-3.5 и GPT-4) и Google Gemini (ранее Bard), показали многообещающие результаты в некоторых задачах.
Результаты нового исследования показали, что в данных LLM был высокий процент несогласованных присвоений категорий, что могло привести к негативным изменениям в ведении пациентов. Это вызывает некоторые опасения по поводу потенциальных последствий слишком большой зависимости от широко доступных программ LLM.
Ранее TechnoDzen сообщил, что выявлен ген, связанный с развитием жировой болезни печени.