Инструмент RAGE раскрывает источники ChatGPT

person
Амина Ерёменко
schedule
04 июн 15:17

Новый инструмент поможет выяснить, насколько правдивая информация предоставлена нейросетью.

Учёные из Университета Ватерлоо в Канаде создали новый инструмент под названием RAGE, который показывает, откуда большие языковые модели (LLM), такие как ChatGPT, получают информацию и можно ли этой информации доверять.

LLM, такие как ChatGPT, полагаются на глубокое обучение без присмотра, устанавливая связи и поглощая информацию из Интернета способами, которые программистам и пользователям может быть сложно расшифровать. Кроме того, LLM склонны к «галлюцинациям» — то есть они убедительно пишут о концепциях и источниках, которые либо неверны, либо несуществуют.

RAGE позволяет пользователям предоставлять LLM свои собственные источники для контекста. Инструмент показывает, как разные источники приводят к разным ответам при использовании RAGE, помогая оценить, заслуживает ли эта информация доверия.

Понимание того, откуда такие LLM, как ChatGPT, получают свою информацию, и обеспечение того, чтобы они не повторяли дезинформацию, станет ещё более важным по мере того, как высокочувствительные, ориентированные на человека отрасли, такие как медицинский и юридический секторы, будут применять эти инструменты.

Ранее Techno Dzen сообщил, что компания Apple не выпустила складной iPhone из-за складки на дисплее.

Перевод выполнен журналистом издания Techno Dzen. При полном или частичном использовании материала гиперссылка обязательна.

Techno Dzen
Использование данных и файлов cookie: