Новый инструмент поможет выяснить, насколько правдивая информация предоставлена нейросетью.
Учёные из Университета Ватерлоо в Канаде создали новый инструмент под названием RAGE, который показывает, откуда большие языковые модели (LLM), такие как ChatGPT, получают информацию и можно ли этой информации доверять.
LLM, такие как ChatGPT, полагаются на глубокое обучение без присмотра, устанавливая связи и поглощая информацию из Интернета способами, которые программистам и пользователям может быть сложно расшифровать. Кроме того, LLM склонны к «галлюцинациям» — то есть они убедительно пишут о концепциях и источниках, которые либо неверны, либо несуществуют.
RAGE позволяет пользователям предоставлять LLM свои собственные источники для контекста. Инструмент показывает, как разные источники приводят к разным ответам при использовании RAGE, помогая оценить, заслуживает ли эта информация доверия.
Понимание того, откуда такие LLM, как ChatGPT, получают свою информацию, и обеспечение того, чтобы они не повторяли дезинформацию, станет ещё более важным по мере того, как высокочувствительные, ориентированные на человека отрасли, такие как медицинский и юридический секторы, будут применять эти инструменты.
Ранее Techno Dzen сообщил, что компания Apple не выпустила складной iPhone из-за складки на дисплее.
Перевод выполнен журналистом издания Techno Dzen. При полном или частичном использовании материала гиперссылка обязательна.