LLMs Will Always Hallucinate, and We Need to Live With This
"Проблема
галлюцинаций ИИ систем - не временный сбой, а
фундаментальная особенность их работы", — утверждают авторы исследования, основываясь на математической теории вычислений и
теореме Гёделя о неполноте.
Принципы работы языковых моделей Логика работы моделей напоминает игру, где приходится описать картинку, не видя ее целиком. С большей вероятностью это приведет к ошибкам — и именно так работают галлюцинации ИИ.
Авторы статьи утверждают, что это не признак несовершенства технологии, а
основополагающий принцип работы ИИ. Сколько бы мы ни дообучали эти системы, они никогда не смогут знать абсолютно все. И даже если бы у них был доступ ко всем данным мира, существуют фундаментальные математические ограничения, не позволяющие системам всегда безошибочно извлекать необходимую информацию.
Подтвержденные авторами гипотезы1. Никакие данные обучения никогда не могут быть полными. Мы никогда не можем дать 100% априорных знаний. Постоянно меняющаяся природа человеческих знаний гарантирует, что наши данные обучения всегда будут, в некоторой степени, неполными или устаревшими.
2. Даже если бы данные были полными, LLM не могут детерминированно извлекать правильную информацию со 100% точностью. Сама природа этих моделей гарантирует, что всегда будет некоторая вероятность извлечения нерелевантной информации, пусть и малая.
3. LLM не сможет точно классифицировать с вероятностью 1. Всегда будет некоторая двусмысленность, некоторая возможность неправильного толкования.
4. Никакое априорное обучение не может детерминированно и решительно остановить языковую модель от производства галлюцинаторных утверждений, которые фактически неверны.
Вместо попыток сделать ИИ безупречным, как предлагают авторы, нам следует
принять его недостатки и сосредоточиться на том,
как управлять ими наиболее эффективно.