Что такое галлюцинация

В контексте ИИ, галлюцинация относится к модели, генерирующей выходные данные, которые кажутся правдоподобными, но фактически неверны или бессмысленны, часто представляются с высокой уверенностью.

Галлюцинации являются серьезной проблемой в разработке и развертывании моделей ИИ, особенно больших языковых моделей (LLM). Они возникают, когда модель генерирует информацию, которая не основана на ее обучающих данных или предоставленном контексте. Это может проявляться в виде вымышленных фактов, искаженной информации или выходных данных, которые внутренне противоречивы. Склонность к галлюцинациям варьируется в зависимости от архитектуры модели, обучающих данных и конкретной задачи, которую она выполняет.

Эти ошибки могут варьироваться от незначительных неточностей до полностью вымышленных деталей. Серьезность галлюцинаций может иметь серьезные последствия, особенно в приложениях, где точность имеет решающее значение, таких как медицинская диагностика, юридические исследования или финансовый анализ. Исследователи активно работают над методами смягчения галлюцинаций, включая улучшенные методы обучения, лучшую подготовку данных и механизмы проверки фактов и верификации.

        graph LR
  Center["Что такое галлюцинация"]:::main
  Pre_computer_science["computer-science"]:::pre --> Center
  click Pre_computer_science "/terms/computer-science"
  Rel_hallucination["hallucination"]:::related -.-> Center
  click Rel_hallucination "/terms/hallucination"
  Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
  click Rel_artificial_intelligence "/terms/artificial-intelligence"
  Rel_large_language_model["large-language-model"]:::related -.-> Center
  click Rel_large_language_model "/terms/large-language-model"
  classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
  classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
  classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
  classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
  linkStyle default stroke:#4b5563,stroke-width:2px;

      

🧠 Проверка знаний

1 / 3

🧒 Простыми словами

Галлюцинации ИИ — это когда робот уверенно говорит вам что-то, что звучит правдоподобно, но на самом деле выдумано или неверно. Например, он может сказать, что собаки умеют летать, потому что перепутал услышанные истории.

🤓 Expert Deep Dive

Галлюцинации в ИИ представляют собой сбой в работе генеративных моделей, обусловленный расхождением между усвоенным внутренней репрезентацией модели и объективной реальностью или фактической точностью. Архитектурно, большие языковые модели (LLM), обученные исключительно на предсказании следующего токена, могут переобучиться на ложных корреляциях в обучающих данных или экстраполировать за пределы своих границ знаний. Это может проявляться в генерации правдоподобных, но ложных фактических утверждений, выдумывании несуществующих сущностей или событий, или некорректном приписывании информации. Методы снижения галлюцинаций включают: 1) Улучшение качества и разнообразия данных для уменьшения шума и смещений. 2) Применение генерации с дополненным поиском (RAG), при которой модель извлекает релевантную информацию из внешней базы знаний перед генерацией ответа, тем самым заземляя выходные данные. 3) Использование методов количественной оценки неопределенности для оценки уверенности в сгенерированных утверждениях. 4) Дообучение с обратной связью от человека (RLHF), специально наказывающее фактические неточности. 5) Ограничение процесса генерации логическими правилами или графами знаний. Задача заключается в балансировании между снижением галлюцинаций и сохранением беглости, креативности модели, а также ее способности обрабатывать новые или недостаточно специфицированные запросы.

🔗 Связанные термины

Предварительные знания:

📚 Источники