Halluzinationen
Im Kontext der KI bezieht sich eine Halluzination auf ein Modell, das Ausgaben erzeugt, die plausibel erscheinen, aber in der Tat falsch oder sinnlos sind, oft mit hohem Vertrauen dargestellt.
Halluzinationen sind eine erhebliche Herausforderung bei der Entwicklung und dem Einsatz von KI-Modellen, insbesondere von Large Language Models (LLMs). Sie treten auf, wenn ein Modell Informationen generiert, die nicht in seinen Trainingsdaten oder dem bereitgestellten Kontext verankert sind. Dies kann sich als erfundene Fakten, verzerrte Informationen oder Ausgaben manifestieren, die intern inkonsistent sind. Die Neigung zur Halluzination variiert je nach der Architektur des Modells, den Trainingsdaten und der spezifischen Aufgabe, die es ausführt.
Diese Fehler können von kleinen Ungenauigkeiten bis hin zu völlig erfundenen Details reichen. Die Schwere der Halluzinationen kann schwerwiegende Folgen haben, insbesondere in Anwendungen, in denen Genauigkeit entscheidend ist, wie z. B. bei medizinischen Diagnosen, juristischer Forschung oder Finanzanalysen. Forscher arbeiten aktiv an Techniken zur Eindämmung von Halluzinationen, einschließlich verbesserter Trainingsmethoden, besserer Datenkuratierung und Mechanismen zur Faktenprüfung und -verifizierung.
graph LR
Center["Halluzinationen"]:::main
Pre_physics["physics"]:::pre --> Center
click Pre_physics "/terms/physics"
Rel_hallucination_ai["hallucination-ai"]:::related -.-> Center
click Rel_hallucination_ai "/terms/hallucination-ai"
Rel_artificial_intelligence["artificial-intelligence"]:::related -.-> Center
click Rel_artificial_intelligence "/terms/artificial-intelligence"
Rel_inference["inference"]:::related -.-> Center
click Rel_inference "/terms/inference"
classDef main fill:#7c3aed,stroke:#8b5cf6,stroke-width:2px,color:white,font-weight:bold,rx:5,ry:5;
classDef pre fill:#0f172a,stroke:#3b82f6,color:#94a3b8,rx:5,ry:5;
classDef child fill:#0f172a,stroke:#10b981,color:#94a3b8,rx:5,ry:5;
classDef related fill:#0f172a,stroke:#8b5cf6,stroke-dasharray: 5 5,color:#94a3b8,rx:5,ry:5;
linkStyle default stroke:#4b5563,stroke-width:2px;
🧠 Wissenstest
🧒 Erkläre es wie einem 5-Jährigen
Stell dir einen superklugen Papagei vor, der über alles reden kann, aber manchmal erfindet er Fakten, weil er nur gehörte Muster nachahmt und sie nicht wirklich versteht.
🤓 Expert Deep Dive
Halluzinationen in generativer KI entstehen aus den inhärenten Grenzen probabilistischer Sequenzgenerierungsmodelle. Diese Modelle optimieren auf Wahrscheinlichkeit, nicht auf Wahrhaftigkeit. Bei mehrdeutigen Prompts, Daten außerhalb der Verteilung oder Wissenslücken können sie basierend auf erlernten statistischen Zusammenhängen interpolieren oder extrapolieren, was zu plausibel klingenden, aber fehlerhaften Ausgaben führt. Architektonisch können Transformer-basierte LLMs mit ihren Aufmerksamkeitsmechanismen manchmal übermäßig auf zufällige Korrelationen in den Trainingsdaten achten. Schwachstellen umfassen Adversarial Prompts, die darauf ausgelegt sind, spezifische Halluzinationen auszulösen, oder die Ausnutzung von Modell-Konfidenzwerten, die oft schlecht kalibriert sind. Techniken wie RAG zielen darauf ab, dies zu mildern, indem sie die Generierung auf abgerufene faktenbasierte Dokumente konditionieren, aber die Integration und Treue der abgerufenen Informationen bleiben Herausforderungen. RLHF kann helfen, das Modellverhalten an menschliche Präferenzen für Genauigkeit anzupassen, aber die Definition und konsistente Durchsetzung von „Wahrheit“ über verschiedene Domänen hinweg ist komplex.