Konzepte
Halluzination
Wenn eine KI falsche Fakten erfindet die plausibel klingen aber nicht der Wahrheit entsprechen
Halluzination beschreibt das Phänomen wenn ein KI-Modell Informationen generiert die falsch sind — aber überzeugend klingen. Das Modell “erfindet” Fakten, Quellen, Namen oder Daten.
Warum passiert das?
LLMs generieren Text auf Basis statistischer Wahrscheinlichkeiten, nicht auf Basis von echtem Wissen. Wenn das Modell unsicher ist, wählt es trotzdem die wahrscheinlichste Fortsetzung — auch wenn diese faktisch falsch ist.
Erkennungszeichen
- Sehr spezifische, aber nicht verifizierbare Angaben
- Quellen die nicht existieren
- Zahlen und Daten die nicht stimmen
- Ereignisse die nie stattgefunden haben
Gegenmaßnahmen
- RAG: Modell mit verifizierten Quellen versorgen
- Faktencheck: Kritische Aussagen immer überprüfen
- Temperatur senken: Niedrigere Zufälligkeit = weniger Erfindungen
- Human Review: Bei veröffentlichten Inhalten immer menschliche Prüfung