KI-Halluzinationen (auch „Konfabulationen“) sind Ausgaben von KI-Systemen, die überzeugend klingen, aber inhaltlich falsch, unbelegt oder frei erfunden sind. Das Problem betrifft vor allem generative Modelle wie Large Language Models (LLMs), die Texte (oder auch Bilder) erzeugen und dabei manchmal „Lücken“ mit plausibel wirkenden Details füllen.
Für Unternehmen ist das relevant, weil Halluzinationen zu Fehlinformationen, falschen Entscheidungen, Reputationsrisiken oder sogar Compliance-Problemen führen können – gerade dann, wenn KI-Outputs ungeprüft in Websites, Reports, Kundenkommunikation oder Wissensdatenbanken landen.
Wie kommt es zu KI-Halluzinationen?
Halluzinationen entstehen nicht „aus Absicht“, sondern sind eine Folge davon, wie generative KI arbeitet.
- Wenn Trainingsdaten lückenhaft sind, widersprüchliche Muster enthalten oder Biases mitbringen, steigt die Wahrscheinlichkeit falscher Ausgaben.
- Wenn im Modellwissen oder Kontext etwas fehlt, kann das Modell dennoch eine kohärente Antwort produzieren – nur eben ohne faktische Basis.
- Mehrdeutige Prompts und fehlender Kontext
- Ohne Anbindung an verlässliche Datenquellen (z. B. interne Dokumente, Datenbanken, Suchindex) muss das Modell aus dem „Gedächtnis“ generieren.
Beispiele für KI-Halluzinationen
Halluzinationen zeigen sich in der Praxis oft in wiederkehrenden Mustern:
Erfundene Quellen und Zitate
Die KI nennt scheinbar seriöse Studien, DOIs, Gesetze oder Artikel – die in dieser Form nicht existieren oder falsch wiedergegeben werden.
Falsche Fakten mit korrekter Verpackung
Zahlen, Daten, Namen, Zeitpunkte: Die Antwort ist stilistisch sauber, aber einzelne „Details“ sind erfunden oder veraltet.
Konfidenz ohne Unsicherheitssignal
Die KI formuliert absolut („Das ist so, weil …“), obwohl die Aussage nicht belegt ist. Überzeugend formulierte Resultate, die objektiv falsch sein können.
Scheinlogische Erklärungen
Die KI baut eine schlüssige Argumentationskette – basierend auf einem falschen Ausgangsfakt. Das wirkt plausibel, kippt aber komplett, sobald der Kernfehler auffällt.
Falsche Empfehlungen in sensiblen Kontexten
Wenn ein KI Modell beispielsweise mittels Bildmaterial zur Erkennung von Krebszellen trainiert wurde, aber keine Bilder gesunder Zellen angelernt wurden, kann es dazu kommen, dass die KI auch gesunde Zellen als bösartig identifiziert.
Tipps, um KI-Halluzinationen zu verhindern
Halluzinationen lassen sich nicht vollständig vermeiden – aber deutlich reduzieren. Diese Maßnahmen funktionieren in der Praxis besonders gut:
Prompts präzise machen (Kontext + Grenzen + Format)
- Zeitraum, Region, Zielgruppe, Definitionen nennen
- klare Ausgabeformate verlangen (Bulletpoints, Tabelle, Quellenliste)
Quellenpflicht einführen
- Antworten nur akzeptieren, wenn Quellen genannt werden
- Wichtig: Quellen stichprobenartig prüfen (existiert die Quelle? passt die Aussage?)
Komplexe Aufgaben aufteilen
- Es kann helfen, komplexe Aufgaben aufzuteilen
- Je länger die Generierungszeit ist, desto höher ist die Fehlerwahrscheinlichkeit
menschliche Kontrolle
- Die menschliche Kontrolle sollte nie außer Acht gelassen werden
- Gerade wenn es um sensible Informationen geht, ist eine manuelle Prüfung unausweichlich