Lexikon Halluzination

Definition Halluzination

Eine KI-Halluzination ist eine plausibel klingende, aber falsche Aussage eines Sprachmodells. Das Modell „erfindet“ Fakten, Quellen oder Zusammenhänge – und wirkt dabei für Leser überzeugt bzw. überzeugend.

Halluzinationen entstehen u. a. durch unklare Prompts, fehlende Datenbasis, zu wenig Kontext oder ungeeignete Bewertungsziele. Mit RAG, klaren Quellen und Prüfregeln lassen sie sich deutlich reduzieren.

Inhaltsübersicht

Sind Halluzinationen ein „Bug“?

Teilweise. Sprachmodelle sind auf flüssige Antworten optimiert. Wenn Daten fehlen, „raten“ sie lieber, statt still zu sein – es sei denn, Sie erzwingen Unsicherheit/Quellen oder bauen Faktenzugriff ein.

/files/dateien/bilder/lexikon/halluzination/ki-halluzination.png
Halluzinationen wirken überzeugend – sind aber ohne Quellen und Prüfung nicht verlässlich.

Halluzination Ursachen

Häufige Auslöser:

  1. Zu wenig Kontext: Das Modell ergänzt Lücken mit Wahrscheinlichkeiten.
  2. Unklare Aufgaben: Mehrdeutige Prompts führen zu „kreativen“ Interpretationen.
  3. Fehlende oder falsche Datenbasis: Keine Quellen im Kontext, veraltetes Wissen.
  4. Druck auf „eine Antwort“: Wenn Unsicherheit bestraft wird, wird geraten.

Halluzination Beispiele

  • Erfundenes Zitat („… sagte Studie X“) ohne echte Quelle

  • Falsche Zahlen/Termine (z. B. Umsätze, Gesetzesfristen)

  • „Klingt richtig“-Definitionen, die Details verdrehen

  • Verlinkte Quellen, die nicht existieren oder nicht passen

Für Unternehmen gilt: KI-Ausgaben sind Entwürfe, keine Beweise. Definieren Sie Freigabeprozesse (Vier-Augen-Prinzip), Logging und Qualitätskriterien – besonders bei Content, Angeboten, Support-Antworten und internen Richtlinien

Warnsignale Halluzination erkennen

  • Sehr hohe Sicherheit ohne Belege
  • Quellen wirken generisch („Journal of… 2019“) oder sind nicht auffindbar
  • Widersprüche zwischen Absätzen
  • Unlogische Sprünge: Ergebnis passt nicht zur Frage
  • „Zu schön, um wahr zu sein“ – besonders bei harten Fakten

Praktische Maßnahmen Halluzination vermeiden

1
Quellen erzwingen

„Nenne die Quelle oder schreibe ‚unbekannt‘.“

2
Prüfschritt einbauen

„Liste Annahmen und Unsicherheiten separat.“

3
Daten bereitstellen

Dokumente, Zahlen, Richtlinien, Definitionen.

4
RAG nutzen

Antworten auf eine gepflegte Wissensbasis stützen.

5
Kritische Inhalte absichern

rechtlich/medizinisch/finanziell immer gegenprüfen.

FAQ Häufige Fragen zu Halluzination

Was ist eine KI-Halluzination?

Eine falsche, aber plausibel formulierte Aussage, die als Fakt präsentiert wird.

Warum wirkt die KI dabei so sicher?

Weil das Modell Sprache wahrscheinlich macht – nicht Wahrheit. „Sicher“ klingt oft besser als „ich weiß es nicht“.

Passiert das auch bei guten Modellen?

Ja. Bessere Modelle halluzinieren oft weniger, aber nie „gar nicht“.

Hilft RAG gegen Halluzinationen?

Ja, häufig deutlich – wenn die Quellen sauber sind und die Suche gute Treffer liefert.

Wie kann ich Halluzinationen im Team reduzieren?

Mit Prompt-Vorlagen, Quellenpflicht, Prüfschritten, klarer Datenbasis und festen Review-Prozessen.

Quellen, weiterführende Links

Suche
insert coin
Katzen YouTube Thumbnail

Mit dem Aufruf des Videos erklären Sie sich einverstanden, dass Ihre Daten an YouTube übermittelt werden und Sie die Datenschutzerklärung akzeptieren.