Eine KI-Halluzination ist eine plausibel klingende, aber falsche Aussage eines Sprachmodells. Das Modell „erfindet“ Fakten, Quellen oder Zusammenhänge – und wirkt dabei für Leser überzeugt bzw. überzeugend.
Halluzinationen entstehen u. a. durch unklare Prompts, fehlende Datenbasis, zu wenig Kontext oder ungeeignete Bewertungsziele. Mit RAG, klaren Quellen und Prüfregeln lassen sie sich deutlich reduzieren.