Was sind Halluzinationen?
Faktenfehler
Falsche Angaben zu überprüfbaren Fakten wie Daten, Namen oder Statistiken.
Erfundene Quellen
Zitate oder Referenzen, die plausibel klingen, aber nicht existieren.
Logikfehler
Schlussfolgerungen, die den eigenen Prämissen widersprechen.
Warum halluzinieren KI-Modelle?
Das Modell “lügt” nicht bewusst – es generiert die statistisch wahrscheinlichste Textfortsetzung. Drei Faktoren treiben Halluzinationen:- Trainingsdaten haben Grenzen (Knowledge Cutoff): Jedes Modell hat einen Wissensstichtag. Alles danach ist dem Modell unbekannt – es kann aber trotzdem plausibel klingende Antworten dazu generieren.
- Modelle wissen nicht, was sie nicht wissen: KI-Modelle haben kein Konzept von “Unsicherheit” im menschlichen Sinne. Sie generieren immer eine Antwort, auch wenn sie keine verlässliche Grundlage haben.
- Textgenerierung ist kein Faktenwissen: Das Modell wurde darauf trainiert, plausibel klingende Texte zu erzeugen – nicht darauf, Wahrheit von Fiktion zu unterscheiden.
Gegenmaßnahmen
RAG einsetzen
Die effektivste Methode gegen Halluzinationen ist RAG (Retrieval-Augmented Generation). Dabei wird das Modell mit aktuellen, verifizierten Daten aus Ihrer eigenen Wissensbasis versorgt, bevor es antwortet. Das Modell stützt sich dann auf Ihre Dokumente statt auf sein Trainingswissen.Temperatur reduzieren
Niedrigere Temperature-Einstellungen machen das Modell weniger kreativ, aber zuverlässiger bei Fakten. Für faktenbasierte Aufgaben empfiehlt sich ein Wert von 0–0.3. Details unter Output-Qualität.Fakten immer verifizieren
Prüfen Sie insbesondere:- Zitierte Quellen (existieren sie wirklich?)
- Konkrete Zahlen und Statistiken
- Rechtliche Aussagen und Paragraphenverweise
- Datumsangaben und historische Fakten
