Skip to main content
KI-Modelle generieren manchmal plausibel klingende aber faktisch falsche Informationen – sogenannte Halluzinationen. Das Verständnis dieses Phänomens ist entscheidend für den zuverlässigen Einsatz von KI im Unternehmenskontext.

Was sind Halluzinationen?

Faktenfehler

Falsche Angaben zu überprüfbaren Fakten wie Daten, Namen oder Statistiken.

Erfundene Quellen

Zitate oder Referenzen, die plausibel klingen, aber nicht existieren.

Logikfehler

Schlussfolgerungen, die den eigenen Prämissen widersprechen.

Warum halluzinieren KI-Modelle?

Das Modell “lügt” nicht bewusst – es generiert die statistisch wahrscheinlichste Textfortsetzung. Drei Faktoren treiben Halluzinationen:
  1. Trainingsdaten haben Grenzen (Knowledge Cutoff): Jedes Modell hat einen Wissensstichtag. Alles danach ist dem Modell unbekannt – es kann aber trotzdem plausibel klingende Antworten dazu generieren.
  2. Modelle wissen nicht zuverlässig, was sie nicht wissen: Durch moderne Trainingsmethoden (Reinforcement Learning) haben neuere Modelle ein rudimentäres Verständnis von Unsicherheit entwickelt. In vielen Fällen generieren sie aber trotzdem selbstbewusst eine Antwort, auch wenn sie keine verlässliche Grundlage haben.
  3. Textgenerierung ist kein Faktenwissen: Das Modell wurde darauf trainiert, plausibel klingende Texte zu erzeugen – nicht darauf, Wahrheit von Fiktion zu unterscheiden.
Besonders riskant bei: Zahlen, Zitaten, Datumsangaben, Rechtstexten, technischen Details und wissenschaftlichen Referenzen.

Gegenmaßnahmen

RAG einsetzen

Die effektivste Methode gegen Halluzinationen ist RAG (Retrieval-Augmented Generation). Dabei wird das Modell mit aktuellen, verifizierten Daten aus Ihrer eigenen Wissensbasis versorgt, bevor es antwortet. Das Modell stützt sich dann auf Ihre Dokumente statt auf sein Trainingswissen.

Unsicherheit im System Prompt adressieren

Der zuverlässigste Weg, Halluzinationen zu reduzieren, ist eine klare Anweisung im System Prompt: Das Modell soll proaktiv mitteilen, wenn es sich bei einer Aussage unsicher ist. Zum Beispiel:
Wenn du dir bei einer Aussage nicht sicher bist, weise den Nutzer klar darauf hin. Kennzeichne unsichere Informationen explizit und schlage vor, die Angabe zu verifizieren.
Neuere Modelle haben durch Reinforcement Learning ein grundlegendes Verständnis von Unsicherheit entwickelt. Eine entsprechende Instruktion im System Prompt kann dieses Verhalten gezielt aktivieren.

Temperatur anpassen (mit Vorsicht)

Das Verhalten bei veränderten Temperature-Einstellungen variiert stark zwischen Modellfamilien. Manche Modelle reagieren auf niedrige Werte mit unbrauchbarem Output oder verweigern die Antwort komplett. Testen Sie Änderungen immer modellspezifisch.
Bei einigen Modellen kann eine niedrigere Temperature (z.B. 0.3) die Faktentreue verbessern. Bei anderen — insbesondere neueren Modellen — ist die Default-Einstellung die einzig sinnvolle Option. Details unter Output-Qualität.

Fakten immer verifizieren

KI-generierte Inhalte sollten IMMER von einem Menschen geprüft werden, bevor sie in Kundenkommunikation, Verträgen, Berichten oder anderen geschäftskritischen Kontexten verwendet werden.
Prüfen Sie insbesondere:
  • Zitierte Quellen (existieren sie wirklich?)
  • Konkrete Zahlen und Statistiken
  • Rechtliche Aussagen und Paragraphenverweise
  • Datumsangaben und historische Fakten

Nächste Schritte

Wissensquellen

Eigene Dokumente als verifizierte Wissensquelle anbinden.

Output-Qualität

Temperature und andere Parameter für zuverlässigere Ergebnisse.