KI-Halluzinationen: Warum KI manchmal lügt
Was sind KI-Halluzinationen, warum passieren sie und wie können Unternehmen das Risiko minimieren?
Was sind KI-Halluzinationen?
Stell dir vor, dein KI-Assistent zitiert eine Harvard-Studie, die gar nicht existiert — und klingt dabei völlig überzeugend. Das sind Halluzinationen: Ausgaben, die plausibel klingen, aber faktisch falsch sind.
Warum passiert das?
LLMs sind statistische Mustererkenner, keine Wissensdatenbanken. Sie erzeugen Text, der wahrscheinlich auf den Kontext folgt — ohne ein Konzept von "wahr" oder "falsch".
Typische Ursachen:
- Lücken im Trainingswissen: Bei Nischenthemen rät das Modell
- Veraltetes Wissen: Infos nach dem Trainings-Cutoff sind unbekannt
- Widersprüchliche Trainingsdaten: Das Modell zieht falsche Schlüsse
- Übermäßige Hilfsbereitschaft: Das Modell will antworten, auch wenn es die Antwort nicht kennt
Welche Arten gibt es?
- Fakten-Halluzination: Erfundene Fakten, Zitate oder Statistiken
- Referenz-Halluzination: Nicht existierende Quellen, Papers oder Bücher
- Logik-Halluzination: Fehlerhafte Schlussfolgerungen oder Berechnungen
- Konfabulation: Plausible, aber frei erfundene Details zu realen Themen
Warum ist das für Unternehmen gefährlich?
- Rechtliche Risiken: Falsche Rechtsauskünfte oder fehlerhafte Compliance-Bewertungen
- Reputationsschäden: Veröffentlichung falscher Informationen
- Fehlentscheidungen: Halluzinationen fließen als "Fakten" in Entscheidungen ein
- Haftung: Bei Hochrisiko-KI können Halluzinationen EU AI Act relevant werden
Was kannst du dagegen tun?
- RAG einsetzen: Antworten auf verifizierte Dokumente stützen
- Human-in-the-Loop: KI-Ausgaben immer durch Menschen prüfen
- Temperature senken: Weniger Kreativität = weniger Halluzinationen
- Quellen einfordern: Das Modell auffordern, Quellen zu nennen — und dann prüfen
- Grounding: Das Modell anweisen, nur auf Basis bereitgestellter Infos zu antworten