Open Beta — Alle Funktionen kostenlos bis 30. April 2026Mehr erfahren

KI-Halluzinationen: Warum KI manchmal lügt

Was sind KI-Halluzinationen, warum passieren sie und wie können Unternehmen das Risiko minimieren?

Was sind KI-Halluzinationen?

Stell dir vor, dein KI-Assistent zitiert eine Harvard-Studie, die gar nicht existiert — und klingt dabei völlig überzeugend. Das sind Halluzinationen: Ausgaben, die plausibel klingen, aber faktisch falsch sind.

Warum passiert das?

LLMs sind statistische Mustererkenner, keine Wissensdatenbanken. Sie erzeugen Text, der wahrscheinlich auf den Kontext folgt — ohne ein Konzept von "wahr" oder "falsch".

Typische Ursachen:

  • Lücken im Trainingswissen: Bei Nischenthemen rät das Modell
  • Veraltetes Wissen: Infos nach dem Trainings-Cutoff sind unbekannt
  • Widersprüchliche Trainingsdaten: Das Modell zieht falsche Schlüsse
  • Übermäßige Hilfsbereitschaft: Das Modell will antworten, auch wenn es die Antwort nicht kennt

Welche Arten gibt es?

  • Fakten-Halluzination: Erfundene Fakten, Zitate oder Statistiken
  • Referenz-Halluzination: Nicht existierende Quellen, Papers oder Bücher
  • Logik-Halluzination: Fehlerhafte Schlussfolgerungen oder Berechnungen
  • Konfabulation: Plausible, aber frei erfundene Details zu realen Themen

Warum ist das für Unternehmen gefährlich?

  • Rechtliche Risiken: Falsche Rechtsauskünfte oder fehlerhafte Compliance-Bewertungen
  • Reputationsschäden: Veröffentlichung falscher Informationen
  • Fehlentscheidungen: Halluzinationen fließen als "Fakten" in Entscheidungen ein
  • Haftung: Bei Hochrisiko-KI können Halluzinationen EU AI Act relevant werden

Was kannst du dagegen tun?

  1. RAG einsetzen: Antworten auf verifizierte Dokumente stützen
  2. Human-in-the-Loop: KI-Ausgaben immer durch Menschen prüfen
  3. Temperature senken: Weniger Kreativität = weniger Halluzinationen
  4. Quellen einfordern: Das Modell auffordern, Quellen zu nennen — und dann prüfen
  5. Grounding: Das Modell anweisen, nur auf Basis bereitgestellter Infos zu antworten

Verwandte Artikel

Unterstützung bei der Umsetzung?

Als KI-Berater helfe ich dir bei EU AI Act Compliance, KI-Workshops und Strategie. Befähigung statt Dauerberatung.