Open Beta — Alle Funktionen kostenlos bis 30. April 2026Mehr erfahren

Large Language Models: Wie ChatGPT & Co. funktionieren

Was sind LLMs und wie funktionieren sie? Von Tokens über Training bis Inference — verständlich erklärt.

Was ist ein Large Language Model?

Ein Large Language Model (LLM) ist ein KI-System, das auf riesigen Textmengen trainiert wurde. Es hat gelernt, menschenähnliche Texte zu verstehen und zu erzeugen. Die bekanntesten: GPT-4 (OpenAI), Claude (Anthropic), Gemini (Google) und Llama (Meta).

Wie funktioniert das?

Im Kern macht ein LLM genau eine Sache: Es sagt das nächste Wort vorher (technisch: den nächsten Token). Basierend auf dem bisherigen Kontext. Und das erstaunlich gut.

  1. Tokenisierung: Text wird in Tokens zerlegt (Wortteile, ca. 1 Token ≈ ¾ Wort)
  2. Embedding: Jeder Token wird in einen mathematischen Vektor umgewandelt
  3. Transformer: Das Modell verarbeitet alle Tokens gleichzeitig und berechnet Beziehungen (Attention-Mechanismus)
  4. Vorhersage: Das Modell gibt Wahrscheinlichkeiten für mögliche nächste Tokens aus
  5. Generierung: Ein Token wird ausgewählt und der Prozess wiederholt sich

Wie wird ein LLM trainiert?

Das Training läuft in mehreren Phasen:

  • Pre-Training: Das Modell liest Billionen Tokens aus Internet, Büchern und Code. Es lernt Sprachmuster, Wissen und Zusammenhänge.
  • Fine-Tuning (RLHF): Menschliches Feedback verfeinert das Modell — es wird hilfreicher und sicherer.
  • Instruction Tuning: Das Modell lernt, Anweisungen gezielt zu befolgen.

Was können LLMs — und was nicht?

Stärken:

  • Vielseitigkeit — ein Modell für viele Aufgaben
  • Natürliche Sprachverarbeitung, Code-Generierung, Zusammenfassung und Übersetzung

Grenzen:

  • Halluzinationen: LLMs generieren manchmal plausibel klingende, aber falsche Aussagen
  • Wissens-Cutoff: Wissen endet beim Trainingszeitraum
  • Keine echte Logik: LLMs sind statistische Mustererkenner, kein "echtes" Verständnis
  • Kosten: Training und Betrieb großer Modelle sind ressourcenintensiv

Wie setzt du LLMs im Unternehmen ein?

Drei Ansätze stehen dir zur Verfügung:

  1. API-Zugriff: Nutzung über Cloud-APIs (z.B. OpenAI API, Google Vertex AI)
  2. Fine-Tuning: Ein bestehendes Modell auf deine Daten anpassen
  3. RAG: Erweiterung durch eigene Wissensdatenbanken (Retrieval Augmented Generation)

Verwandte Artikel

Unterstützung bei der Umsetzung?

Als KI-Berater helfe ich dir bei EU AI Act Compliance, KI-Workshops und Strategie. Befähigung statt Dauerberatung.