Open Beta — Alle Funktionen kostenlos bis 30. April 2026Mehr erfahren

Glossar

Die wichtigsten Begriffe rund um KI und den EU AI Act — kompakt und verständlich.

EU AI Act & Regulierung

AI LiteracyArt. 4
Pflicht nach Art. 4 EU AI Act: Anbieter und Betreiber müssen sicherstellen, dass Personal über ausreichende KI-Kompetenz verfügt.
AI Office
Das Büro für Künstliche Intelligenz der EU-Kommission. Zuständig für die Durchsetzung der GPAI-Regeln und die Koordination der Umsetzung des EU AI Act.
AI SandboxArt. 57-62
Regulatorische Testumgebung (Regulatory Sandbox), in der innovative KI-Systeme unter behördlicher Aufsicht entwickelt und getestet werden können. Jeder EU-Mitgliedstaat soll mindestens eine einrichten.
Annex IAnnex I
Auflistung der EU-Harmonisierungsvorschriften (z.B. Medizinprodukte, Maschinen), bei denen KI als Sicherheitskomponente automatisch als Hochrisiko gilt.
Annex IIIAnnex III
Auflistung der 8 Hochrisiko-Bereiche: Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, Dienstleistungen, Strafverfolgung, Migration, Demokratie.
Bestimmungsgemäße VerwendungArt. 3 Nr. 12
Die Verwendung, für die ein KI-System vom Anbieter vorgesehen ist, einschließlich des spezifischen Kontexts und der Bedingungen.
CE-KennzeichnungArt. 48
Kennzeichnung, die bestätigt, dass ein Hochrisiko-KI-System die Anforderungen des EU AI Act erfüllt und eine Konformitätsbewertung durchlaufen hat.
Code of PracticeArt. 53-55
Freiwilliger Verhaltenskodex für GPAI-Modellanbieter, veröffentlicht im Juli 2025 vom AI Office. Wer ihn befolgt, genießt eine Vermutung der Konformität (Presumption of Conformity).
Deployer (Betreiber)Art. 3 Nr. 4
Eine natürliche oder juristische Person, die ein KI-System in eigener Verantwortung verwendet (nicht im Rahmen persönlicher, nicht beruflicher Tätigkeit).
Digital Omnibus
EU-Kommissionsvorschlag vom November 2025 zur Anpassung mehrerer Digital-Verordnungen. Enthält eine mögliche Verschiebung der Hochrisiko-Fristen des EU AI Act (Annex III → Dez 2027, Annex I → Aug 2028).
GPAI (General Purpose AI)Art. 3 Nr. 63
KI-Modelle mit allgemeinem Verwendungszweck, die für eine breite Palette von Aufgaben eingesetzt werden können (z.B. GPT-4, Gemini, Claude). Besondere Transparenzpflichten.
Hochrisiko-KI-SystemArt. 6
Ein KI-System, das als Sicherheitskomponente eines Produkts (Annex I) oder für einen Verwendungszweck (Annex III) bestimmt ist und umfangreiche Anforderungen erfüllen muss.
InbetriebnahmeArt. 3 Nr. 11
Die Bereitstellung eines KI-Systems zur erstmaligen Verwendung durch einen Betreiber.
InverkehrbringenArt. 3 Nr. 9
Die erstmalige Bereitstellung eines KI-Systems auf dem Unionsmarkt.
KI-SystemArt. 3 Nr. 1
Maschinengestütztes System, das für autonomen Betrieb ausgelegt ist und aus Eingaben ableitet, wie Ausgaben (Vorhersagen, Inhalte, Empfehlungen, Entscheidungen) erzeugt werden.
KonformitätsbewertungArt. 43
Verfahren zum Nachweis, dass ein Hochrisiko-KI-System alle Anforderungen des EU AI Act erfüllt. Kann intern (Annex VI) oder extern (Annex VII) erfolgen.
Post-Market MonitoringArt. 72
System zur fortlaufenden Überwachung eines KI-Systems nach dem Inverkehrbringen. Provider müssen dies einrichten und dokumentieren.
Provider (Anbieter)Art. 3 Nr. 3
Eine natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen in Verkehr bringt oder in Betrieb nimmt.
Regulatory SandboxArt. 57-62
Kontrollierte Testumgebung, in der innovative KI-Systeme unter behördlicher Aufsicht entwickelt und getestet werden können. Jeder Mitgliedstaat soll mindestens eine einrichten.
RisikomanagementsystemArt. 9
Fortlaufender, iterativer Prozess zur Identifizierung, Analyse und Minderung von Risiken bei Hochrisiko-KI-Systemen. Pflicht für Provider.
Technische DokumentationArt. 11
Umfassende Dokumentation eines Hochrisiko-KI-Systems, die vor dem Inverkehrbringen erstellt und laufend aktualisiert werden muss.

Technische Begriffe

A2A Protocol
Von Google entwickeltes Agent-to-Agent Protocol, das die Kommunikation und Zusammenarbeit zwischen verschiedenen AI Agents standardisiert.
Agentic AI
KI-Systeme, die autonom planen, Entscheidungen treffen und Aktionen ausführen können. Im Gegensatz zu Chatbots können sie mehrstufige Aufgaben selbstständig bearbeiten und Tools nutzen.
Bias
Systematische Verzerrung in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen kann. Entsteht durch verzerrte Trainingsdaten oder fehlerhafte Modellarchitektur.
Embedding
Mathematische Repräsentation von Text, Bildern oder anderen Daten als Vektor (Zahlenreihe). Ermöglicht semantische Suche und ist die Grundlage von RAG-Systemen.
Explainability (Erklärbarkeit)
Die Fähigkeit, KI-Entscheidungen für Menschen nachvollziehbar zu machen. Der EU AI Act fordert Transparenz und Nachvollziehbarkeit besonders bei Hochrisiko-Systemen.
Fine-Tuning
Weitertrainieren eines vortrainierten KI-Modells auf domänenspezifischen Daten, um es für bestimmte Aufgaben oder Fachgebiete zu optimieren.
Foundation Model
Großes, vortrainiertes KI-Modell, das als Basis für verschiedene Downstream-Aufgaben dient. Im EU AI Act unter "GPAI-Modelle" reguliert.
Halluzination
Wenn ein KI-Modell plausibel klingende, aber faktisch falsche Informationen generiert. Ein fundamentales Problem statistischer Sprachmodelle.
LLM (Large Language Model)
Großes Sprachmodell, trainiert auf riesigen Textmengen. Kann Texte verstehen und generieren. Beispiele: GPT-4, Claude, Gemini, Llama.
MCP (Model Context Protocol)
Von Anthropic entwickelter offener Standard, der die Verbindung zwischen KI-Modellen und externen Tools/Datenquellen standardisiert. Wird oft als "USB-C für KI" bezeichnet.
Prompt
Die Eingabe/Anweisung an ein KI-System. Die Qualität des Prompts bestimmt maßgeblich die Qualität der KI-Ausgabe (→ Prompt Engineering).
RAG (Retrieval Augmented Generation)
Technik, bei der ein LLM mit einer externen Wissensdatenbank verbunden wird. Verbessert Aktualität und Genauigkeit und reduziert Halluzinationen.
Token
Kleinste Verarbeitungseinheit eines LLM. Ungefähr ¾ eines Wortes. Tokens bestimmen Kosten und Kontextlänge bei der KI-Nutzung.
Transformer
Die 2017 von Google eingeführte Modellarchitektur, auf der alle modernen LLMs basieren. Kernmechanismus: Self-Attention.

Business & Governance

AI Literacy
Die Fähigkeit, KI-Systeme zu verstehen, verantwortungsvoll einzusetzen und ihre Ergebnisse kritisch zu bewerten. Seit Feb 2025 Pflicht nach Art. 4 EU AI Act.
Human-in-the-Loop
Prinzip, bei dem ein Mensch in den KI-Entscheidungsprozess eingebunden ist und bei Bedarf eingreifen kann. Kernforderung des EU AI Act für Hochrisiko-Systeme.
KI-Governance
Gesamtheit der Regeln, Prozesse und Strukturen für den verantwortungsvollen KI-Einsatz in Organisationen. Umfasst Strategie, Ethik, Compliance und Risikomanagement.

Unterstützung bei der Umsetzung?

Als KI-Berater helfe ich dir bei EU AI Act Compliance, KI-Workshops und Strategie. Befähigung statt Dauerberatung.