EU AI Act Wissensdatenbank

Alles Wichtige zum EU AI Act auf einen Blick. Verstehen Sie die Anforderungen und starten Sie Ihr Compliance-Assessment.

Bereit für Ihr Assessment?

Erhalten Sie eine systematische Risikoanalyse für Ihr KI-System.

Jetzt starten

Risikoklassen im EU AI Act

Verboten

Diese AI-Praktiken sind vollständig verboten

  • Soziales Scoring durch Behörden
  • Manipulation von Verhalten
  • Ausnutzen von Schwächen
  • Biometrische Echtzeit-Identifikation in öffentlichen Räumen (mit Ausnahmen)
  • Emotionserkennung am Arbeitsplatz/in Bildungseinrichtungen
  • Biometrische Kategorisierung nach sensiblen Merkmalen

Hochrisiko

Strenge Anforderungen, Konformitätsbewertung erforderlich

  • Biometrische Identifikation
  • Kritische Infrastruktur (Wasser, Gas, Strom)
  • Bildung und Berufsausbildung
  • Beschäftigung und HR-Entscheidungen
  • Kreditwürdigkeitsprüfung
  • Strafverfolgung und Justiz

Begrenzt

Transparenzpflichten

  • Chatbots (Hinweis auf AI)
  • Deepfakes (Kennzeichnung)
  • Emotionserkennung (Hinweis)
  • Biometrische Kategorisierung

Minimal

Keine besonderen Anforderungen, freiwillige Verhaltenskodizes

  • AI-gestützte Spiele
  • Spam-Filter
  • Empfehlungssysteme
  • Suchmaschinenoptimierung

Häufig gestellte Fragen

Was ist der EU AI Act?

Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Es trat am 1. August 2024 in Kraft und gilt ab August 2026 vollständig. Das Gesetz verfolgt einen risikobasierten Ansatz und regelt die Entwicklung, den Einsatz und die Nutzung von AI-Systemen in der EU.

Ab wann gilt der EU AI Act?

Der EU AI Act gilt gestaffelt: Verbotene AI-Praktiken sind bereits seit Februar 2025 unzulässig. Die Regeln für GPAI-Modelle gelten ab August 2025. Für Hochrisiko-AI-Systeme gelten die Anforderungen ab August 2026. Bestimmte Hochrisiko-Systeme (Annex I) haben bis August 2027 Zeit.

Wer muss den EU AI Act einhalten?

Der EU AI Act gilt für alle Unternehmen und Organisationen, die AI-Systeme entwickeln (Provider), einsetzen (Deployer) oder nutzen und in der EU tätig sind oder AI-Systeme in der EU anbieten – unabhängig vom Standort des Unternehmens.

Was sind Hochrisiko-AI-Systeme?

Hochrisiko-AI-Systeme sind Systeme in kritischen Bereichen gemäß Annex III: biometrische Identifikation, kritische Infrastruktur, Bildung und Berufsausbildung, Beschäftigung und Personalverwaltung, Zugang zu öffentlichen Dienstleistungen, Strafverfolgung, Migration und Justiz.

Welche Pflichten haben Provider?

Provider müssen für Hochrisiko-AI-Systeme: ein Qualitätsmanagementsystem einrichten, technische Dokumentation erstellen, automatische Protokollierung implementieren, menschliche Aufsicht sicherstellen, Genauigkeit und Robustheit gewährleisten sowie eine Konformitätsbewertung durchführen.

Was passiert bei Verstößen?

Bei Verstößen drohen hohe Geldstrafen: bis zu 35 Mio. Euro oder 7% des weltweiten Jahresumsatzes für verbotene AI-Praktiken, bis zu 15 Mio. Euro oder 3% für Verstöße gegen Hochrisiko-Anforderungen, bis zu 7,5 Mio. Euro oder 1,5% für falsche Angaben gegenüber Behörden.

Glossar

Provider (Anbieter)Art. 3 Nr. 3
Eine natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt.
Deployer (Betreiber)Art. 3 Nr. 4
Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das System wird im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet.
KI-SystemArt. 3 Nr. 1
Ein maschinengestütztes System, das für einen unterschiedlich ausgeprägten autonomen Betrieb ausgelegt ist, nach der Einführung eine Anpassungsfähigkeit aufweisen kann und aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden können.
Hochrisiko-KI-SystemArt. 6
Ein KI-System, das als Sicherheitskomponente eines Produkts oder selbst als Produkt in einen der in Annex I aufgeführten harmonisierten Bereiche fällt, oder das für einen der in Annex III aufgeführten Verwendungszwecke bestimmt ist.
InverkehrbringenArt. 3 Nr. 9
Die erstmalige Bereitstellung eines KI-Systems auf dem Unionsmarkt.
InbetriebnahmeArt. 3 Nr. 11
Die Bereitstellung eines KI-Systems zur erstmaligen Verwendung durch einen Betreiber.
Bestimmungsgemäße VerwendungArt. 3 Nr. 12
Die Verwendung, für die ein KI-System vom Anbieter vorgesehen ist, einschließlich des spezifischen Kontexts und der Bedingungen der Verwendung, die in den beigefügten Informationen angegeben sind.
GPAI (General Purpose AI)Art. 3 Nr. 63
KI-Modelle mit allgemeinem Verwendungszweck, die für eine breite Palette von Aufgaben eingesetzt werden können (z.B. GPT-4, Gemini, Claude). Für diese gelten besondere Transparenzpflichten.

Zeitplan des EU AI Act

August 2024

Inkrafttreten

Der EU AI Act tritt in Kraft

Februar 2025

Verbote aktiv

Verbotene AI-Praktiken werden unzulässig

August 2025

GPAI-Regeln

Regeln für General Purpose AI gelten

August 2026

Hochrisiko

Anforderungen für Hochrisiko-AI-Systeme gelten vollständig

August 2027

Annex I

Erweiterte Fristen für bestimmte Hochrisiko-Systeme

Weiterführende Ressourcen

Offizieller Gesetzestext

Der vollständige Text der Verordnung (EU) 2024/1689 im Amtsblatt der EU.

Zum Gesetzestext →

EU AI Office

Das offizielle AI Office der Europäischen Kommission mit Leitlinien und Updates.

Zur EU-Seite →