EU AI Act Wissensdatenbank
Alles Wichtige zum EU AI Act auf einen Blick. Verstehen Sie die Anforderungen und starten Sie Ihr Compliance-Assessment.
Bereit für Ihr Assessment?
Erhalten Sie eine systematische Risikoanalyse für Ihr KI-System.
Risikoklassen im EU AI Act
Verboten
Diese AI-Praktiken sind vollständig verboten
- •Soziales Scoring durch Behörden
- •Manipulation von Verhalten
- •Ausnutzen von Schwächen
- •Biometrische Echtzeit-Identifikation in öffentlichen Räumen (mit Ausnahmen)
- •Emotionserkennung am Arbeitsplatz/in Bildungseinrichtungen
- •Biometrische Kategorisierung nach sensiblen Merkmalen
Hochrisiko
Strenge Anforderungen, Konformitätsbewertung erforderlich
- •Biometrische Identifikation
- •Kritische Infrastruktur (Wasser, Gas, Strom)
- •Bildung und Berufsausbildung
- •Beschäftigung und HR-Entscheidungen
- •Kreditwürdigkeitsprüfung
- •Strafverfolgung und Justiz
Begrenzt
Transparenzpflichten
- •Chatbots (Hinweis auf AI)
- •Deepfakes (Kennzeichnung)
- •Emotionserkennung (Hinweis)
- •Biometrische Kategorisierung
Minimal
Keine besonderen Anforderungen, freiwillige Verhaltenskodizes
- •AI-gestützte Spiele
- •Spam-Filter
- •Empfehlungssysteme
- •Suchmaschinenoptimierung
Häufig gestellte Fragen
Was ist der EU AI Act?
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Es trat am 1. August 2024 in Kraft und gilt ab August 2026 vollständig. Das Gesetz verfolgt einen risikobasierten Ansatz und regelt die Entwicklung, den Einsatz und die Nutzung von AI-Systemen in der EU.
Ab wann gilt der EU AI Act?
Der EU AI Act gilt gestaffelt: Verbotene AI-Praktiken sind bereits seit Februar 2025 unzulässig. Die Regeln für GPAI-Modelle gelten ab August 2025. Für Hochrisiko-AI-Systeme gelten die Anforderungen ab August 2026. Bestimmte Hochrisiko-Systeme (Annex I) haben bis August 2027 Zeit.
Wer muss den EU AI Act einhalten?
Der EU AI Act gilt für alle Unternehmen und Organisationen, die AI-Systeme entwickeln (Provider), einsetzen (Deployer) oder nutzen und in der EU tätig sind oder AI-Systeme in der EU anbieten – unabhängig vom Standort des Unternehmens.
Was sind Hochrisiko-AI-Systeme?
Hochrisiko-AI-Systeme sind Systeme in kritischen Bereichen gemäß Annex III: biometrische Identifikation, kritische Infrastruktur, Bildung und Berufsausbildung, Beschäftigung und Personalverwaltung, Zugang zu öffentlichen Dienstleistungen, Strafverfolgung, Migration und Justiz.
Welche Pflichten haben Provider?
Provider müssen für Hochrisiko-AI-Systeme: ein Qualitätsmanagementsystem einrichten, technische Dokumentation erstellen, automatische Protokollierung implementieren, menschliche Aufsicht sicherstellen, Genauigkeit und Robustheit gewährleisten sowie eine Konformitätsbewertung durchführen.
Was passiert bei Verstößen?
Bei Verstößen drohen hohe Geldstrafen: bis zu 35 Mio. Euro oder 7% des weltweiten Jahresumsatzes für verbotene AI-Praktiken, bis zu 15 Mio. Euro oder 3% für Verstöße gegen Hochrisiko-Anforderungen, bis zu 7,5 Mio. Euro oder 1,5% für falsche Angaben gegenüber Behörden.
Glossar
- Provider (Anbieter)Art. 3 Nr. 3
- Eine natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt.
- Deployer (Betreiber)Art. 3 Nr. 4
- Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das System wird im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet.
- KI-SystemArt. 3 Nr. 1
- Ein maschinengestütztes System, das für einen unterschiedlich ausgeprägten autonomen Betrieb ausgelegt ist, nach der Einführung eine Anpassungsfähigkeit aufweisen kann und aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden können.
- Hochrisiko-KI-SystemArt. 6
- Ein KI-System, das als Sicherheitskomponente eines Produkts oder selbst als Produkt in einen der in Annex I aufgeführten harmonisierten Bereiche fällt, oder das für einen der in Annex III aufgeführten Verwendungszwecke bestimmt ist.
- InverkehrbringenArt. 3 Nr. 9
- Die erstmalige Bereitstellung eines KI-Systems auf dem Unionsmarkt.
- InbetriebnahmeArt. 3 Nr. 11
- Die Bereitstellung eines KI-Systems zur erstmaligen Verwendung durch einen Betreiber.
- Bestimmungsgemäße VerwendungArt. 3 Nr. 12
- Die Verwendung, für die ein KI-System vom Anbieter vorgesehen ist, einschließlich des spezifischen Kontexts und der Bedingungen der Verwendung, die in den beigefügten Informationen angegeben sind.
- GPAI (General Purpose AI)Art. 3 Nr. 63
- KI-Modelle mit allgemeinem Verwendungszweck, die für eine breite Palette von Aufgaben eingesetzt werden können (z.B. GPT-4, Gemini, Claude). Für diese gelten besondere Transparenzpflichten.
Zeitplan des EU AI Act
August 2024
Inkrafttreten
Der EU AI Act tritt in Kraft
Februar 2025
Verbote aktiv
Verbotene AI-Praktiken werden unzulässig
August 2025
GPAI-Regeln
Regeln für General Purpose AI gelten
August 2026
Hochrisiko
Anforderungen für Hochrisiko-AI-Systeme gelten vollständig
August 2027
Annex I
Erweiterte Fristen für bestimmte Hochrisiko-Systeme
Weiterführende Ressourcen
Offizieller Gesetzestext
Der vollständige Text der Verordnung (EU) 2024/1689 im Amtsblatt der EU.
Zum Gesetzestext →EU AI Office
Das offizielle AI Office der Europäischen Kommission mit Leitlinien und Updates.
Zur EU-Seite →