Drei Monate. Mehr Zeit bleibt nicht bis zum großen Stichtag.
Die Hochrisiko-Pflichten des EU-KI-Gesetzes werden am 2. August 2026 anwendbar. Stand heute ist das das rechtlich bindende Datum. Die meisten Teams haben noch nicht angefangen.
Die Strafen sind empfindlich: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes. Über die Hälfte aller Organisationen hat nicht einmal eine grundlegende Inventur der KI-Systeme in ihrer Umgebung. Sie können keine Risiken klassifizieren, wenn Sie Ihre eigenen Systeme nicht kennen.
Das ist auch kein reines Zukunftsproblem. Verbotene Praktiken sind seit Februar 2025 illegal, die Pflicht zur KI-Kompetenz nach Artikel 4 gilt genauso lange, und die GPAI-Pflichten sind seit August 2025 in Kraft.
Wer Social Scoring, biometrische Echtzeit-Überwachung im öffentlichen Raum oder Ausnutzung von Schwachstellen bestimmter Gruppen einsetzt, verstößt also bereits seit über einem Jahr gegen die Verordnung.
Es gibt einen Haken. Am 7. Mai 2026 haben sich Rat und Parlament auf eine vorläufige politische Einigung zu einem Digital Omnibus zur KI verständigt, der mehrere Fristen verschieben würde.
Solange der Text nicht förmlich angenommen ist, bleiben die ursprünglichen Daten verbindlich. Planen Sie für den 2. August 2026. Beobachten Sie den Omnibus.
Der Zeitplan: Was bereits gilt und was kommt
Das KI-Gesetz wird in Phasen eingeführt. Die meisten sind bereits aktiv.
2. Februar 2025: Verbotene KI-Praktiken wurden illegal. Die KI-Kompetenzpflicht nach Artikel 4 trat ebenfalls in Kraft. Die Kommission veröffentlichte in derselben Woche ihre unverbindlichen Leitlinien zu verbotenen Praktiken.
2. August 2025: Governance-Strukturen, Sanktionsregime und Pflichten für Anbieter von General-Purpose-AI-Modellen wurden anwendbar. Das EU AI Office (innerhalb der Generaldirektion CNECT) begann mit der Veröffentlichung von Leitlinien und Vorlagen. Der freiwillige General-Purpose AI Code of Practice wurde im Juli 2025 veröffentlicht und von den meisten großen Modellanbietern unterzeichnet.
2. August 2026: Der große Stichtag, wie aktuell geschrieben. Vollständige Anwendung der Hochrisiko-Pflichten nach Anhang III: Konformitätsbewertungen, technische Dokumentation, menschliche Aufsicht, Transparenzpflichten nach Artikel 50, Registrierung in der EU-Datenbank nach Artikel 49.
2. August 2027: Pflichten nach Artikel 6(1) und vollständige GPAI-Compliance für Modelle, die vor August 2025 in Verkehr gebracht wurden.
2. August 2028: Hochrisiko-Systeme nach Anhang I, die in regulierte Produkte eingebettet sind (Medizinprodukte, Maschinen, Fahrzeuge) unter bestehender EU-Produktsicherheitsgesetzgebung.
Was ist mit dem Digital Omnibus? Die vorläufige Einigung vom 7. Mai würde Anhang-III-Pflichten auf den 2. Dezember 2027 verschieben, Anhang I auf den 2. August 2028 (bereits das Datum) und die Wasserzeichen-Pflichten nach Artikel 50(2) auf den 2. Dezember 2026.
Der Text muss vor dem Anwendungsbeginn im August 2026 förmlich angenommen werden, damit er greift. Bis dahin binden die ursprünglichen Daten rechtlich.
Verlangsamen Sie Ihre Vorbereitung nicht auf Basis einer politischen Einigung, die noch nicht unterzeichnet ist.
Was als “KI-System” gilt: Breiter als gedacht
Das Gesetz definiert ein KI-System als “ein maschinenbasiertes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie arbeitet, nach der Bereitstellung Anpassungsfähigkeit aufweisen kann und aus den erhaltenen Eingaben ableitet, wie es Ausgaben erzeugt.”
Das ist breit. Es erfasst große Sprachmodelle und Computer Vision. Aber auch traditionelle Machine-Learning-Modelle, bestimmte regelbasierte Systeme und fortgeschrittene Analysetools, die Vorhersagen oder Empfehlungen generieren.
Nutzt Ihr Produkt irgendeine Form automatischer Inferenz, die Entscheidungen beeinflusst? Dann ist es wahrscheinlich erfasst.
Die vier Risikokategorien
Unannehmbares Risiko: verboten
Verboten sind:
- Social Scoring
- biometrische Echtzeit-Identifizierung im öffentlichen Raum (mit engen Ausnahmen für Strafverfolgung)
- KI, die Alter, Behinderung oder wirtschaftliche Verwundbarkeit ausnutzt
- ungezieltes Scraping zum Aufbau von Gesichtserkennungsdatenbanken
- Emotionserkennung am Arbeitsplatz und im Bildungswesen (mit engen Ausnahmen für Medizin und Sicherheit)
Seit Februar 2025 illegal. Die Durchsetzungsbefugnisse nach Artikel 5 gingen am 2. August 2025 auf die designierten nationalen Behörden über (oder den EDSB für EU-Institutionen). Öffentliche Verfahren gibt es bisher keine, aber mehrere Untersuchungen zu Emotionserkennung am Arbeitsplatz und Predictive Policing sollen laufen.
Hohes Risiko: umfangreiche Pflichten
Hier steckt der Großteil der Compliance-Arbeit. Hochrisiko-KI-Systeme umfassen solche, die eingesetzt werden in:
- Biometrischer Identifizierung und Kategorisierung
- Verwaltung kritischer Infrastruktur (Energie, Transport, Wasser)
- Bildung und Berufsausbildung (Zulassungen, Bewertungen)
- Beschäftigung (Rekrutierung, Leistungsbewertung, Aufgabenzuweisung)
- Zugang zu wesentlichen Dienstleistungen (Kreditwürdigkeitsprüfung, Versicherungspreisgestaltung)
- Strafverfolgung und Migration
Für diese Systeme brauchen Sie: ein Qualitätsmanagementsystem, formales Risikomanagement, technische Dokumentation, Daten-Governance, Protokollierung und Rückverfolgbarkeit, menschliche Aufsichtsmechanismen, Konformitätsbewertungen und Registrierung in der EU-KI-Datenbank nach Artikel 49.
Begrenztes Risiko: Transparenz erforderlich
KI-Systeme, die mit Menschen interagieren, Inhalte generieren oder Emotionen erkennen. Chatbots müssen klar offenlegen, dass sie KI sind.
Deepfake-Inhalte brauchen maschinenlesbare Wasserzeichen nach Artikel 50(2). Emotionserkennungssysteme müssen Nutzer vorab informieren.
Hinweis: Der Digital Omnibus würde die Frist für Artikel 50(2) auf den 2. Dezember 2026 verschieben, sofern er förmlich angenommen wird.
Minimales Risiko: keine besonderen Pflichten
Die meisten Geschäftsanwendungen. Spam-Filter, Bestandsoptimierung, Empfehlungssysteme für unkritische Anwendungen. Freiwillige Verhaltenskodizes werden empfohlen, sind aber nicht verpflichtend.
Anbieter vs. Betreiber: Ihre Rolle ist entscheidend
Das Gesetz unterscheidet zwischen Anbietern (die KI-Systeme entwickeln) und Betreibern (die KI-Systeme in ihrem Betrieb einsetzen).
Die meisten KMU sind Betreiber. Sie nutzen GPT-4, Claude oder ein Open-Source-Modell innerhalb ihres Produkts. Sie haben das Basismodell nicht gebaut.
Die Betreiberpflichten sind leichter, aber real. Sie müssen das System gemäß den Anweisungen des Anbieters nutzen. Menschliche Aufsicht bei Hochrisikosystemen gewährleisten. Risiken im Betrieb überwachen. Transparenz gegenüber Nutzern wahren.
Wenn Sie ein Modell feintunen oder wesentlich modifizieren, könnten Sie als Anbieter eingestuft werden. Das ist eine erhebliche Haftungsverschiebung. Kennen Sie Ihre Rolle.
KI-Kompetenz: Bereits in Kraft
Artikel 4 gilt seit dem 2. Februar 2025. Er verlangt, dass Organisationen sicherstellen, dass ihre Mitarbeitenden über “ausreichende KI-Kompetenz” verfügen, um KI-Systeme sachkundig zu bedienen.
Was bedeutet “ausreichend”? Das Gesetz schreibt keine Stunden oder Zertifizierungen vor. Es bedeutet: Ihr Team versteht, wie die eingesetzten KI-Systeme funktionieren, wo ihre Grenzen liegen und wie menschliche Aufsicht aufrechterhalten wird. Das AI Office hat 2025 ein FAQ veröffentlicht, das genau diese Linie vertritt: angemessen zu Risiko und Anwendungsfall, kein Häkchen auf einer Checkliste.
Für Entwicklungsteams: Verständnis von Modellverhalten, Bias-Erkennung und Fehlermodi. Für Fachanwender: Wissen, wann man KI-Ergebnissen vertraut und wann man eingreift.
Bauen Sie das in Ihr Onboarding und Ihre laufende Weiterbildung ein. Dokumentieren Sie es.
Die Bitkom-KI-Studie 2026 hat ergeben, dass die KI-Nutzung in deutschen Unternehmen von 17 % im Jahr 2024 auf 41 % Anfang 2026 gesprungen ist. Der Großteil dieses Wachstums entfiel auf Betreibernutzung von Basismodellen, und die meisten dieser Teams haben kein dokumentiertes Kompetenzprogramm.
Praktische Compliance-Schritte
Schritt 1: KI inventarisieren. Jedes Modell, jedes automatisierte Entscheidungssystem, jedes KI-gestützte Feature. Erfassen Sie alles.
Schritt 2: Risiko klassifizieren. Für jedes KI-System die Risikokategorie bestimmen. Die meisten fallen unter minimales oder begrenztes Risiko. Die anderen brauchen sofortige Aufmerksamkeit.
Schritt 3: Rolle bestimmen. Sind Sie Anbieter oder Betreiber? Das bestimmt Ihre spezifischen Pflichten.
Schritt 4: Gap-Analyse. Für Hochrisikosysteme: aktuelle Dokumentation, Aufsichtsmechanismen und Protokollierung mit den Anforderungen vergleichen.
Schritt 5: Dokumentation erstellen. Technische Dokumentation muss umfassen: Zweckbestimmung, Designspezifikationen, Trainingsdaten und -methodik, Leistungskennzahlen, bekannte Einschränkungen, Anweisungen zur menschlichen Aufsicht.
Schritt 6: Aufsicht implementieren. Human-in-the-Loop oder Human-on-the-Loop für Hochrisikosysteme. Kein Häkchen auf einer Checkliste. Ein echter Mechanismus, bei dem ein Mensch verstehen, eingreifen und überstimmen kann.
Schritt 7: Protokollierung einrichten. Hochrisiko-KI-Systeme müssen automatische Logs führen. Eingaben, Ausgaben, Konfidenzwerte, Modellversion, Zeitstempel. Unveränderliche Speicherung.
Architekturmuster für Compliance
KI-Gesetz-Compliance in Ihre technische Architektur einzubauen erfordert keinen kompletten Neuaufbau. Aber gezieltes Design.
Audit-Logging-Schicht für jede KI-Inferenz. Erklärungsfähigkeiten für Hochrisikosysteme. Modell-Versionierung zur Nachverfolgung. Kill Switches für menschliches Eingreifen.
Den breiteren Compliance-Kontext finden Sie in unserem Pillar-Guide zur EU-Compliance für Softwareteams. Wenn Sie DSGVO-konforme KI-Systeme bauen, behandelt unser Architektur-Leitfaden die Datenschutzschicht.
Betreiben Sie auch vernetzte Produkte? Der EU-Data-Act-Leitfaden deckt diese Überschneidung ab.
Was passiert bei Nichteinhaltung
Die Bußgeldstruktur ist gestaffelt.
Verbotene KI-Praktiken: bis zu 35 Millionen Euro oder 7 % des globalen Umsatzes. Verstöße gegen Hochrisiko-Pflichten: bis zu 15 Millionen Euro oder 3 %. Falsche Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro oder 1 %.
Für ein KMU mit 5 Millionen Euro Jahresumsatz bedeuten 7 % stolze 350.000 Euro. Nicht theoretisch. Die Verordnung ist darauf ausgelegt, auf jeder Skala zu wirken.
In Deutschland hat die Bundesregierung die Bundesnetzagentur (BNetzA) als federführende Marktüberwachungsbehörde designiert. Eine Koordinierungs- und Kompetenzzentrale (KoKIVO) innerhalb der BNetzA unterstützt sektorspezifische Behörden.
Der BfDI behält Aufsichtskompetenzen dort, wo KI-Systeme personenbezogene Daten verarbeiten, ist aber nicht die federführende KI-Aufsicht. Das deutsche Durchführungsgesetz (KI-Marktüberwachungs- und Innovationsförderungsgesetz, KI-MIG) wurde am 11. Februar 2026 vom Bundeskabinett beschlossen und durchläuft jetzt Bundesrat und Bundestag.
Warten Sie nicht auf August
Die Unternehmen, die im Juli 2026 in Panik geraten, zahlen Beraterprämien für Eilbewertungen und flicken Systeme unter Druck. Die Unternehmen, die jetzt anfangen, bauen Compliance in ihre Architektur ein, schulen ihre Teams schrittweise und begegnen der Durchsetzung mit Zuversicht.
Und verlassen Sie sich nicht darauf, dass der Digital Omnibus Sie rettet. Bis Rat und Parlament den neuen Text förmlich annehmen, bindet der 2. August.
Starten Sie mit der Inventur. Alles andere folgt daraus.
Bauen Sie mit KI? Lassen Sie uns sicherstellen, dass es von Anfang an konform ist. Wir entwerfen KI-Systeme mit den Anforderungen des EU-KI-Gesetzes direkt in der Architektur.