Ab August 2026 tritt der EU AI Act für Hochrisiko-KI-Systeme vollständig in Kraft. Bei Verstößen drohen Bußgelder von bis zu 35 Millionen Euro — oder 7 % des weltweiten Jahresumsatzes.
Das Problem: Die meisten mittelständischen Unternehmen wissen nicht, ob ihre KI-Systeme als Hochrisiko eingestuft werden. Und viele, die bereits KI einsetzen, sind sich nicht bewusst, dass sie als Betreiber — nicht nur als Entwickler — Pflichten tragen.
Dieser Artikel erklärt, was der EU AI Act von Ihrem Unternehmen verlangt — und welche fünf Schritte Sie noch vor August 2026 unternehmen sollten.
Was ist der EU AI Act — und warum jetzt?
Der EU AI Act (Verordnung 2024/1689) ist das erste umfassende KI-Gesetz der Welt. Er tritt stufenweise in Kraft:
| Zeitpunkt | Was gilt? |
|---|---|
| Februar 2025 | Verbote für inakzeptables KI-Risiko (Social Scoring, Manipulation) |
| August 2025 | Regeln für Allzweck-KI-Modelle (GPT-Modelle, Claude etc.) |
| August 2026 | Vollständige Pflichten für Hochrisiko-KI-Systeme |
| August 2030 | Hochrisiko-KI im öffentlichen Sektor — vollständige Compliance |
Das bedeutet: Sie haben noch wenige Monate, um Compliance sicherzustellen — falls Ihre KI-Systeme als Hochrisiko eingestuft werden.
Gilt das auch für uns? Die Hochrisiko-Frage
Viele Mittelständler glauben, der EU AI Act betreffe nur Tech-Konzerne oder KI-Startups. Das ist falsch.
Hochrisiko-KI-Systeme sind u.a.:
- KI, die in kritischer Infrastruktur eingesetzt wird (Energie, Wasser, Transport)
- Systeme, die Beschäftigungsentscheidungen beeinflussen (Bewerbungsscreening, Leistungsbewertung)
- KI zur Kreditvergabe oder Bonitätsprüfung
- Systeme zur Zugangskontrolle zu Bildung oder Dienstleistungen
- KI-Komponenten in sicherheitsrelevanten Produkten (Maschinen, Medizinprodukte, Fahrzeuge)
Was bedeutet das für den Mittelstand konkret?
Ein Maschinenbauer, der eine KI zur Qualitätskontrolle einsetzt, die Produktionsstopps auslöst? Möglicherweise Hochrisiko.
Ein Unternehmen, das KI-Tools für HR-Entscheidungen nutzt? Möglicherweise Hochrisiko — als Betreiber.
Ein ERP-System mit KI-Modulen (SAP AI, Microsoft Copilot), das Einkauf- oder Planungsentscheidungen beeinflusst? Prüfen Sie genau.
Ich bin Betreiber — was muss ich tun?
Der EU AI Act unterscheidet zwischen Anbietern (die KI entwickeln) und Betreibern (die KI einsetzen). Als mittelständisches Unternehmen, das KI-Systeme einsetzt, sind Sie in der Regel Betreiber — und tragen eigene Pflichten.
Pflichten für Betreiber von Hochrisiko-KI:
- Technische und organisatorische Maßnahmen: Betrieb gemäß Herstelleranweisungen
- Menschliche Aufsicht: Qualifizierte Mitarbeiter müssen Entscheidungen überwachen können
- Logging und Aufzeichnung: Protokollierung des KI-Einsatzes über die gesamte Nutzungsdauer
- Datenschutz-Folgenabschätzung: Für KI-Systeme, die personenbezogene Daten verarbeiten
- Meldung von Vorfällen: Schwerwiegende Vorfälle müssen gemeldet werden
- Registrierung: Hochrisiko-KI muss in der EU-Datenbank registriert sein (für bestimmte Kategorien)
Die 5 Schritte zur EU AI Act Compliance
Schritt 1: KI-Inventar erstellen
Listen Sie alle KI-Systeme auf, die Ihr Unternehmen einsetzt — einschließlich eingebetteter KI in Standardsoftware (SAP, Microsoft, Salesforce). Viele Unternehmen unterschätzen, wie viele KI-Komponenten bereits aktiv sind.
Schritt 2: Risikoklassifizierung durchføhren
Ordnen Sie jedes KI-System einer der vier Risikoklassen zu: unakzeptables Risiko, Hochrisiko, begrenztes Risiko, minimales Risiko. Für Hochrisikosysteme gelten die strengen Pflichten.
Schritt 3: Compliance-Lücken identifizieren
Prøfen Sie für jedes Hochrisiko-System: Gibt es technische Dokumentation? Menschliche Aufsicht? Logging? Datenschutzfolgenabschätzung? Jede fehlende Maßnahme ist ein Compliance-Risiko.
Schritt 4: Anpassungen implementieren
Schließen Sie die identifizierten Lücken — entweder intern oder mit einem spezialisierten Partner. Priorisieren Sie nach Risiko und Implementierungsaufwand.
Schritt 5: Governance-Prozesse etablieren
Der EU AI Act ist nicht einmalig zu erføllen — er verlangt kontinuierliches Monitoring. Etablieren Sie interne Verantwortlichkeiten, Meldewege und Review-Zyklen.
Was passiert, wenn wir nichts tun?
Die Bußgelder sind empfindlich:
- Verbotene KI-Praktiken: Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes
- Nicht-konforme Hochrisiko-KI: Bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes
- Falsche oder irreführende Informationen: Bis zu 7,5 Millionen Euro oder 1,5 % des Jahresumsatzes
Für einen mittelständischen Betrieb mit 100 Millionen EUR Umsatz bedeutet der mittlere Bußgeldrahmen bis zu 3 Millionen Euro — plus Reputationsrisiko und mögliche Marktabschlüsse in der EU.
Wie Logic Joe Next unterstützt
Unser KI Readiness Assessment beinhaltet eine vollständige EU AI Act Compliance-Prøfung:
- Vollständiges KI-Inventar Ihres Unternehmens
- Risikoklassifizierung nach EU AI Act Anhang III
- Identifikation aller Compliance-Lücken
- Priorisierter Maßnahmenplan für August 2026
- Dokumentation und Governance-Empfehlungen
Das Ergebnis: Ein klares Bild — welche Ihrer KI-Systeme betroffen sind, was fehlt, und was bis August 2026 umgesetzt werden muss.
Fazit: Die Zeit läuft
Der EU AI Act ist keine abstrakte Regulierung für die Zukunft — er gilt ab August 2026 und die Vorbereitungszeit ist jetzt. Die Unternehmen, die jetzt handeln, vermeiden kostspielige Last-Minute-Anpassungen und positionieren sich gegenøber Kunden und Partnern als verantwortungsvolle KI-Nutzer.
Wissen Sie, ob Ihr Unternehmen betroffen ist?