KI-Risikoeinstufung nach EU AI Act
Der EU AI Act teilt alle KI-Systeme in vier Risikoklassen ein. Die Einstufung bestimmt, welche Compliance-Pflichten Sie erfüllen müssen. Verstehen Sie die Kriterien – und stufen Sie Ihre KI-Systeme korrekt ein.
Die 4 Risikoklassen im Detail
- Social-Scoring-Systeme von Behörden
- Biometrische Echtzeit-Fernidentifikation im öffentlichen Raum (mit wenigen Ausnahmen)
- KI zur Manipulation von Verhaltensweisen vulnerabler Gruppen
- KI zur Ausnutzung von Schwächen oder Verletzlichkeiten
- Vorhersage-Polizeiarbeit basierend auf Profiling
Verbot. Solche Systeme dürfen in der EU nicht eingesetzt oder bereitgestellt werden.
- KI in kritischer Infrastruktur (Energie, Wasser, Verkehr)
- KI im Bildungswesen (Zugangsentscheidungen)
- Rekrutierungs-KI, Beförderungsentscheidungen
- KI im Kreditwesen, Bonitätsbewertung
- KI in Strafverfolgung und Justiz
- KI in der Gesundheitsversorgung (Medizinprodukte)
- KI zur Grenzkontrolle und Migration
- Biometrische Identifikationssysteme
Risikomanagementsystem, vollständige technische Dokumentation, Konformitätsbewertung, CE-Kennzeichnung, Registrierung in der EU-Datenbank.
- Chatbots und virtuelle Assistenten
- Deepfake-Bild- und Videogeneratoren
- KI-generierte Inhalte (Text, Audio, Video)
- Emotionserkennungssysteme
Nutzer müssen informiert werden, dass sie mit einem KI-System interagieren. KI-generierte Inhalte müssen als solche gekennzeichnet sein.
- KI-basierte Spam-Filter
- KI in Videospielen und Entertainment
- KI-gestützte Produktionsplanung
- Einfache Empfehlungssysteme
- KI-gestützte Lagerverwaltung
Keine gesetzlichen Pflichten. Freiwillige Kodizes und Best Practices empfohlen.
Entscheidungshilfe: Ist mein System Hochrisiko?
So stufen Sie Ihr KI-System ein
Häufige Fragen zur KI-Risikoeinstufung
Was passiert, wenn ich mein System falsch einstufe?
Falsche Einstufungen können zu Bußgeldern führen. Bei Unterschreitung der tatsächlichen Risikoklasse gilt die Nichterfüllung von Compliance-Pflichten als Verstoß gegen den EU AI Act.
Können sich Einstufungen ändern?
Ja. Wenn sich Zweck, Zielgruppe oder Funktionsumfang des Systems ändern, ist die Einstufung zu überprüfen. Auch Anhang III kann durch delegierte Rechtsakte der EU-Kommission angepasst werden.
Wer ist verantwortlich für die Einstufung?
Als Betreiber (Operator) sind Sie mitverantwortlich für die Einstufung. Anbieter (Provider) tragen die Hauptverantwortung für selbst entwickelte Systeme.
KI-Risikoeinstufung mit SimpleAct
SimpleAct führt Sie regelbasiert durch die Risikoeinstufung Ihrer KI-Systeme und erstellt automatisch die Dokumentation nach EU AI Act.
Jetzt KI-Systeme einstufen