Die Einordnung eines KI-Systems in eine der vier Risikoklassen des EU AI Act klingt nach einer Formalität. Fragebogen ausfüllen, Klasse ablesen, weitermachen. In der Praxis ist es die Entscheidung, die über das gesamte weitere Compliance-Programm eines Unternehmens bestimmt.
Entsprechend groß ist die Versuchung, hier zu vereinfachen. Ein Tool, das irgendwo im Graubereich zwischen „Limited Risk" und „High Risk" liegt, wird lieber als „Limited Risk" eingestuft. Ist ja schneller. Und wenn es doch High Risk ist, merkt das sowieso niemand.
Das Problem: Es merkt durchaus jemand. Nicht unbedingt morgen, aber spätestens im ersten Audit, bei der ersten Beschwerde oder beim ersten Zwischenfall. Und dann ist die Frage nicht mehr, ob die Einstufung korrigiert werden muss, sondern welche Konsequenzen die Fehleinstufung bereits ausgelöst hat.
Dieser Beitrag erklärt die drei Dimensionen, in denen Fehlklassifizierungen Folgen haben: Haftung, Bußgelder und Audit-Risiko. Nicht als Drohkulisse, sondern als sachliche Einordnung dessen, was der EU AI Act und das deutsche Recht hier vorsehen.
Warum Fehlklassifizierungen systematisch passieren
Bevor wir zu den Konsequenzen kommen, ein Blick auf die typischen Ursachen. Fehleinstufungen sind selten Vorsatz. Sie entstehen aus strukturellen Problemen:
Kontextblindheit: Dasselbe Tool kann in unterschiedlichen Kontexten unterschiedlich eingestuft werden. Ein Chatbot im Marketing ist begrenztes Risiko. Derselbe Chatbot, der in einer Bank Kreditempfehlungen gibt, kann High Risk sein. Wer ohne Kontext einstuft, stuft fast zwangsläufig falsch ein.
Fehlende Kriterienkenntnis: Anhang III des AI Act listet acht Bereiche, in denen KI-Systeme als Hochrisiko gelten. Darunter Recruiting, Kreditwürdigkeitsprüfung, Bildungsbewertung, Zugang zu Sozialleistungen. Wer die Liste nicht kennt, kann nicht prüfen, ob sie greift.
Organisatorische Distanz: Die Person, die einstuft, ist oft nicht die Person, die das Tool nutzt. IT stuft ein Recruiting-Tool auf Basis der Herstellerangaben ein, die HR-Abteilung nutzt es anders als vorgesehen. Die Einstufung bleibt formal richtig, die Realität passt nicht dazu.
Downgrade-Tendenz: Eine höhere Risikoklasse bedeutet mehr Dokumentationsaufwand. Wer unter Zeitdruck steht, tendiert dazu, im Zweifel die niedrigere Klasse zu wählen. Das ist menschlich, aber nicht compliant.
Dimension 1: Haftung
Die Haftung bei einer Fehlklassifizierung ist komplexer als oft dargestellt. Der EU AI Act selbst regelt keine zivilrechtliche Haftung, sondern öffentlich-rechtliche Pflichten. Die zivilrechtliche Seite ergibt sich aus nationalem Recht und, mittelfristig, aus der geplanten KI-Haftungsrichtlinie der EU.
Konkret bedeuten kann das Folgendes:
Persönliche Haftung der Geschäftsführung
Die Geschäftsführung haftet gegenüber der Gesellschaft nach § 43 GmbHG für die Einhaltung gesetzlicher Vorgaben. Wer Compliance-Pflichten verletzt oder nicht sicherstellt, dass sie umgesetzt werden, haftet persönlich für daraus resultierende Schäden. Bei Bußgeldern gegen das Unternehmen kommt in bestimmten Fällen Regress in Betracht.
Haftung gegenüber Betroffenen
Werden Personen durch eine fehlerhaft eingestufte KI benachteiligt, etwa bei einer algorithmischen Absage im Recruiting, können Schadensersatzansprüche nach AGG, BGB oder DSGVO entstehen. Die Fehlklassifizierung wird dabei oft zum zentralen Beweisstück: Wenn das System als Minimal Risk eingestuft war, aber faktisch Hochrisiko-Anwendungsfälle bedient hat, wird daraus ein Indiz für mangelnde Sorgfalt.
Vertragliche Haftung gegenüber Kunden
B2B-Kunden fragen zunehmend in Vertragsverhandlungen nach AI-Compliance-Nachweisen. Werden Zusicherungen gemacht, die auf falschen Einstufungen beruhen, kann das zu Vertragsverletzungen, Vertragsstrafen oder Kündigungen führen. Besonders relevant bei Unternehmen, die KI in Produkte einbetten, die wiederum an regulierte Branchen gehen.
Mittelfristig: KI-Haftungsrichtlinie
Die EU-Kommission hat die ursprünglich geplante KI-Haftungsrichtlinie 2025 zurückgezogen, arbeitet aber an Alternativen. Die überarbeitete Produkthaftungsrichtlinie (PLD) gilt seit Dezember 2024 und erfasst auch KI-Systeme. Sie erleichtert Geschädigten die Beweisführung bei Schäden durch fehlerhafte KI.
Dimension 2: Bußgelder
Der EU AI Act definiert in Artikel 99 ein dreistufiges Bußgeldsystem. Für Fehlklassifizierungen sind vor allem zwei Stufen relevant:
Wichtig für KMU und Startups: Nach Art. 99 Abs. 6 gilt für kleine und mittlere Unternehmen die jeweils niedrigere der beiden Beträge (Festbetrag oder Umsatzanteil). Ein Startup mit 2 Mio. EUR Jahresumsatz haftet in der obersten Stufe also mit maximal 140.000 EUR, nicht mit 35 Mio. EUR. Das mildert die Beträge erheblich, ändert aber nichts am Verstoß selbst.
Bei der Bemessung der konkreten Bußgeldhöhe berücksichtigen die Aufsichtsbehörden mehrere Faktoren: die Art, Schwere und Dauer des Verstoßes, die Zahl der betroffenen Personen, das Maß an Verschulden, frühere Verstöße, die Zusammenarbeit mit der Behörde und die Größe des Unternehmens. Eine vorsätzliche oder grob fahrlässige Fehlklassifizierung führt zu deutlich höheren Bußgeldern als ein nachweisbar ehrlicher Fehler.
Praktisch bedeutet das: Eine nachvollziehbare, dokumentierte Risikobewertung kann im Zweifelsfall den Unterschied zwischen einem niedrigen und einem hohen Bußgeld ausmachen. Eine Einstufung ohne Dokumentation ist nicht nur falsch, sondern verschärft die Rechtsfolge.
Dimension 3: Audit-Risiko
Die dritte Dimension wird oft unterschätzt, ist in der Praxis aber die wahrscheinlichste. Während Bußgelder in Höhe von mehreren Millionen Euro eher Konzerne treffen, ist ein Audit-Problem für jedes Unternehmen real.
Audit-Risiko entsteht in verschiedenen Konstellationen:
Behördliche Marktüberwachung: Nach Art. 74 AI Act überwachen nationale Marktüberwachungsbehörden (in Deutschland: die Bundesnetzagentur) die Einhaltung der Verordnung. Sie können risikoorientiert Stichproben durchführen, Unterlagen anfordern und Vor-Ort-Audits durchführen. Eine falsche Einstufung fällt spätestens bei der Prüfung der eingestuften Risikoklasse gegen den tatsächlichen Einsatzkontext auf.
Interne Audits und ISO 42001: Unternehmen, die sich nach ISO 42001 zertifizieren lassen wollen, müssen ihre KI-Governance inklusive Klassifizierungsprozessen prüfen lassen. Externe Auditoren stellen gezielt Fragen wie: „Nach welchen Kriterien wurde eingestuft? Wer hat die Einstufung geprüft? Wann wurde zuletzt reviewed?" Eine unzureichend begründete Einstufung führt zu Audit-Findings.
Kundenaudits in B2B-Beziehungen: Gerade in regulierten Branchen (Finanzwesen, Gesundheit, Versicherungen) prüfen Kunden ihre Lieferanten auf Compliance. Der KI-Anbieter, der nicht erklären kann, warum sein System als Limited Risk eingestuft wurde, verliert Verträge. Die Einstufung wird zum Teil des Liefer- und Leistungsversprechens.
Whistleblowing und Meldungen: Mitarbeiter, die eine Fehlklassifizierung bemerken, können diese nach dem Hinweisgeberschutzgesetz melden. Eine solche Meldung löst in der Regel eine intensive interne und möglicherweise behördliche Prüfung aus.
Was eine nachvollziehbare Einstufung ausmacht
Der gemeinsame Nenner aller drei Dimensionen ist die Frage der Nachvollziehbarkeit. Eine Risikoeinstufung, die sich rekonstruieren lässt, reduziert Haftung, Bußgelder und Audit-Risiko gleichermaßen. Eine Einstufung, die sich nicht rekonstruieren lässt, verschärft sie.
Nachvollziehbar heißt konkret:
Dokumentierte Kriterien: Welche Fragen wurden bewertet? Welche Antworten wurden gegeben? Welche Kriterien führten zur Einstufung?
Benannter Einsatzkontext: In welchem konkreten Kontext wird das System eingesetzt? Wer nutzt es wofür? Welche Daten werden verarbeitet? Welche Entscheidungen werden davon beeinflusst?
Verantwortliche Person: Wer hat die Einstufung vorgenommen? Wer hat sie geprüft? Wer hat sie freigegeben?
Zeitstempel und Versionierung: Wann wurde eingestuft? Wann wurde zuletzt reviewt? Welche Änderungen gab es?
Anlassbezogener Review: Bei Änderungen am System, am Einsatzkontext oder an der Rechtslage wird die Einstufung neu bewertet und dokumentiert.
All das lässt sich grundsätzlich mit einer Excel-Liste abbilden. Aber es erfordert Disziplin, und es fehlt in der Regel die automatische Versionierung und das revisionssichere Audit-Log. Spezialisierte Tools nehmen diesen Teil ab, indem sie die Dokumentation als Nebenprodukt des Bewertungsprozesses erzeugen.
Der Unterschied zwischen Fehler und Fehlklassifizierung
Wichtig zu verstehen: Nicht jede nachträgliche Korrektur einer Risikoeinstufung ist eine Fehlklassifizierung im rechtlichen Sinne.
Wenn ein Unternehmen eine Einstufung vornimmt, diese dokumentiert, die Kriterien anwendet und zu einem Ergebnis kommt, das später (etwa durch veränderten Einsatzkontext oder neue Erkenntnisse) korrigiert wird, ist das kein Fehler, sondern Teil eines funktionierenden Compliance-Prozesses. Regelmäßige Reviews sind ausdrücklich vorgesehen.
Problematisch wird es, wenn die ursprüngliche Einstufung ohne angemessene Prüfung erfolgte, die Kriterien nicht angewendet wurden oder der Einsatzkontext bewusst anders dargestellt wurde als real. Das ist keine Korrektur mehr, sondern die Aufdeckung einer Fehlklassifizierung.
Die Grenze zwischen beidem verläuft entlang der Frage: War die ursprüngliche Bewertung nach damaligem Kenntnisstand sorgfältig? Wenn ja, ist die spätere Korrektur unbedenklich. Wenn nein, stellt sich die Frage nach den Folgen.
Fazit
Die Risikoklassifizierung nach EU AI Act ist keine Formalität. Sie ist die zentrale Weichenstellung dafür, welche Dokumentations-, Prüf- und Aufsichtspflichten auf ein Unternehmen zukommen. Eine falsche Einstufung hat Folgen in drei Dimensionen: sie kann Haftungsansprüche auslösen, Bußgelder nach sich ziehen und Audits zum Problem werden lassen.
Die gute Nachricht: Alle drei Risiken lassen sich erheblich reduzieren, indem die Einstufung nachvollziehbar gemacht wird. Dokumentierte Kriterien, klarer Einsatzkontext, benannte Verantwortliche, Versionierung. Das ist keine Raketenwissenschaft, aber es erfordert Struktur.
Wer strukturiert einstuft und dokumentiert, trifft im Zweifel vielleicht immer noch die falsche Entscheidung. Aber er trifft sie begründet, nachvollziehbar und korrigierbar. Und genau das ist, was Behörden, Auditoren und Gerichte im Ernstfall prüfen.
Dieser Beitrag dient der allgemeinen Information und stellt keine Rechtsberatung dar. Die haftungs- und ordnungsrechtlichen Folgen einer Fehlklassifizierung hängen vom konkreten Einzelfall ab. Bei Unsicherheiten empfehlen wir die Einbindung spezialisierter Rechtsberatung. Stand: April 2026.
Tags
Yannick | Simpleact Team
Autor · SimpleAct Team
