Der EU AI Act wird in vielen Artikeln aus der Perspektive von Konzernen erklärt. Governance-Frameworks, Konformitätsbewertungen, Risikomanagementsysteme. Klingt nach etwas, das ein 20-köpfiges Compliance-Team beschäftigt.
Aber was, wenn Ihr Unternehmen aus 8 Leuten besteht? Oder aus 30? Oder aus 120, die gerade voll im Wachstum stecken?
Die gute Nachricht: Der EU AI Act erwähnt kleine und mittlere Unternehmen 38 Mal im Gesetzestext. Startups werden ausdrücklich als Teil dieser Gruppe behandelt. Es gibt reduzierte Bußgelder, vereinfachte Dokumentation, Sandbox-Zugang und niedrigere Gebühren. Die EU will Innovation nicht abwürgen.
Die weniger gute Nachricht: Die Pflichten gelten trotzdem. Auch für ein Team von fünf Leuten, das KI in seinem Produkt einsetzt. Auch für eine Agentur mit 15 Mitarbeitern, die ChatGPT und ein Recruiting-Tool nutzt.
Dieser Beitrag erklärt, was Startups und kleine Unternehmen in 2026 konkret wissen müssen. Ohne Juristendeutsch, dafür mit klaren Handlungsempfehlungen.
Erstmal: Seid ihr Anbieter oder Betreiber?
Das ist die wichtigste Frage, denn davon hängt alles andere ab.
Anbieter (Provider)
Ihr entwickelt ein KI-System und bringt es auf den Markt. Oder ihr integriert ein KI-Modell (z.B. ein LLM wie Claude oder GPT) in euer eigenes Produkt und verkauft es. Dann seid ihr Anbieter im Sinne des AI Act. Die Anforderungen sind deutlich höher: technische Dokumentation, CE-Kennzeichnung, EU-Datenbank-Registrierung bei Hochrisiko.
Betreiber (Deployer)
Ihr nutzt KI-Systeme, die andere gebaut haben: ChatGPT, Copilot, ein SaaS-Recruiting-Tool, ein CRM mit KI-Features. Das ist die Situation der meisten Startups. Die Pflichten sind weniger umfangreich, aber sie existieren: KI-Inventar, Risikoeinstufung, Transparenz, Schulung.
Die meisten kleinen Unternehmen sind Betreiber. Sie haben kein eigenes KI-Modell trainiert, sondern nutzen Dienste Dritter. Aber auch als Betreiber seid ihr nicht frei von Pflichten. Artikel 26 des AI Act definiert genau, was von euch erwartet wird.
Was bereits gilt (seit Februar 2025)
Zwei Pflichten sind schon aktiv. Unabhängig von eurer Unternehmensgröße.
Verbotene Praktiken (Art. 5)
Social Scoring, manipulative KI, anlasslose biometrische Massenüberwachung. Falls ihr so etwas einsetzt (unwahrscheinlich, aber prüft es): sofort stoppen.
KI-Kompetenz (Art. 4)
Alle Mitarbeiter, die mit KI arbeiten, brauchen ausreichende KI-Kompetenz. Für Startups reicht in den meisten Fällen eine praxisnahe Schulung. Aber sie muss stattfinden und dokumentiert werden.
Was ab August 2026 kommt
Am 2. August 2026 wird es ernst. Dann greifen die Hochrisiko-Pflichten, die Transparenzanforderungen und die Pflicht zur Einrichtung nationaler Sandboxes. Hier die wichtigsten Punkte für Startups:
KI-Inventar: Wisst, was ihr nutzt
Erfasst alle KI-Systeme im Unternehmen. Auch die, die „nur" im Hintergrund laufen: KI-Features in eurem CRM, automatische Textgenerierung im Marketing-Tool, KI-basierte Analysen in der Buchhaltungssoftware. Für jedes System: Name, Anbieter, Einsatzzweck, verantwortliche Person.
Risikoklasse bestimmen
Die meisten KI-Tools in Startups fallen unter minimales oder begrenztes Risiko. Aber Vorsicht: Nutzt ihr KI im Recruiting, bei der Kreditvergabe oder für automatisierte Entscheidungen über Personen? Dann seid ihr im Hochrisiko-Bereich. Das gilt auch, wenn ihr das Tool nicht selbst gebaut habt.
Transparenzpflichten umsetzen
Chatbots auf eurer Website? KI-generierte Inhalte in eurer Kommunikation? Nutzer müssen wissen, dass sie mit KI interagieren. Synthetische Inhalte (Bilder, Texte, Videos) müssen gekennzeichnet werden. Das gilt ab August 2026 für alle Risikoklassen.
Eure Anbieter prüfen
Als Betreiber habt ihr das Recht und die Pflicht zu prüfen, ob die Tools, die ihr einsetzt, selbst compliant sind. Fragt eure Anbieter: Ist euer System als Hochrisiko eingestuft? Habt ihr technische Dokumentation? Welche Trainingsdaten wurden verwendet? Ein Anbieter, der diese Fragen nicht beantworten kann, ist ein Compliance-Risiko für euer Unternehmen.
Was der AI Act Startups erleichtert
Der EU AI Act ist nicht nur Pflichtenkatalog. Er enthält konkrete Erleichterungen für kleine Unternehmen.
Die 60 %-Falle: Warum die meisten Startups noch nicht bereit sind
Laut einer Umfrage der European Digital SME Alliance geben über 60 % der kleinen und mittleren Tech-Unternehmen an, nicht ausreichend auf den AI Act vorbereitet zu sein. Fast die Hälfte hat noch keine Risikoklassifizierung ihrer KI-Systeme vorgenommen.
Das Problem ist selten technisch. Es ist kognitiv. Viele Gründer haben ihre Unternehmen in einer Zeit aufgebaut, in der europäische KI-Regulierung ein theoretisches Thema war. 2024 war das noch halbwegs berechtigt. 2026 nicht mehr.
Typische Startup-Fehler
„Wir nutzen ja nur ChatGPT" reicht nicht als Analyse. Auch Betreiber haben Pflichten.
„Das betrifft nur große Unternehmen." Der AI Act unterscheidet nach Risiko, nicht nach Größe.
„Wir machen das, wenn es soweit ist." Die KI-Kompetenzpflicht gilt bereits seit Februar 2025.
Den Digital Omnibus als Freifahrtschein sehen. Die Verschiebung ist weder beschlossen noch garantiert.
Besser so
Ein KI-Inventar anlegen. Dauert einen Nachmittag, nicht einen Monat.
Risikoklassen bestimmen. Die meisten eurer Tools fallen unter begrenztes Risiko. Aber prüft es.
Anbieter befragen. Wer eure SaaS-Tools baut, muss Compliance-Fragen beantworten können.
Compliance als Vertrauenssignal nutzen. Investoren und Kunden fragen zunehmend danach.
Compliance ist kein Innovationskiller
Das klingt erstmal nach viel Bürokratie. Aber für die meisten Startups, die KI nur nutzen (nicht entwickeln), läuft es auf drei Dinge hinaus:
1. Wisst, welche KI-Systeme ihr einsetzt.
2. Wisst, in welche Risikoklasse sie fallen.
3. Dokumentiert das Ganze nachvollziehbar.
Das ist kein Compliance-Projekt, das Monate dauert. Das ist eine strukturierte Bestandsaufnahme, die euch auch intern hilft: Wer nutzt was? Welche Daten fließen wohin? Wo sind Risiken, über die bisher niemand nachgedacht hat?
Und für Startups, die selbst KI-Produkte bauen, gilt: Frühzeitige Compliance ist ein Wettbewerbsvorteil. Kunden, Investoren und Partner achten zunehmend auf AI Governance. Wer das von Anfang an mitdenkt, baut Vertrauen auf. Wer nachträglich umbauen muss, verliert Zeit und Geld.
Der schnellste Weg zur Compliance
SimpleAct ist genau für Unternehmen wie eures gebaut: klein genug, um keine eigene Compliance-Abteilung zu haben, aber professionell genug, um es richtig machen zu wollen. KI-Systeme erfassen, regelbasiert einstufen, Checklisten abarbeiten, Report exportieren. In einem Nachmittag, nicht in einem Quartal.
Dieser Beitrag dient der allgemeinen Information und stellt keine Rechtsberatung dar. Die Anforderungen des EU AI Act können sich durch das geplante Digital Omnibus Paket ändern. Bei Unsicherheiten empfehlen wir eine rechtliche Prüfung. Stand: März 2026.
Über SimpleAct: SimpleAct ist eine deutsche Compliance-Plattform, die Unternehmen bei der strukturierten Dokumentation ihrer KI-Systeme nach EU AI Act unterstützt. Von der Erfassung über die Risikobewertung bis zum exportfähigen Audit-Nachweis. Alles an einem Ort.
Tags
Yannick | SimpleAct Team
Autor · SimpleAct Team