1
2
3
4
5
6

Der EU AI Act (2024/1689) markiert einen Wendepunkt in der europäischen Technologiepolitik [1]. Er verpflichtet Unternehmen gesetzlich, sich ernsthaft mit den gesellschaftlichen Auswirkungen von KI auseinanderzusetzen. Mit dem gestuften Modell will die Europäische Union einerseits Innovation fördern, andererseits Grundrechte und Fairness schützen.

Fairness wird dabei explizit als rechtliche und ethische Leitlinie definiert: Nach Artikel 4 und 9 dürfen KI-Systeme keine Personen oder Gruppen aufgrund von Geschlecht, Alter, Herkunft, Religion oder anderer sensibler Merkmale benachteiligen [1]. Damit wird Fairness nicht länger nur als ethisches Ideal verstanden, sondern als rechtlich verbindliche Vorgabe. In diesem Zusammenhang ergeben sich einige zentrale Anforderungen für den Einsatz von KI-Systemen, insbesondere für KI-Anwendungen mit höherem Risiko [1; 2; 3]:

  • Trainingsdaten-Qualität: Repräsentative, fehlerfreie und diverse Trainingsdaten sind Pflicht (EU AI Act, Art. 10).

  • Logging und Protokollierung: Automatisch erzeugte Protokolldaten (Logs), Änderungsverfolgung und Fehlerberichte sind verpflichtend. Jede KI-Ausführung muss protokolliert werden; inklusive Änderungen, Fehlern und Nutzerinteraktionen (EU AI Act, Art. 11; Art. 19).

  • Nachvollziehbarkeit und Dokumentation: KI-Systeme müssen überprüfbar und somit technisch erklärbar sein. Entwickler:innen müssen daher darlegen können, wie ein Ergebnis zustande kam. Das betrifft Zweck, Datenquellen, Trainingsmethoden, Entscheidungslogik und Fehlermeldungen bei Hochrisiko-KI (EU AI Act, Art. 13). Tools wie Model Cards oder Datasheets for Datasets gelten als bewährte Vorlagen.

  • Menschliche Aufsicht (Human-in-the-Loop): Automatisierte Entscheidungen müssen durch menschliche Kontrolle überprüfbar sein (EU AI Act, Art. 14).

  • Risikoanalyse und laufende Überwachung: KI-Systeme müssen während ihres gesamten Lebenszyklus überwacht, angepasst, neu bewertet und kontinuierlich auf Sicherheits- und Fairnessaspekte geprüft werden (EU AI Act, Art. 9; Art. 15).

  • Transparenz gegenüber Nutzenden: Bei Systemen mit begrenztem Risiko ist klar zu kommunizieren, dass Nutzer:innen mit KI interagieren, generierte Inhalte müssen gegebenenfalls als solche gekennzeichnet werden (EU AI Act, Art. 50).

  • Verantwortung und Haftung: Verstöße gegen diese Pflichten können erhebliche Sanktionen nach sich ziehen, insbesondere bei Hochrisiko-Anwendungen; von hohen Bußgeldern bis zu 7% des weltweiten Jahresumsatzes.

Zu beachten ist, dass der EU AI Act bestehende Regelwerke, wie die Datenschutzgrundverordnung (DSGVO), ergänzt und sie nicht aufhebt! Somit bleiben Datenschutz, Einwilligung und Vorgaben wie Zweckbindung weiterhin relevant.

Für KMU und Start-Ups bedeutet die Einführung des EU AI Act anfangs möglicherweise zusätzlichen Aufwand; langfristig aber auch einen klaren Vertrauens- und Wettbewerbsvorsprung. Zu den strategischen Vorteilen, die aus Anwendung des Gesetzes entstehen, zählen unter anderem:

  • Vertrauen und Transparenz als Wettbewerbsvorteil: Kund:innen und Investor: innen bevorzugen Unternehmen, die transparent, fair und gesetzeskonform agieren [4; 5]. Studien zeigen, dass vertrauenswürdige KI direkt mit höherer Nutzerbindung korreliert [5; 6].

  • Positionierung als ethische Innovatoren: Auf Märkten, wo Werte und Verantwortung zunehmend eine Rolle spielen, kann KI-Konformität zur Marke und zu einem Differenzierungsmerkmal werden.

  • Regulatorische Sandboxes: Der EU AI Act verpflichtet die EU-Mitgliedsstaaten, bis 2026 nationale Testumgebungen (Regulatory sandboxes) für KI-Anwendungen einzurichten, in denen kontrolliert getestet werden dann. Somit sollen Innovation und Pilotprojekte unterstützt werden [1; 2].

  • Unterstützung und Beratung: Artikel 55 verpflichtet die EU-Mitgliedsstaaten, KMU durch Schulungen, Beratungen und Tools bei der Umsetzung der Anforderungen zu unterstützen; etwa durch nationale Kompetenzzentren oder spezialisierte KI-Innovationszentren [1; 2].

Die bereits geltenden Regelungen verdeutlichen: Durch das Achten auf Transparenz, Diversität und Verantwortlichkeit wird nicht nur ein moralisch richtiges Handeln sichergestellt, sondern auch die Zukunftssicherheit des Unternehmens verstärkt. Zahlreiche Regelungen sind bereits in Kraft – was bleibt nun noch zu tun?

  1. Risikoeinstufung und Einleitung der nächsten Schritte: Prüfen Sie Ihre KI-Systeme und geplanten Anwendungen. Daraus können Sie ermitteln, welche Anforderungen nach dem AI Act bereits erfüllt sind – und welche womöglich noch in dem gegebenen Zeitrahmen umgesetzt werden müssen.

  2. Verantwortliche Personen etablieren: Falls noch nicht geschehen – benennen Sie KI-Beauftragte oder kleine Teams, die für die Umsetzung und Einhaltung der gesetzlichen Regelungen, der Dokumentation und Prüfung von Prozessen der KI-Systeme zuständig sind.

  3. Externe Ressourcen nutzen: Nutzen Sie Schulungen, Tools, KI-Sandboxes und Beratungsangebote (beispielsweise von Kompetenzzentren), um die konkrete Umsetzung zu erleichtern.

Der EU AI Act verdeutlicht: Innovation und Regulierungen schließen sich nicht aus – sie ergänzen sich! Durch diesen Rechtsrahmen sind Unternehmen europaweit dazu verpflichtet, KI-Systeme transparent, nachvollziehbar und fair zu gestalten. Große erste Schritte sind bereits getan, jetzt gilt es die verbleibenden Verpflichtungen umzusetzen und die Chancen, die sich daraus ergeben, zu nutzen: Klare Prozesse und Verantwortlichkeiten im Umgang mit KI aufbauen und sich damit Vertrauen der Kund:innen und Investor:innen zu sichern.

(Oder: Überleitung zu einem weiteren Blogbeitrag, den wir über die ISO 42001 schreiben könnten, dann etwas wie: ) Der EU AI Act schafft den rechtlichen Rahmen, doch ein wertvoller Orientierungsrahmen für die praktische Umsetzung kann hierbei (=bei der Umsetzung der restlichen gesetzlichen Vorgaben) die ISO 42001 sein – der erste internationale Standard für KI-Managements. Sie kann Unternehmen helfen, mit Risiken im Umgang mit KI umzugehen, Entscheidungsprozesse zu dokumentieren und den Einsatz von KI nachvollziehbar zu gestalten.

Autorin: Lili Peteri

Literatur

[1] Europäische Kommission. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance). http://data.europa.eu/eli/reg/2024/1689/oj (abgerufen am 08.10.2025).

[2] Directorate-General for Communications Networks, Content and Technology (2025). AI Act. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (abgerufen am 08.10.2025)

[3] Silva, N. S. E., (2024). The Artificial Intelligence Act: critical overview. Cornell University. https://arxiv.org/abs/2409.00264 (abgerufen am 09.10.2025)

[4] Bach, T. A., Khan, A., Hallock, H., Beltrão, G., & Sousa, S. (2024). A systematic literature review of user trust in AI-enabled systems: An HCI perspective. International Journal of Human–Computer Interaction, 40(5), 1251-1266.

[5] Frank, D. A., Jacobsen, L., & Søndergaard, H. A. (2022). In Companies We Trust: Consumer Adoption of Artificial Intelligence Services and the Role of Company Trust and AI Autonomy. In EMAC 2022.

[6] Hassan, N., Abdelraouf, M., & El-Shihy, D. (2025). The moderating role of personalized recommendations in the trust–satisfaction–loyalty relationship: an empirical study of AI-driven e-commerce. Future Business Journal, 11(1), 66.

30.10.25

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Energie ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.