Compliance Solutions

EU AI Act: Neue Pflichten und Strafen ab August 2025

Sie müssen Ihre KI-Systeme nach dem EU AI Act prüfen? Diese Software hilft Ihnen dabei.

Unternehmen müssen KI-Governance anpassen

Zum 2. August 2025 trat der nächste zentrale Anwendungsbereich des EU AI Act in Kraft. Damit beginnt die aktive Durchsetzung der KI-Verordnung, inklusive konkreter Sanktionsmöglichkeiten. Unternehmen, Behörden und KI-Entwickler in der EU müssen sich auf erweiterte Pflichten und empfindliche Bußgelder einstellen. 

Hintergrund

Der EU AI Act (Verordnung (EU) 2024/1689) wurde im März 2024 formell verabschiedet und regelt den Einsatz von Künstlicher Intelligenz entlang eines risikobasierten Stufenkonzepts. Während bereits seit Februar 2025 bestimmte KI-Systeme mit „unannehmbarem Risiko“ untersagt sind, markiert der 2. August nun den Beginn eines neuen Abschnitts: Die Einhaltung der Vorschriften wird ab sofort mit klaren Rechtsfolgen überprüft. 

Ziel der Regulierung ist es, Innovation und Wettbewerbsfähigkeit mit europäischen Grundwerten wie Transparenz, Datenschutz und Menschenrechten in Einklang zu bringen. 

35-Millionen-Strafen und GPAI-Verpflichtungen

Die Verordnung sieht Geldbußen von bis zu 35Millionen Euro oder 7% des weltweiten Jahresumsatzes vor, abhängig davon, welcher Betrag höher ist. Besonders im Fokus stehen dabei Anbieter von sogenannten General Purpose AI-Modellen (GPAI), wie ChatGPT oder Metas LLaMA. 

Für GPAI-Systeme, die ab August 2025 in der EU auf den Markt kommen, gelten neue Verpflichtungen: 

  • Technische Dokumentation und Risikoberichte 
  • Offenlegung von Trainingsdaten (insbesondere Herkunft und Rechteklärung) 
  • Transparenz zur Energieeffizienz 
  • Adversarial Testing und Incident Reporting 

Bereits verfügbare Modelle profitieren von einer Übergangsfrist bis August 2027. 

Freiwilliger Verhaltenskodex als Übergangsinstrument

Zur Orientierung für GPAI-Entwickler wurde am 10. Juli 2025 ein freiwilliger Code of Practice veröffentlicht. Dieser wurde von unabhängigen Experten erarbeitet und soll eine praxistaugliche Annäherung an die Anforderungen des Gesetzes ermöglichen. Er enthält u.a. Vorgaben zu: 

  • Trainingsdatentransparenz 
  • EU-Urheberrechtskonformität 
  • Zusammenarbeit mit der neu geschaffenen EU-Aufsichtsstruktur 

Zeitgleich entstehen in allen EU-Mitgliedstaaten neue nationale Aufsichtsstrukturen: 

  • Marktüberwachungsbehörden sollen die Einhaltung der KI-Verordnung prüfen. 
  • Notifizierende Stellen übernehmen technische Zertifizierungen. 
    Auf EU-Ebene wird das neu geschaffene European AI Office die Koordination übernehmen. 

Personalabteilungen besonders betroffen

Der EU AI Act betrifft nicht nur Tech-Anbieter, sondern auch den betrieblichen Einsatz von KI, insbesondere in HR-Prozessen. Personalabteilungen müssen ab sofort sicherstellen, dass: 

  • Einstellungs- und Bewertungssysteme fair und diskriminierungsfrei sind, 
  • Mitarbeitende über den Einsatz von KI informiert werden, 
  • Drittanbieter von HR-KI-Lösungen rechtskonform arbeiten, 
  • Trainings und Change-Management Maßnahmen greifen. 

Unternehmen sollten bestehende Tools und Prozesse einer KI-Risikoanalyse unterziehen und Governance-Strukturen entsprechend anpassen. 

Ausblick: Hochrisiko-Regelung ab 2026

Der nun scharfgestellte Abschnitt ist Teil eines gestaffelten Inkrafttretens. Die nächste zentrale Phase folgt im August 2026 mit verschärften Anforderungen für Hochrisiko-KI-Systeme, insbesondere in den Bereichen Gesundheit, Justiz, öffentliche Sicherheit, Bildung und kritische Infrastruktur. 

Mit dem Inkrafttreten der Sanktionen und GPAI-Regelungen tritt der EU AI Act in seine operative Phase. Unternehmen müssen nicht nur regulatorische Risiken im Blick behalten, sondern auch ihre internen Kompetenzen und Governance-Strukturen stärken. Die EU setzt damit weltweit Maßstäbe zwischen technologischer Offenheit und wertebasiertem Ordnungsrahmen.