Ein Überblick über das neue KI-Gesetz
Der EU AI Act
Der EU AI Act ist eine Verordnung der Europäischen Union, die einen einheitlichen Rechtsrahmen für Künstliche Intelligenz schafft.
Mit dem EU AI Act (Verordnung (EU) 2024/1689) ist 2024 die erste umfassende KI-Regulierung überhaupt entstanden. Künstliche Intelligenz spielt in immer mehr großen Unternehmen eine zentrale Rolle und wird zunehmend zum Standard. Höchste Zeit also, um mit der Verordnung vertrauenswürdige KI-Anwendungen zu fördern und gleichzeitig Unternehmen vor riskanten KI-Systemen zu schützen.
Sie benötigen Unterstützung bei der Umsetzung des AI Acts? Entdecken Sie Ihre Lösung:
Innovation und Grundrechte im Fokus
Einblicke in die neue Regelung
Der EU AI Act stellt verbindliche Regeln für KI-Entwickler und KI-Anwender in der EU auf, die einem risikobasierten Ansatz folgen: KI-Systeme werden je nach Gefährdungspotenzial verschiedenen Kategorien zugeteilt – von minimalem Risiko bis unvertretbarem (inakzeptablem) Risiko. Entsprechend wurde die Regulierung dazu erschaffen: Einige KI-Anwendungen dürfen weiterhin frei genutzt werden, hochriskante KI-Systeme unterliegen strengen Auflagen und inakzeptable KI-Praktiken sind verboten.
Ziel der Verordnung ist es, eine vertrauenswürdige KI-Landschaft zu gewährleisten. Sie soll Innovation ermöglichen, aber auch ein hohes Niveau an Sicherheit, Gesundheitsschutz und Grundrechtswahrung sicherstellen. Die Verordnung ist in allen EU-Mitgliedstaaten gültig und wird nach einer Übergangszeit stufenweise anwendbar.
Ziele des AI Acts:
- Schutz der Grundrechte und Demokratie: Sicherstellen, dass KI keine EU-Werte verletzt
- Förderung von Innovationen: Ein Rahmen, der Technologieentwicklung unterstützt
- Sicherheit und Transparenz: Schaffung eines vertrauenswürdigen Umfelds für die Nutzung und Entwicklung von KI
- Europäische Führungsrolle: Europa als globalen Vorreiter bei der Regulierung von KI positionieren
- Schutz der Grundrechte und Demokratie: Sicherstellen, dass KI keine EU-Werte verletzt
Zeitplan:
- August 2024:
Inkrafttreten - Februar 2025:
Stufenweise Einführung für unannehmbare Risiken - August 2026:
Umfassende Einführung und Umsetzung auf nationaler Ebene: Mitgliedstaaten müssen eigene Behörden benennen und nationale Gesetze anpassen
- August 2024:
Ein neuer Weg für die EU
Hauptelemente des AI-Acts
Kategorisierung von KI-Systemen nach Risiko:
Der AI-Act unterteilt KI-Systeme in vier Risikoklassen.
- Unannehmbares Risiko: Dazu gehören Anwendungen wie Social Scoring, Verhaltensmanipulation oder die emotionale Analyse am Arbeitsplatz, da sie grundlegende Rechte und den freien Willen der Menschen gefährden.
- Hohes Risiko: Unterliegt strengen Auflagen, insbesondere in sensiblen Bereichen wie kritischer Infrastruktur, Gesundheitswesen oder Strafverfolgung.
- Begrenztes Risiko: Dies betrifft beispielsweise Chatbots, die für Nutzer erkennbar als KI-Systeme gekennzeichnet sein müssen.
- Minimales Risiko: Unterliegt keinen regulatorischen Anforderungen. Dazu gehören beispielsweise Spamfilter oder andere alltägliche Anwendungen mit geringem Einfluss auf Rechte und Sicherheit der Nutzer.
Verbotene Anwendungen:
Der AI-Act verbietet bestimmte KI-Anwendungen, die Grundrechte gefährden. Dazu zählen die Anwendungen, die ein unannehmbares Risiko darstellen wie z.B. Manipulation des Verhaltens oder Social Scoring auf Basis persönlicher Eigenschaften und Emotionserkennung in sensiblen Bereichen wie Bildung oder Arbeit. Auch die ungezielte Gesichtserkennung zur Erstellung großer Datenbanken ohne Zustimmung ist untersagt. So sollen die Persönlichkeitsrechte der Bevölkerung gewährleistet und ein ethischer Umgang mit KI gesichert werden.
Unternehmenspflichten und Verantwortlichkeiten
Wie wird der EU AI Act eingehalten?
Verstöße gegen den AI-Act werden mit Geldbußen von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes eines Unternehmens geahndet. Diese hohen Strafen sollen sicherstellen, dass die Vorgaben ernst genommen und konsequent eingehalten werden. Entsprechend hat die KI-Compliance für Unternehmen eine hohe Priorität, um rechtliche und finanzielle Risiken zu vermeiden.
Unternehmen, die KI-Systeme entwickeln oder auch nur nutzen, müssen daher frühzeitig sicherstellen, dass die Vorgaben der entsprechenden Risikoklassen, zu denen ihre verwendeten KI-Systeme gehören, erfüllt werden.
Pflichten für Hochrisiko-KI-Systeme:
Für Hochrisiko-KI-Systeme gelten strenge Vorgaben zur Transparenz und Sicherheit. Unternehmen müssen ein Risikomanagement einführen, eine Konformitätsbewertung durchführen und technische Dokumentationen bereitstellen. Zudem ist eine kontinuierliche Überwachung von der Entwicklung bis zum Betrieb erforderlich, um Risiken frühzeitig zu erkennen und zu minimieren.
KI mit allgemeinem Verwendungszweck (GPAI):
Der AI-Act sieht zudem besondere Anforderungen für KI-Modelle mit allgemeinem Verwendungszweck vor, insbesondere wenn sie ein systemisches Risiko darstellen. Dazu zählen Basismodelle wie ChatGPT, die vielfältig eingesetzt werden können. Diese Modelle unterliegen zusätzlichen Transparenzpflichten sowie technischen Sicherheitsstandards, um ihre sichere Nutzung zu gewährleisten.
Governance und Durchsetzung:
Zur Überwachung der Einhaltung des AI-Acts wird ein AI-Office als zentrale EU-Behörde eingerichtet. Diese Institution übernimmt die Aufsicht über die Umsetzung der Vorschriften und stellt sicher, dass KI-Systeme den gesetzlichen Anforderungen nachkommen.
Zusätzlich wird ein KI-Board ins Leben gerufen, das als beratendes Gremium fungiert und die Koordination zwischen der Europäischen Union und den Mitgliedsstaaten unterstützt.
Der EU AI Act gilt auch für KI-Anbieter außerhalb der EU, wenn ihre KI-Systeme in der EU genutzt werden. Eine Auslagerung der Hersteller von KI-Systemen ins nicht-europäische Ausland stellt also kein Schlupfloch dar.
Unternehmen sollten intern Verantwortliche für KI-Compliance benennen, die die Umsetzung der genannten Pflichten koordinieren und kontrollieren.
Grundrechte wahren, Vertrauen stärken
Warum gibt es den EU AI Act?
Jeder, der schon einmal ein Fake-Profil von sich in den sozialen Medien entdeckt hat und dann feststellen musste, dass sein gesamtes Netzwerk mit Spam- und Phishing-Nachrichten in seinem Namen belästigt wurde, weiß wie wichtig Privatsphäre und Persönlichkeitsrechte sind.
Diskriminierung oder Eingriffe in die Privatsphäre und Menschenwürde können mit Hilfe von KI-Systemen leichter werden. Das sind zentrale Risiken und Herausforderungen der KI-Nutzung, auf die die EU mit dem AI Act reagieren muss, um grundlegende Werte zu schützen. KI-Anwendungen müssen also mit den Grundrechten und den ethischen Werten der EU im Einklang stehen.
Gefährdung von Grundrechten:
Die Grundrechte von Menschen können auf verschiedene Arten beeinträchtigt werden. Ein Beispiel dafür ist das Social Scoring. Das Verhalten und die Eigenschaften von Einzelpersonen oder Organisationen wird anhand verschiedener Kriterien bewertet und in einer Punktzahl ausgedrückt. Je nach Ergebnis kann eine Person Vorteile oder Nachteile (z. B. Kreditablehnung, Zugangsbeschränkungen) erfahren. Besonders problematisch ist Social Scoring, wenn es für eine systemische Überwachung der Bevölkerung genutzt wird und für den Einzelnen soziale oder wirtschaftliche Konsequenzen nach sich zieht. Dies widerspricht dem Grundrecht auf Gleichbehandlung und informationelle Selbstbestimmung, weshalb solche KI-Praktiken verboten sind.
Vertrauen schaffen:
Wenn mit Hilfe von KI-Systemen Entscheidungen getroffen werden, müssen diese nachvollziehbar sein. Deshalb soll mit dem EU AI Act gewährleistet werden, dass Nutzer immer wissen müssen, wenn sie mit einer KI interagieren. Wird aufgrund dieser Interaktion eine Entscheidung, getroffen, die für den Nutzer nicht nachvollziehbar ist, hat er nach den neuen Regelungen das Recht auf Auskunft und Beschwerde.
Vereinheitlichung:
Der EU AI Act als einheitliche Lösung für Europa war überfällig, da es bereits viele einzelne Regelungen in unterschiedlichen Ländern gab. Die Einhaltung vereinzelter Gesetze, mal hier mal da, hat für Verwirrung und Unsicherheit im Binnenmarkt gesorgt. Mit dem EU AI Act entstehen EU-weit gleiche Wettbewerbsbedingungen. Es wird zudem ein Anreiz für Unternehmen geschaffen, selbst vertrauenswürdige KI zu entwickeln.
Zukunftsorientierung:
Europa macht es sich zum Ziel, Vorreiter in der Entwicklung und Verwendung ethisch vertretbarer KI zu werden und riskante Anwendungen durch Regelungen zu kontrollieren.
Strikte Vorgaben vs. Innovationsfreiheit
Herausforderungen bei der Erstellung des AI Acts
Die Entwicklung des EU AI Act war anspruchsvoll und von politischen, wirtschaftlichen und technischen Hürden geprägt. Während Verbraucher- und Bürgerrechtsorganisationen strenge Regeln forderten, um Grundrechte zu schützen, warnten Industrievertreter vor Innovationshemmnissen durch zu strikte Vorgaben.
Das Ergebnis ist ein Kompromiss, wie auch der deutsche Minister für Digitales Volker Wissing anmerkt: “Ich hätte mir eine innovationsfreundlichere Regulierung gewünscht. Aber am Ende muss es eben ein Kompromiss sein, der ist besser als keine Regulierung”. (Quelle: BMVD)
Die Herausforderungen und ihre Lösungen:
- Balance zwischen Innovation & Regulierung:
Strenge KI-Regeln zum Schutz von Rechten, ohne Innovation zu ersticken - Wirtschaftliche Herausforderung:
Neue Pflichten bedeuten Kosten, bis zu mehrere tausend Euro pro Hochrisiko-KI-System - Unternehmensentlastung:
Ausnahmen für kleine Anbieter, KI-Reallabore, Standardisierungen zur Bürokratie-Reduktion - Einheitliche Rechtsgrundlage:
Verordnung statt Richtlinie, um Klarheit und Vermeidung von Doppelregulierung zu sichern - Technische Herausforderung:
Dynamik der KI erfordert klare, aber flexible Begriffsbestimmungen - Definition von Hochrisiko-KI:
Strenge Auflagen für Systeme mit erheblichem Einfluss auf Sicherheit & Grundrechte - Anpassung an technische Entwicklungen:
Liste hochriskanter Anwendungen kann per Rechtsakt aktualisiert werden - Durchsetzung & Aufsicht:
Nationale KI-Behörden, koordiniert durch einen europäischen KI-Ausschuss
Innovation zwischen Regulierung und Wettbewerb
Gehen Sie mit uns den nächsten Schritt
Der EU AI Act setzt neue Standards für den verantwortungsvollen Einsatz von KI und schafft klare Regeln für Unternehmen und Nutzer. Während er neue Compliance-Pflichten mit sich bringt, bietet er Ihnen zugleich die Chance, durch frühzeitige Anpassung Wettbewerbsvorteile zu sichern und Vertrauen aufzubauen.
Verstöße können hohe Bußgelder und Reputationsschäden nach sich ziehen – deshalb ist es essenziell, sich rechtzeitig mit den Anforderungen auseinanderzusetzen. Einige Regelungen greifen bereits vor 2026, und die Umsetzung interner Prozesse erfordert Zeit.
Der AI Act stellt die Weichen für eine sichere, transparente und menschenzentrierte KI. Unternehmen sollten Risikoanalyse, Transparenz und Qualitätskontrolle in ihre KI-Projekte integrieren, um regulatorische Risiken zu minimieren und nachhaltige Innovation zu fördern. KI mit Verantwortung ist nicht mehr optional – sie ist gesetzliche Pflicht und im Interesse aller.
Bereiten Sie Ihr Unternehmen frühzeitig auf den EU AI Act vor! Unsere AI Compliance Solution unterstützt Sie bei der Risikoanalyse, Dokumentation und der Umsetzung gesetzlicher Vorgaben. Vereinbaren Sie jetzt eine unverbindliche Beratung und sichern Sie sich Ihren Wettbewerbsvorteil.
Whitepaper
Umsetzung des EU AI Acts
in der Praxis
Lesen Sie in unserem Whitepaper zum EU AI Act, wie Unternehmen die neuen Anforderungen erfolgreich umsetzen können. Erfahren Sie, welche Risiken bestehen, welche Pflichten für Hochrisiko-KI gelten und wie digitale Compliance-Lösungen den Weg zu Rechtssicherheit erleichtern.
Kontakt
Wie können wir Sie unterstützen?
Sie haben Fragen, benötigen weitere Informationen oder interessieren sich für unsere Compliance Software Lösungen? Dann nutzen Sie unser Kontaktformular.
Sie haben Fragen, benötigen weitere Informationen oder interessieren sich für unsere Compliance Software Lösungen? Nehmen Sie Kontakt zu uns auf, wir freuen uns auf Ihre Anfrage.