AI Act

AI Act

Alle Infos direkt ins Ohr!

AI Act, offiziell bekannt als Verordnung über künstliche Intelligenz (Regulation (EU) 2024/1689), ist der erste umfassende Rechtsrahmen der Europäischen Union zur Regulierung künstlicher Intelligenz (KI). Das Ziel: sichere, transparente und vertrauenswürdige KI, die Grundrechte respektiert und Innovation ermöglicht.

Was ist der EU AI Act?

Der AI Act (auch „Artificial Intelligence Act“) ist eine EU‑Verordnung (Regulation (EU) 2024/1689), die am 1. August 2024 in Kraft getreten ist und in den folgenden Jahren gestaffelt angewendet wird. Er gilt für einen breiten Bereich an KI‑Systemen, vom Anbieter über Betreiber bis zum Vertrieb oder Import von KI‑Produkten.

Im Kern geht es darum, systematisch Risiken zu regulieren, die KI gegenüber Menschen oder der Gesellschaft mit sich bringen kann – etwa durch Diskriminierung, Manipulation, Überwachung oder Fehlverhalten.

Wer muss sich an den AI Act halten?

Akteursgruppe
Beschreibung
Pflichten laut AI Act
Anbieter
Entwickeln KI-Systeme oder bringen sie unter eigenem Namen auf den Markt
Risikobewertung, Konformitätsbewertung, technische Dokumentation, Transparenzpflichten
Bereitsteller
Setzen KI-Systeme in eigenen Prozessen ein (z. B. Unternehmen, Behörden)
Sicherstellung der gesetzeskonformen Nutzung, Schulung von Mitarbeitenden, Risikomanagement
Importeure
Führen KI-Systeme aus Drittstaaten in den EU-Markt ein
Überprüfung der Konformität, Weitergabe von Informationen an Behörden
Händler
Verkaufen KI-Systeme innerhalb der EU weiter
Informationspflichten, Zusammenarbeit mit Behörden
Beauftragte Vertreter
Handeln im Namen eines Anbieters ohne Sitz in der EU
Unterstützung bei Konformitätsprozessen und Ansprechperson für Aufsichtsbehörden
Betreiber von GPAI
Nutzen oder integrieren sog. „General Purpose AI“ (z. B. große Sprachmodelle wie GPT)
Transparenz, Offenlegung technischer Dokumentation, ggf. Registrierung bei Behörden

Tabelle 1: Akteursgruppe, Beschreibung und Pflichten des AI Acts

Ziele des AI Acts

Der AI Act verfolgt drei übergeordnete Ziele:

Er basiert auf einer langjährigen KI‑Strategie der EU und ist Teil der digitalen Zukunftsinitiative der Europäischen Kommission.

Risikobasierter Ansatz und Risikoklassen

Ein zentrales Element des AI Act ist die Einteilung von KI‑Systemen nach Risiko, weil verschiedene Anwendungen unterschiedliche Gefahrenpotenziale haben.

Risikoklasse
Beschreibung
Regulatorische Anforderungen
Unacceptable Risk
KI, die Grundrechte oder Sicherheit unverhältnismäßig gefährdet
Verboten
High‑Risk
KI in sensiblen Bereichen (z. B. Gesundheit, Justiz, Arbeitswelt)
Strenge Vorgaben (z. B. Risikomanagement, Transparenz, Konformitätsbewertung)
Limited Risk
KI, die eher geringfügig Risiken birgt
Transparenzpflichten (z. B. Hinweise für Nutzer)
Minimal Risk
KI mit kaum Risiken
Kaum Vorschriften

Tabelle 2: Risikoklassen AI Act

Diese Risikoklassifikation bestimmt, welche Pflichten Anbieter, Betreiber oder Entwickler einhalten müssen, und muss bereits bei Konzeption und Entwicklung von KI‑Systemen berücksichtigt werden.

Pflichten und Anforderungen

Für Anbieter und Betreiber von High‑Risk‑KI

Transparenz und Kennzeichnungspflichten

Auch KI‑Systeme mit geringeren Risiken unterliegen Pflichten zur Offenlegung, z. B. wenn Nutzer wissen müssen, dass sie mit einer KI interagieren (wie bei Chatbots oder automatisierten Entscheidungen).

Arbeitgeberpflicht zur KI-Kompetenzvermittlung

Mit dem EU AI Act entsteht für Unternehmen nicht nur technischer, sondern auch organisatorischer Handlungsbedarf. Besonders relevant: Arbeitgeber müssen sicherstellen, dass Mitarbeitende über ausreichende Kenntnisse und Fähigkeiten im Umgang mit KI-Systemen verfügen – vor allem dann, wenn diese Systeme in sensiblen oder regulierten Bereichen eingesetzt werden.

Das bedeutet konkret:

Diese Schulungspflicht ergibt sich indirekt aus den Anforderungen an sichere Nutzung, Überwachung und Dokumentation von KI-Systemen. Unternehmen, die hier frühzeitig investieren, minimieren nicht nur rechtliche Risiken, sondern stärken auch das Vertrauen der Belegschaft in neue Technologien.

Tipp: Eine dokumentierte Schulungsstrategie kann bei Audits oder Kontrollen als Nachweis für AI-Compliance dienen.

KI-Aufsichtsbehörde in Deutschland

Die Bundesnetzagentur wird in Deutschland die zentrale KI-Aufsichtsbehörde zur Umsetzung des EU AI Acts. Sie ist zuständig für:

Zusätzlich arbeitet die Bundesnetzagentur eng mit dem europäischen AI Office zusammen, das auf EU-Ebene koordiniert. Damit wird sichergestellt, dass einheitliche Standards und Verfahren im gesamten Binnenmarkt gelten.

Strafen bei Verstößen gegen den AI Act

Der EU AI Act sieht Geldbußen für Unternehmen vor, die gegen die Vorschriften der Verordnung verstoßen. Die Höhe der Strafen richtet sich nach dem Schweregrad des Verstoßes und dem Jahresumsatz des Unternehmens.

Die wichtigsten Sanktionen im Überblick:

Verstoß
Maximale Geldbuße
Verstöße bei verbotenen Praktiken aus Artikel 5 oder Verletzungen von Datenanforderungen
bis zu 35 Mio. € oder 7 % des weltweiten Vorjahresumsatzes
Verstöße gegen andere Vorschriften der Verordnung
bis zu 15 Mio. € oder 3 % des weltweiten Vorjahresumsatzes
Nichteinhalten der GPAI-Vorschriften
bis zu 15 Mio. € oder 3 % des weltweiten Vorjahresumsatzes
Falsche, unvollständige oder irreführende Angaben an Behörden:
bis zu 7,5 Mio. € oder 1,5 % des weltweiten Vorjahresumsatzes

Tabelle 3: Verstoße und Geldbußen AI Act

Unternehmen – insbesondere solche, die Hochrisiko-KI oder General-Purpose AI (GPAI) einsetzen – sollten frühzeitig Compliance-Maßnahmen ergreifen, um finanzielle Risiken und Reputationsverluste zu vermeiden.

Alle aktuellen Änderungen und Gesetze kannst Du jederzeit hier nachlesen.

Olga Fedukov absolvierte ihr Studium im Bereich Medienmanagement an der Fachhochschule Würzburg. Im Marketingteam von eology ist sie verantwortlich für die ganzheitliche Vermarktung der Agentur über diverse Kanäle. Darüber hinaus übernimmt sie die Planung und Koordination des Content-Bereichs auf der Website sowie der eology-Webinare.

Olga
Fedukov
, Marketing Manager o.fedukov@eology.de +49 9381 58290138