Werbeanzeige - was versteht man darunter und wie gestaltet man sie richtig? All diese Infos erfährst Du hier bei uns! ... WeiterlesenWerbeanzeige
AI Act
AI Act, offiziell bekannt als Verordnung über künstliche Intelligenz (Regulation (EU) 2024/1689), ist der erste umfassende Rechtsrahmen der Europäischen Union zur Regulierung künstlicher Intelligenz (KI). Das Ziel: sichere, transparente und vertrauenswürdige KI, die Grundrechte respektiert und Innovation ermöglicht.
Was ist der EU AI Act?
Der AI Act (auch „Artificial Intelligence Act“) ist eine EU‑Verordnung (Regulation (EU) 2024/1689), die am 1. August 2024 in Kraft getreten ist und in den folgenden Jahren gestaffelt angewendet wird. Er gilt für einen breiten Bereich an KI‑Systemen, vom Anbieter über Betreiber bis zum Vertrieb oder Import von KI‑Produkten.
Im Kern geht es darum, systematisch Risiken zu regulieren, die KI gegenüber Menschen oder der Gesellschaft mit sich bringen kann – etwa durch Diskriminierung, Manipulation, Überwachung oder Fehlverhalten.
Wer muss sich an den AI Act halten?
Akteursgruppe | Beschreibung | Pflichten laut AI Act |
|---|---|---|
Anbieter | Entwickeln KI-Systeme oder bringen sie unter eigenem Namen auf den Markt | Risikobewertung, Konformitätsbewertung, technische Dokumentation, Transparenzpflichten |
Bereitsteller | Setzen KI-Systeme in eigenen Prozessen ein (z. B. Unternehmen, Behörden) | Sicherstellung der gesetzeskonformen Nutzung, Schulung von Mitarbeitenden, Risikomanagement |
Importeure | Führen KI-Systeme aus Drittstaaten in den EU-Markt ein | Überprüfung der Konformität, Weitergabe von Informationen an Behörden |
Händler | Verkaufen KI-Systeme innerhalb der EU weiter | Informationspflichten, Zusammenarbeit mit Behörden |
Beauftragte Vertreter | Handeln im Namen eines Anbieters ohne Sitz in der EU | Unterstützung bei Konformitätsprozessen und Ansprechperson für Aufsichtsbehörden |
Betreiber von GPAI | Nutzen oder integrieren sog. „General Purpose AI“ (z. B. große Sprachmodelle wie GPT) | Transparenz, Offenlegung technischer Dokumentation, ggf. Registrierung bei Behörden |
Tabelle 1: Akteursgruppe, Beschreibung und Pflichten des AI Acts
Ziele des AI Acts
Der AI Act verfolgt drei übergeordnete Ziele:
- Schutz von Sicherheit, Gesundheit und Grundrechten der Nutzer.
- Förderung vertrauenswürdiger und verantwortungsvoller KI‑Innovation in Europa.
- Rechtliche Klarheit, damit Unternehmen und Entwickler wissen, welche Regeln sie einhalten müssen.
Er basiert auf einer langjährigen KI‑Strategie der EU und ist Teil der digitalen Zukunftsinitiative der Europäischen Kommission.
Risikobasierter Ansatz und Risikoklassen
Ein zentrales Element des AI Act ist die Einteilung von KI‑Systemen nach Risiko, weil verschiedene Anwendungen unterschiedliche Gefahrenpotenziale haben.
Risikoklasse | Beschreibung | Regulatorische Anforderungen |
|---|---|---|
Unacceptable Risk | KI, die Grundrechte oder Sicherheit unverhältnismäßig gefährdet | Verboten |
High‑Risk | KI in sensiblen Bereichen (z. B. Gesundheit, Justiz, Arbeitswelt) | Strenge Vorgaben (z. B. Risikomanagement, Transparenz, Konformitätsbewertung) |
Limited Risk | KI, die eher geringfügig Risiken birgt | Transparenzpflichten (z. B. Hinweise für Nutzer) |
Minimal Risk | KI mit kaum Risiken | Kaum Vorschriften |
Tabelle 2: Risikoklassen AI Act
Diese Risikoklassifikation bestimmt, welche Pflichten Anbieter, Betreiber oder Entwickler einhalten müssen, und muss bereits bei Konzeption und Entwicklung von KI‑Systemen berücksichtigt werden.
Pflichten und Anforderungen
Für Anbieter und Betreiber von High‑Risk‑KI
- Risikomanagementsystem einführen
- Transparenz und Datengovernance sicherstellen
- Technische Dokumentation und Aufsichtssysteme bereitstellen
- Konformitätsbewertung und ggf. externe Prüfung durchführen
- uvm.
Transparenz und Kennzeichnungspflichten
Auch KI‑Systeme mit geringeren Risiken unterliegen Pflichten zur Offenlegung, z. B. wenn Nutzer wissen müssen, dass sie mit einer KI interagieren (wie bei Chatbots oder automatisierten Entscheidungen).
Arbeitgeberpflicht zur KI-Kompetenzvermittlung
Mit dem EU AI Act entsteht für Unternehmen nicht nur technischer, sondern auch organisatorischer Handlungsbedarf. Besonders relevant: Arbeitgeber müssen sicherstellen, dass Mitarbeitende über ausreichende Kenntnisse und Fähigkeiten im Umgang mit KI-Systemen verfügen – vor allem dann, wenn diese Systeme in sensiblen oder regulierten Bereichen eingesetzt werden.
Das bedeutet konkret:
- Schulungs- und Fortbildungspflichten für Beschäftigte, die mit Hochrisiko-KI arbeiten oder deren Entscheidungen nachvollziehen müssen.
- Sensibilisierung für Risiken, z. B. in Bezug auf Diskriminierung, Transparenz oder Datenschutz.
- Aufbau interner Kompetenzstrukturen, etwa durch KI-Beauftragte oder Compliance-Teams.
Diese Schulungspflicht ergibt sich indirekt aus den Anforderungen an sichere Nutzung, Überwachung und Dokumentation von KI-Systemen. Unternehmen, die hier frühzeitig investieren, minimieren nicht nur rechtliche Risiken, sondern stärken auch das Vertrauen der Belegschaft in neue Technologien.

Tipp: Eine dokumentierte Schulungsstrategie kann bei Audits oder Kontrollen als Nachweis für AI-Compliance dienen.
KI-Aufsichtsbehörde in Deutschland
Die Bundesnetzagentur wird in Deutschland die zentrale KI-Aufsichtsbehörde zur Umsetzung des EU AI Acts. Sie ist zuständig für:
- die Überwachung der Einhaltung der Verordnung,
- die Durchführung von Audits und Inspektionen,
- die Verhängung von Sanktionen bei Verstößen
- sowie die Beratung und Unterstützung von Unternehmen.
Zusätzlich arbeitet die Bundesnetzagentur eng mit dem europäischen AI Office zusammen, das auf EU-Ebene koordiniert. Damit wird sichergestellt, dass einheitliche Standards und Verfahren im gesamten Binnenmarkt gelten.
Strafen bei Verstößen gegen den AI Act
Der EU AI Act sieht Geldbußen für Unternehmen vor, die gegen die Vorschriften der Verordnung verstoßen. Die Höhe der Strafen richtet sich nach dem Schweregrad des Verstoßes und dem Jahresumsatz des Unternehmens.
Die wichtigsten Sanktionen im Überblick:
Verstoß | Maximale Geldbuße |
|---|---|
Verstöße bei verbotenen Praktiken aus Artikel 5 oder Verletzungen von Datenanforderungen | bis zu 35 Mio. € oder 7 % des weltweiten Vorjahresumsatzes |
Verstöße gegen andere Vorschriften der Verordnung | bis zu 15 Mio. € oder 3 % des weltweiten Vorjahresumsatzes |
Nichteinhalten der GPAI-Vorschriften | bis zu 15 Mio. € oder 3 % des weltweiten Vorjahresumsatzes |
Falsche, unvollständige oder irreführende Angaben an Behörden: | bis zu 7,5 Mio. € oder 1,5 % des weltweiten Vorjahresumsatzes |
Tabelle 3: Verstoße und Geldbußen AI Act
Unternehmen – insbesondere solche, die Hochrisiko-KI oder General-Purpose AI (GPAI) einsetzen – sollten frühzeitig Compliance-Maßnahmen ergreifen, um finanzielle Risiken und Reputationsverluste zu vermeiden.
Alle aktuellen Änderungen und Gesetze kannst Du jederzeit hier nachlesen.

Olga Fedukov absolvierte ihr Studium im Bereich Medienmanagement an der Fachhochschule Würzburg. Im Marketingteam von eology ist sie verantwortlich für die ganzheitliche Vermarktung der Agentur über diverse Kanäle. Darüber hinaus übernimmt sie die Planung und Koordination des Content-Bereichs auf der Website sowie der eology-Webinare.