KI-Gesetz

AI-Act: Die EU reguliert die Künstliche Intelligenz (KI)

Der AI-Act (Artificial Intelligence Act) ist weltweit eine der ersten umfassenden Regulierungen von künstlicher Intelligenz (KI). Erfahren Sie hier mehr über den AI Act sowie ob und wie Ihr Unternehmen davon betroffen ist.

Was ist das Ziel des AI-Act?

KI hat das Potenzial vielfältige Vorteile für Wirtschaft und Gesellschaft hervorzubringen. Als Beispiele können die Verbesserung von Prognosen, die Optimierung der Ressourcennutzung und die Personalisierung von Dienstleistungen genannt werden. Dieselben KI-Faktoren, die einen sozioökonomischen Nutzen erbringen, bergen aber auch neue Gefahren und Nachteile für unsere Gesellschaft. Beispielsweise neigen KI-Systeme, die auf unzureichenden Trainingsdaten basieren, Vorurteile zu übernehmen und dadurch diskriminierende Entscheidungen zu treffen. Die EU möchte deshalb sicherzustellen, dass KI immer im Einklang mit den Werten, Grundrechten und Prinzipien der EU entwickelt wird.
Erklärte Position zum AI-Act des EU-Parlaments:
„Die Vorschriften sollen die Entwicklung, den Einsatz und die Nutzung von menschenzentrierten, vertrauenswürdigen KI-Systemen in der EU regeln und Gesundheit, Umwelt, Sicherheit, Grundrechte und Demokratie vor schädlichen Folgen schützen.“

Wann ist der AI-Act in Kraft getreten?

Der AI-Acht gilt seit dem 1. August 2024. Seine Regelungen treten ab 2025 schrittweise in Kraft.
Datum Meilenstein
2. Februar 2025 Verbot von KI-Systemen mit inakzeptablem Risiko und Inkrafttreten der Anforderung für KI-Kompetenz (Kapitel 1 & 2)
2. August 2025 Inkrafttreten von Governance-Regeln und Regelungen zu Benachrichtigungen an Behörden und Geldstrafen (Kapitel 3, 5, 7, 12, & Artikel 78)
2. August 2026 Ende der 14-monatigen Übergangsphase. Verpflichtungen für Hochrisiko-KI-Systeme (Anhang III) treten in Kraft (Artikel 6(2))
2. August 2027 Verpflichtungen für Hochrisiko KI-Systeme als Sicherheitskomponente treten in Kraft (Artikel 6(1))
Sie wollen mehr zum AI-Act erfahren? Im Video sehen Sie eine kurze Zusammenfassung zu den wichtigsten Punkten:
Um dieses Video ansehen zu können, müssen Sie Ihre Cookie-Einstellungen anpassen und die Kategorie „Marketing Cookies" akzeptieren. Erneuern oder ändern Sie Ihre Cookie-Einwilligung
© IHK Schwaben
Sie interessieren sich mehr für die technische Umsetzung? Dann erfahren Sie hier, was Sie beachten sollten:
Um dieses Video ansehen zu können, müssen Sie Ihre Cookie-Einstellungen anpassen und die Kategorie „Marketing Cookies" akzeptieren. Erneuern oder ändern Sie Ihre Cookie-Einwilligung
© IHK Schwaben

Wer ist vom AI-Act betroffen?

Der AI-Act gilt für Unternehmen die:
  • ihren Sitz in der EU haben und
  • Waren und Dienstleistungen in der EU anbieten
Diese Akteure sind vom AI-Act betroffen:
  • Anbieter (auch aus Drittländern), die KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen
  • Nutzer von KI-Systemen wie ChatGPT, Copilot, Perplexity ai etc, die sich innerhalb der EU befinden
  • Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis innerhalb der EU verwendet wird
Nicht vom AI-Act betroffen sind:
  • KI-Systeme für ausschließlich militärische Zwecke
  • Internationale Organisationen die KI-Systeme im Bereich der Strafverfolgung in Zusammenarbeit mit der EU oder mindestens einem Mitgliedstaat nutzen
  • Forschungs- und Entwicklungsaktivitäten zu KI-Systemen
  • Open-Source-Software unterliegt im Allgemeinen nicht der Regulierung, es sei denn, sie wird aufgrund ihrer Anwendung als verbotenes oder hochriskantes KI-System eingestuft

Wie wird KI im Rahmen des AI-Act definiert?

Der AI- Act definiert ein KI-System als ein maschinengestütztes System, das zu einem gewissen Grad autonom arbeitet und nach seiner Betriebsaufnahme anpassungsfähig sein kann. Es verarbeitet Eingaben und erzeugt daraufhin Ausgaben, wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen, die sich auf physische oder virtuelle Umgebungen auswirken können​.
Das heißt: Ein KI-System ist ein Computerprogramm, das selbstständig Daten verarbeiten kann, um bestimmte Ergebnisse zu liefern. Es kann dabei lernen und sich anpassen, ohne dass ein Mensch es jedes Mal neu programmieren muss.

Pflicht der Unternehmen zur KI-Kompetenzvermittlung (Artikel 4 AI-Act)

Artikel 4 AI-Act verpflichtet Unternehmen sicherzustellen, dass alle beteiligten Akteure, die mit der Entwicklung, Implementierung und Nutzung von KI-Systemen in einem Unternehmen befasst sind, über die erforderlichen Kompetenzen und Kenntnisse verfügen. Dies betrifft Anbieter und Betreiber, unabhängig davon, ob es sich um eine KI mit minimalem oder hohen Risiko handelt. Sicherzustellen ist, dass Mitarbeiter ausreichend über die Funktionsweise, die potenziellen Risiken und die sicheren Einsatzmöglichkeiten der KI-Systeme informiert und je nach Bedarf geschult sind.
In der Praxis bedeutet dies für Unternehmen, dass sie seit dem 1. Februar 2025:
  • Schulungsprogramme entwickeln und implementieren müssen, die die notwendigen technischen und ethischen Grundlagen für den Umgang mit KI vermitteln.
  • Trainings zur sicheren Nutzung von KI-Systemen bereitstellen müssen, insbesondere wenn diese in sicherheitskritischen oder sensiblen Bereichen eingesetzt werden.
  • Regelmäßige Auffrischungskurse für die Mitarbeitenden anbieten müssen, um sicherzustellen, dass sie stets über die neuesten Entwicklungen und Best Practices im Umgang mit KI-Systemen informiert sind.

Ist meine KI vom AI-Act betroffen?

Im AI-Act gilt: Je höher das Risiko eines KI Systems ist, desto strenger sind die Anforderungen. Um zu bestimmen, welche Vorschriften für welche KI-Systeme gelten, wurden vier Risikoklassen gebildet.

Welche Risikoklassen gibt es?

Der AI-Act kategorisiert KI-Systeme in vier verschiedene Risikoklassen, die jeweils mit unterschiedlichen rechtlichen Vorgaben verknüpft sind:
Risikoklasse Kurzbeschreibung Regulierung Beispiel
Inakzeptables Risiko Verletzung fundamentaler Rechte Verboten Social Scoring Systeme
Hohes Risiko Potenziell hohes Schadensrisiko Weitreichende Anforderungen Kreditwürdigkeitsprüfung
Begrenztes Risiko Interaktion mit Personen Transparenzpflichten Chatbots
Niedriges Risiko Alle anderen Systeme Keine Anforderungen Vorausschauende Wartung
Je größer das potenzielle Risiko bei der Verwendung eines KI-Systems ist, desto umfangreicher sind die damit verbundenen rechtlichen Anforderungen. Dazu gehören Risikobewertungen, Dokumentationspflichten, EU-Konformitätserklärungen und Überwachung durch den Betreiber.

Inakzeptables Risiko – Verbotene KI (Art. 5 AI-Act)

Die folgenden KI-Systeme sind u.a. nach dem AI-Act verboten:
  • Soziales Scoring: d.h. die Bewertung oder Einstufung von Personen oder Gruppen auf Grundlage ihres Sozialverhaltens oder ihrer persönlichen Merkmale, was zu einer benachteiligenden oder ungünstigen Behandlung dieser Individuen führen kann.
  • Aufbau von Datenbanken zur Gesichtserkennung durch gezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufzeichnungen.

KI mit Hohem Risiko (Art 6 AI-Act)

Stellt ein KI-System ein potenziell hohes Risiko für die Sicherheit, Gesundheit oder Grundrechte von Menschen dar, gilt es als Hochrisiko-KI-System. Anbieter solcher Systeme müssen ab dem 2. August 2025 eine Konformitätsbewertung durchführen und eine Konformitätserklärung ausstellen. Darunter fallen u. a. diese Anwendungen:
  • Auswahl von Bewerbern als auch für Entscheidungen über Beförderungen, Kündigungen, Aufgabenzuweisungen und die Leistungsüberwachung in Arbeitsverhältnissen
  • Biometrische Identifizierung und Kategorisierung von natürlichen Personen
  • Verwaltung und Betrieb kritischer Infrastrukturen

Begrenztes Risiko

Unter die Kategorie „Begrenztes Risiko“ fallen alle KI-Systeme, die mit Menschen interagieren. Darunter falls beispielsweise Chatbots. Für Anbieter solcher KI gilt eine Transparenzpflicht. Das bedeutet, dass eine natürliche Person darüber informiert werden muss, dass sie mit einem KI-System interagiert.

Niedriges Risiko

Mit niedrigem Risiko werden KI-Systeme bewertet, die unter keine andere Risiko-Kategorie fallen. Dazu zählen interne Anwendungen wie Spam-Filter oder Systeme für die vorausschauende Wartung von Maschinen. Sie müssen keine rechtlichen Anforderungen erfüllen. Dennoch besteht für Unternehmen die Möglichkeit, freiwillig Verhaltenskodizes für diese KI-Systeme anzuwenden.

Welche gesonderten Vorschriften gelten für KI-Modelle mit allgemeinem Verwendungszweck?

Unter KI-Modellen mit allgemeinem Verwendungszweck (General Purpose Artifical Intelligence, GPAI) versteht man KI-Systeme, die eine Vielzahl von Funktionen ausführen und sich an verschiedene Aufgaben anpassen können. Ein populäres Beispiel hierfür ist ChatGPT von Open AI. Das KI-Modell kann Audio- und Textdaten verarbeiten, Texte und Bilder generieren und viele weitere Aufgaben bewältigen. Da GPAI stark an wirtschaftlicher und gesellschaftlicher Relevanz gewinnen, gelten für sie gesonderte Risikokategorien. Diese richten sich nicht der jeweiligen Anwendungen, sondern der Funktion des zugrunde liegenden Basismodells.
Für normale GPAI gilt:
  • Zusätzliche technische Dokumentation
  • Detaillierte Aufstellung über die Verwendung urheberrechtlich geschützter Trainingsdaten
  • Anforderungen zur Kennzeichnung generierter Inhalte
Für GPAI mit erheblichen Auswirkungen, worunter man „sehr leistungsstarke“ Basismodelle, die systemische Risiken bergen können, versteht, gilt zusätzlich:
  • Pflichten in Bezug auf die Überwachung schwerwiegender Vorfälle
  • Modellbewertung
  • Angriffstests

Wie hoch fallen Sanktionen für Verstöße aus?

Die Strafen für Verstöße gegen die Vorschriften werden entsprechend der Größe und dem Geschäftszweck des Unternehmens festgelegt.
  • Anwendung verbotener KI-Systeme: Bis 35 Mio. EUR oder 7% des Umsatzes.
  • Verstöße gegen Verpflichtungen des AI-Acts: Bis 15 Mio. EUR oder 3% des Umsatzes.
  • Angabe falscher Informationen: Bis 7,5 Mio. EUR oder 1,5% des Umsatzes.

Wo bekomme ich weitere Unterstützung?

Mit dem KI-Kompetenz-Check, bietet die IHK Schwaben ihren Mitgliedsunternehmen die Möglichkeit, kostenlos und anonym den aktuellen Stand des KI-Wissens in ihrem Unternehmen zu ermitteln.
Der Compliance-Checker des Future of Life Instituts ist ein nützliches Tool, um schnell herauszufinden, unter welche Risikoklasse ein KI-System fällt: EU AI Act Compliance Checker
Stand: März 2025

Die Informationen und Auskünfte der IHK Schwaben enthalten nur erste Hinweise und ‎erheben daher keinen Anspruch auf Vollständigkeit. Obwohl sie mit größtmöglicher ‎Sorgfalt erstellt wurden, kann eine Haftung für ihre inhaltliche Richtigkeit nicht ‎übernommen werden. Sie können eine Beratung im Einzelfall (z. B. durch einen ‎Rechtsanwalt, Steuerberater, Unternehmensberater etc.) nicht ersetzen.‎