Druckversion
Freitag, 16.05.2025, 19:20 Uhr


Legal Tribune Online
Schriftgröße: abc | abc | abc
https://www.lto.de//recht/hintergruende/h/ai-act-ki-verordnung-eu-sicherheit-risiko-teil-1
Fenster schließen
Artikel drucken
55127

AI Act tritt in Kraft: Was das neue Gesetz für Künst­liche Intel­li­genz in Europa bedeutet

von Dr. Jasper Siems und Nico Kuhlmann

01.08.2024

Abgeordnete des Europäischen Parlaments stimmen über den AI Act ab, der Rahmenbedingungen für Künstliche Intelligenz in Europa schafft.

Das EU-Parlament debattiert über den umstrittenen AI Act, der Künstliche Intelligenz regulieren soll. Foto: picture alliance / ASSOCIATED PRESS | Jean-Francois Badias

Der AI Act der EU tritt am 1. August 2024 in Kraft. Den risikobasierten Ansatz und warum der EU-Gesetzgeber das Regelungskonzept des Produktsicherheitsrechts gewählt hat, erklären Jasper Siems und Nico Kuhlmann.

Anzeige

Vom Chatbot zum selbstfahrenden Auto – Künstliche Intelligenz (KI oder auf Englisch: Artificial Intelligence, AI) ist längst nicht mehr nur Science Fiction, sondern Teil des Alltags geworden. Die Art und Weise, wie wir nun mit KI interagieren, wird die Welt umfassend prägen, in der wir in Zukunft leben werden. 

Dieses Veränderungspotenzial hat auch die EU erkannt und für die 2020er-Jahre das digitale Jahrzehnt ausgerufen. In einer Mitteilung vom März 2021 mit dem Titel "Digitaler Kompass 2030: Der europäische Weg in die digitale Dekade" hat sie ihre Zielvorstellungen für den digitalen Wandel bis 2030 dargelegt. Grundlegendes Anliegen ist die Regulierung des digitalen Raums durch zahlreiche neue EU-Gesetze. 

Neben wirtschaftlich-gesellschaftlichen Themen wie der Plattformökonomie (Digital Services Act; DSA), der Marktmacht großer Digitalkonzerne (Digital Markets Act; DMA) und der besseren Wertschöpfung aus Daten intelligenter Produkte (Data Act) ist KI die zentrale Technologie, deren bessere Regulierung sich die EU im Rahmen der Digitalen Dekade auf die Fahnen geschrieben hat. Denn die EU befürchtet, dass das bestehende Recht zahlreiche blinde Flecken gegenüber den Besonderheiten und Risiken von KI-Systemen aufweist.  

Was der AI Act von Spielzeug und Medizinprodukten lernt 

So ist KI als Technologie in der Lage, autonomer zu agieren als herkömmliche regelbasierte Software. Gleichzeitig ist ein KI-System oft deutlich komplexer und zugleich weniger transparent. All diesen und weiteren Risiken von KI-Systemen wollte die Europäische Kommission mit ihrem Vorschlag für einen AI Act vom April 2021 begegnen. Nach drei Jahren intensiver Beratungen stimmten das Europäische Parlament und der Rat im März 2024 dem AI Act zu, der am 1. August 2024 formell in Kraft tritt. Die einzelnen Regelungen haben dann jeweils eine eigene Übergangsfrist. 

Der AI Act ist eine EU-Verordnung. Dennoch spricht der EU-Gesetzgeber, wie schon beim Digital Services Act und dem Digital Markets Act, nicht von einer "AI Regulation", sondern vom "AI Act". Dieser Trend, insbesondere bei EU-Regelwerken im Digitalbereich, die Bezeichnung "Act" zu wählen, mag mehrere Hintergründe haben. Besonders relevant dürfte sein, dass "Act" im anglo-amerikanischen Sprachraum besonders anschlussfähig ist.  

Der zentrale Regelungsansatz des AI Act ist dem Produktsicherheitsrecht entnommen. Dabei orientiert sich der AI Act am sogenannten New Legislative Framework der EU (NLF). Hierbei handelt es sich um einen im Jahr 2008 eingeführten Regelungsrahmen, der – bestehend aus zahlreichen Maßnahmen und Rechtsakten – die Grundlage für die Herstellung und den Vertrieb von Produkten innerhalb der EU bildet. Beispielsweise wird das NLF für die Marktzulassung von Produkten wie Spielzeug, Medizinprodukte oder Haushaltsgeräte verwendet. Produkte aus diesen sehr unterschiedlichen Kategorien dürfen nach Konzeption des NLF alle nur mit der CE-Kennzeichnung auf den europäischen Markt. Mit der CE-Kennzeichnung erklären die Hersteller dieser Produkte, dass den jeweils einschlägigen Sicherheitsanforderungen entsprochen wird. 

Produktsicherheitsrecht und KI-Regulierung weisen eine ganz wesentliche Gemeinsamkeit auf: So schützt das Produktsicherheitsrecht immer die Gesundheit und Sicherheit von Menschen – und genau in diesem Bereich möchte der EU-Gesetzgeber mit der Regulierung von KI-Systemen ein hohes Schutzniveau erreichen.  

Produktsicherheit trifft Grundrechtsschutz 

Die zweite Säule des AI Act ist der Schutz der Grundrechte aus der EU-Grundrechtecharta. Denn die EU sieht es als zwingende Voraussetzung, dass KI eine menschenzentrierte Technologie ist. 

So verlangt der AI Act etwa in bestimmten Konstellationen von Anbietern und Betreibern von KI-Systemen, dass sie die Auswirkungen auf die Grundrechte der Nutzer darlegen. Je nach Einsatzgebiet des KI-Systems sind die möglichen Auswirkungen zum Beispiel auf die Meinungsfreiheit oder Berufsfreiheit der Nutzer abzuschätzen. Diese Auswirkungen sind in Grundrecht-Folgenabschätzungen detailliert darzulegen, vergleichbar mit den Datenschutz-Folgenabschätzungen. Als Kombination von Grundrechtsschutz und Produktsicherheitsrechts betritt der AI Act damit auch strukturell-regulatorisch neues Terrain. Insbesondere gibt es im Produktsicherheitsrecht noch keine Erfahrungen oder gar technische Standards im Hinblick auf die Berücksichtigung von Grundrechten bei der Produktsicherheit. 

Übergeordnetes Ziel des AI Act ist es, einen einheitlichen Rechtsrahmen für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI-Systemen in der Union zu schaffen. Dieses Ziel spiegelt sich im weiten Anwendungsbereich des AI Act wider: Zunächst ist der Begriff des KI-Systems sehr weit gefasst: Gemäß Art. 3 Abs. 1 AI Act ist ein KI-System "ein maschinengestütztes System, das für einen […] autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann". Das System wird mit Eingaben bestimmter Ziele gefüttert, seine "Intelligenz" besteht darin, dass es aus diesen Eingaben "Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen" ableitet. 

Ebenso weit ist der Anwendungsbereich in räumlicher und sachlicher Hinsicht: Verkürzt gesagt ist der AI Act anwendbar, sobald der KI-Output in der Union genutzt wird. Damit haben es nicht der Hersteller und Anbieter, sondern die Nutzer in der Hand, ob die KI den EU-Regeln unterfällt. Hierbei gilt der AI Act über Sektorengrenzen hinweg und richtet sich sowohl an öffentliche als auch an private Akteure. Die Vorgaben des AI Act finden also für nahezu alle Einsatzbereiche Anwendung von lustigen Chatbots über smarte Staubsauger bis hin zu medizinischen Robotern. 

Der risikobasierte Ansatz des AI Act 

Als Produktsicherheitsgesetz legt der AI Act in erster Linie Pflichten für die Anbieter von KI-Systemen fest. Ein Anbieter ist jeder, der ein KI-System entwickelt hat oder entwickeln lässt und dieses in Verkehr bringt oder in Betrieb nimmt. Es ist dabei irrelevant, ob dies entgeltlich oder unentgeltlich geschieht.  

Der sichtbarste Ausdruck des AI Act als Regelungschimäre aus Produktsicherheitsrecht und Grundrechtsschutz ist der risikobasierte Ansatz. Der AI Act gibt vor, dass KI-Systeme basierend auf ihren potenziellen Risiken für die Sicherheit, Grundrechte und Gesundheit von EU-Bürgern in verschiedene Risikokategorien eingeordnet werden. Je nach Risikokategorie treffen den Anbieter umfangreiche Pflichten. 

Der AI Act kennt insgesamt vier Risikokategorien: die verbotenen Systeme, Hoch-Risiko Systeme, bestimmte KI-Systeme und KI-Systeme mit minimalem Risiko.  

In Art. 5 benennt der AI Act bestimmte Praktiken, die im KI-Bereich innerhalb der EU generell verboten sind. Diese KI-Systeme dürfen weder entwickelt noch genutzt werden. Verboten sind beispielsweise KI-Systeme, die ein Social Scoring von Menschen ermöglichen. Nicht möglich wäre damit ein Sozialkredit-System auf Basis von KI wie es teilweise in China genutzt wird. 

Vom Chatbot zum Hochrisiko System 

Hochrisiko-Systeme im Sinne des Art. 6 AI Act lassen sich in zwei Unterkategorien aufteilen: Zum einen sind KI-Systeme erfasst, die in Produkten verwendet werden, die unter die in Anhang I aufgeführten Produktsicherheitsvorschriften der EU fallen. Hierunter kann man sich etwa ein KI-System vorstellen, das Teil eines größeren medizinischen Operationsroboters ist. Zum anderen zählen zu den Hochrisiko-KI-Systemen alle Systeme, die den in Anhang III aufgeführten Bereichen angehören und keiner der eng gefassten Ausnahmen unterliegen. Dazu zählen KI-Systeme in der kritischen Infrastruktur. Das sind etwa Komponenten, die den sicheren Betrieb von Software im Straßenverkehr oder bei der Versorgung mit Wasser, Gas, Wärme oder Strom gewährleisten sollen. 

Anbieter von KI-Systemen mit einem begrenzten Risiko treffen gemäß Art. 50 AI Act demgegenüber in erster Linie nur Transparenzpflichten. Sie müssen insbesondere dem Nutzer deutlich machen, dass er mit KI interagiert. Ein klassisches Beispiel für ein derartiges KI-System ist der Chatbot. 

Anbieter von KI-Systemen mit minimalem Risiko wie beispielsweise Spam-Filtern bei E-Mail-Programmen unterliegen grundsätzlich keinerlei Pflichten unter dem AI Act. 

Insbesondere die Regulierung von Hochrisiko-Systemen basiert stark auf klassischem Produktsicherheitsrecht. So setzt der AI Act genauso auf die CE-Kennzeichnung: Anbieter von Hochrisiko-Systemen eine sogenannte Konformitätsbewertung durchführen, bevor das KI-System in der EU auf den Markt kommt. Hierbei müssen zahlreiche Vorgaben erfüllt werden. Das betrifft unter anderem die Bereiche Daten-Governance, also die möglichst diskriminierungsfreie und datenschutzfreundliche Auswahl der Trainingsdaten, das Risikomanagement sowie Transparenz und Dokumentation. Eine erfolgreiche Konformitätsbewertung endet – wie auch im klassischen Produktsicherheitsrecht – stets mit dem CE-Kennzeichen. 

Aufgrund der umfangreichen Regelungen des AI Act – und weil diese Regulierung spürbare Auswirkungen auf viele wirtschaftlich und gesellschaftlich relevante Bereiche haben wird – ist die praktische Bedeutung des AI Act für die nächsten Jahre und Jahrzehnte kaum zu überschätzen. 

Dieser Beitrag ist Teil einer Miniserie zum Inkrafttreten des AI Act. Im nächsten Beitrag, der nun hier verfügbar ist, geht es im Detail um die verbotenen KI-Praktiken und Regelungen für KI-Modelle mit allgemeinem Verwendungszweck.

Die Autoren arbeiten als Rechtsanwälte bei Hogan Lovells International LLP in der Praxisgruppe Intellectual Property, Media & Technology in Hamburg.

  • Drucken
  • Senden
  • Zitieren
Zitiervorschlag

AI Act tritt in Kraft: . In: Legal Tribune Online, 01.08.2024 , https://www.lto.de/persistent/a_id/55127 (abgerufen am: 16.05.2025 )

Infos zum Zitiervorschlag
  • Mehr zum Thema
    • Europa- und Völkerrecht
    • Digitalisierung
    • Künstliche Intelligenz
    • Produkthaftung
KI 13.05.2025
Künstliche Intelligenz

Künstliche Intelligenz in der Verwaltung:

Keine Ermes­sens­aus­übung durch die Maschine?

Die Verwaltung in Deutschland ächzt, der Einsatz von KI könnte für Entlastung sorgen. Doch ausgerechnet eine Norm im VwVfG, die für Beschleunigung sorgen soll, steht dem entgegen. Eine kritische Analyse von Jan Christian Swoboda.

Artikel lesen
Ein Super-Recognizer schaut sich in seinem Büro auf einem Monitor Fotos von einer nachgestellten Straftat an 25.04.2025
Künstliche Intelligenz

Gesichtserkennung durch KI im Strafverfahren:

Die Technik ist da, das Recht (noch) nicht

Mittels einer Gesichtserkennung wurde Ex-RAF-Terroristin Daniela Klette aufgespürt. Auch Union und SPD wollen künftig verstärkt auf KI-gestützte Datenabgleiche setzen. Dafür fehlen jedoch die Rechtsgrundlagen, erklärt Christian Rückert.

Artikel lesen
Flugzeug startet 27.03.2025
Digitalisierung

Bundesjustizministerium testet digitale Zivilverfahren:

Flug­gäste können online klagen

Legal-Tech-Anbieter haben die Durchsetzung von Fluggastrechten schon als Geschäftsmodell entdeckt – jetzt macht ihnen der Bund Konkurrenz: Das Justizministerium hat ein Online-Portal geschaffen, wo Betroffene kostenlos digital klagen können.

Artikel lesen
Politiker diskutieren Pläne zur Finanzierung neuer Richterstellen, um die Justiz effizienter zu gestalten und dringend benötigte Ressourcen bereitzustellen. 26.03.2025
Justiz

Was Schwarz-Rot für die Justiz plant:

300 Mil­lionen für neue Rich­t­er­s­tellen

Ein neuer Pakt für den Rechtsstaat soll 3.000 Justizstellen finanzieren, Digitalisierung und KI-Einsatz voranbringen sowie Verfahren beschleunigen. Die Koalitionsverhandlungen laufen zwar noch, aber ein gewisser Konsens scheint absehbar.

Artikel lesen
Eingangsbereich des Bundesministeriums für Digitales und Verkehr in Berlin 24.03.2025
Digitalisierung

Pläne der Koalitionsarbeitsgruppe Digitales:

Neues Digi­tal­mi­nis­te­rium und weniger Daten­schutz

Was planen Union und SPD bei Digitalisierung und Datenschutz? Ein erster Entwurf der zuständigen Arbeitsgruppe legt den Fokus auf Datennutzung statt wie bisher auf Datenschutz. Für Digitales soll es ein eigenes Ministerium geben.

Artikel lesen
Schulung 20.03.2025
Human Ressources

Vorgaben für Nutzung von ChatGPT und Co.:

KI-Sys­teme als Sicher­heits­ri­siko im HR-Bereich

ChatGPT, Copilot oder Deepseek: Wer beruflich Systeme mit künstlicher Intelligenz nutzt, muss dazu eine Schulung durchlaufen. Das schreiben EU-Regelungen vor. Für wen das genau gilt, wissen Hans-Hermann Aldenhoff und Christopher Götz.

Artikel lesen
ads lto paragraph
lto karriere logo
ads career people

Wir haben die Top-Jobs für Jurist:innen

Jetzt registrieren
logo lto karriere
TopJOBS
Logo von Bird & Bird LLP
Pa­ten­t­an­walt (m/w/d) In­tel­lec­tual Pro­per­ty

Bird & Bird LLP , Mün­chen

Logo von Generalstaatsanwaltschaft des Landes Brandenburg
Staats­an­wäl­tin (Rich­te­rin auf Pro­be) / Staats­an­walt (Rich­ter auf Pro­be)...

Generalstaatsanwaltschaft des Landes Brandenburg , Frank­furt (Oder)

Logo von European XFEL GmbH
La­wy­er (f/m/d)

European XFEL GmbH , Sche­ne­feld

Logo von BLD Bach Langheid Dallmayr Rechtsanwälte Partnerschaftsgesellschaft mbB
Rechts­an­walt (w/m/d) für Fi­nan­cial Li­nes

BLD Bach Langheid Dallmayr Rechtsanwälte Partnerschaftsgesellschaft mbB , Dort­mund

Logo von BLD Bach Langheid Dallmayr Rechtsanwälte Partnerschaftsgesellschaft mbB
Rechts­an­walt (w/m/d) für Fi­nan­cial Li­nes

BLD Bach Langheid Dallmayr Rechtsanwälte Partnerschaftsgesellschaft mbB , Köln

Logo von Generalstaatsanwaltschaft des Landes Brandenburg
Staats­an­wäl­tin (Rich­te­rin auf Pro­be) / Staats­an­walt (Rich­ter auf Pro­be)...

Generalstaatsanwaltschaft des Landes Brandenburg , Pots­dam

Logo von Generalstaatsanwaltschaft des Landes Brandenburg
Staats­an­wäl­tin (Rich­te­rin auf Pro­be) / Staats­an­walt (Rich­ter auf Pro­be)...

Generalstaatsanwaltschaft des Landes Brandenburg , Cott­bus

Logo von Schlun & Elseven Rechtsanwälte PartG
Rechts­an­wäl­tin/Rechts­an­walt (m/w/d) im Mi­g­ra­ti­ons- und...

Schlun & Elseven Rechtsanwälte PartG , Köln

Mehr Stellenanzeigen
logo lto events
Moovijob Day Luxembourg in Trier

23.05.2025, Trier

Plötzlich doch selbständig? Wie aus einer Scheinselbständigkeit von Lehrkräften eine selbständige Tätigkeit werden kann

26.05.2025, Bonn

Logo von Hagen Law School in der iuria GmbH
Fachanwaltslehrgang Erbrecht im Fernstudium/ online

23.05.2025

Konfliktvermeidung durch Vertragsgestaltung und Vertragsgestaltung zur Konfliktlösung

26.05.2025, Frankfurt am Main

Matchwinner Verfahrensrecht

26.05.2025

Mehr Events
Copyright © Wolters Kluwer Deutschland GmbH