Druckversion
Freitag, 6.02.2026, 21:38 Uhr


Legal Tribune Online
Schriftgröße: abc | abc | abc
https://www.lto.de//recht/kanzleien-unternehmen/k/artificial-intelligence-act-erster-entwurf-eu-kommission-regulierung-kuenstliche-intelligenz
Fenster schließen
Artikel drucken
44872

Erster Entwurf des Artificial-Intelligence-Act: EU als neues Zen­trum für künst­liche Intel­li­genz?

Gastbeitrag von Dr. Sebastian Cording

03.05.2021

Datenströme treffen zusammen

(c) ktsdesign - stock.adobe.com

Künstliche Intelligenz ist aus dem Alltag nicht mehr wegzudenken. Die EU-Kommission unternimmt jetzt den weltweit ersten Versuch, die Rahmenbedingungen für KI-Anwendungen festzulegen. Sebastian Cording erläutert die geplanten Regelungen.

Anzeige

Die Kommission der Europäischen Union (EU) hat sich ein ambitioniertes Ziel gesetzt: Europa soll das globale Zentrum für vertrauenswürdige künstliche Intelligenz (KI) werden. Zu diesem Zweck hat die EU-Kommission den ersten Entwurf des Artificial Intelligence (AI) Act veröffentlicht, der nun im EU-Parlament diskutiert und anschließend als unmittelbar in der gesamten EU geltendes Recht verabschiedet werden soll. Gegenstand dieser Verordnung ist aber nicht die Förderung von KI – diese soll durch andere Maßnahmen erfolgen –, sondern deren Regulierung. 

Der Verordnungsentwurf sieht bei Verstößen gravierende Rechtsfolgen vor, die an Kartellrechtsstrafen und Sanktionen nach der Datenschutzgrundverordnung (DSGVO) erinnern.

Im Vorfeld hatte die EU-Kommission zu Konsultationen aufgerufen und zahlreiche Stakeholder aus dem öffentlichen und privaten Sektor, darunter Regierungen, kommerzielle und nicht-kommerzielle Organisationen, Akademiker und Bürger mit Hilfe von Fragebögen zu ihren Regulierungswünschen angehört. Das Meinungsspektrum war dabei äußerst breit: So gab es den Wunsch nach einem vollständigen Verzicht auf jede Regulierung, da KI nichts grundsätzlich Neues sei und die vorhandenen gesetzlichen Regelungen vollkommen ausreichten. Andere Stimmen forderten sektorspezifische Regelungen, da die Anforderungen etwa im Straßenverkehr ganz andere seien als in der Medizin oder im Justizwesen.

Wie sich im Vorfeld bereits angedeutet hatte, hat sich die EU-Kommission für einen gefahrenbasierten Ansatz entschieden. Das bedeutet, es gibt unterschiedliche Regelungen, je nachdem, welches Gefährdungspotential für zentrale Rechtsgüter wie Gesundheit, Sicherheit und Grundrechte besteht. Folgende vier Klassen werden unterschieden: verbotene Anwendungen, Hochrisiko-Anwendungen, Anwendungen mit bestimmten Merkmalen und sonstige Anwendungen.

Besonders gefährliche KI-Anwendungen sind verboten

Gänzlich untersagt werden sollen Anwendungen, die geeignet sind, Menschen körperliche oder psychische Schäden zuzufügen. Dies kann daraus resultieren, dass sie unterschwellige Techniken anwenden oder die Verletzlichkeit einer Gruppe von Menschen, etwa wegen ihres Alters oder etwaiger Einschränkungen, ausnutzen und so ihr Verhalten unbemerkt manipulieren. 

Ebenfalls verboten werden sollen unter bestimmten Voraussetzungen sogenannte Social Scoring Anwendungen. Darunter versteht man den Versuch, das Verhalten oder Eigenschaften von Personen anhand von Punkten zu bewerten und so vergleichen zu können.

Ein Verbot soll aber nur dann bestehen, wenn staatliche Institutionen das Social Scoring einsetzen und Menschen über einen gewissen Zeitraum im Hinblick auf ihr Verhalten oder ihre Persönlichkeit beobachten, wenn dies als unverhältnismäßig erscheint oder die Erkenntnisse in einem anderen Zusammenhang verwertet werden als dem, in dem die Daten gesammelt wurden. 

Einem Verbot unterliegt grundsätzlich auch der polizeiliche Einsatz von Echtzeit-Systemen zur Personenerkennung im öffentlichen Raum. Ausnahmsweise können derartige Maßnahmen aber erlaubt sein: um verschwundene Opfer von Straftaten zu finden, um erhebliche und unmittelbar bevorstehende Gefahren für das Leben von Menschen oder die öffentliche Sicherheit oder einen terroristischen Angriff zu verhindern oder um Straftäter aufzuspüren, deren Taten mit einer Höchststrafe von mindestens drei Jahren geahndet werden. Außer bei Gefahr im Verzug bedarf dieser Einsatz zudem der vorherigen Erlaubnis eines Richters oder einer unabhängigen Behörde.

Auffällig ist der Umstand, dass jeweils relativ viele kumulative Voraussetzungen erfüllt sein müssen, damit die Verbotsnorm tatsächlich eingreift. So sind beispielsweise nicht alle KI-Anwendungen verboten, die durch unterschwellige Techniken das Verhalten von Kindern manipulieren, vielmehr gilt das Verbot nur dann, wenn hierdurch die Gefahr einer körperlichen oder psychischen Schädigung hervorgerufen wird.

Konformitätsprüfung und Zertifizierung bei Hochrisiko-Anwendungen

Mehr als die Hälfte der Regelungen des AI Act beschäftigt sich mit den Hochrisiko-Anwendungen und den für sie geltenden Anforderungen. Dies dürfte auch der Bereich sein, in dem die Regulierung ihre größten Auswirkungen hat.

Anders als bei den verbotenen KI-Anwendungen, erfolgt die Bestimmung von Hochrisiko-Anwendungen nicht abstrakt, sondern durch Bezugnahme auf zwei Anlagen zu dem Verordnungsentwurf. Erfasst werden insbesondere KI-Anwendungen in gefahrgeneigten Bereichen wie Straßenverkehr, Luftfahrt und Medizin sowie KI-Anwendungen in gesellschaftlich relevanten Bereichen wie Personenerkennung, kritische Infrastruktur, Bildung, Recruitment, Daseinsvorsorge, Kreditwürdigkeit, Migration, Strafverfolgung und Justiz.

Hochrisiko-Anwendungen bedürfen vor dem Markteintritt einer Konformitätsprüfung und Zertifizierung (CE-Kennzeichnung), die je nach Anwendung unterschiedlich ausgestaltet ist. Zum Teil erfolgt die Konformitätsprüfung auch durch die Anbieter selbst. Insbesondere müssen die Anwendungen ein Risiko-Managementsystem für die gesamte Einsatzdauer aufweisen, eine technische Dokumentation sowie Ereignis-Aufzeichnungen vorhalten ("Logs"), transparent sein und den Nutzerinnen und Nutzern Informationen bereitstellen sowie widerstandsfähig gegen Fehler und Angriffe sein.

Einige dieser Pflichten treffen nicht allein die Anbieter, sondern gelten auch für Importeure, Händler und Nutzer.

Die Mitgliedstaaten müssen Behörden einrichten, die für die Durchführung der Verfahren zur Konformitätsprüfung und die Überwachung der Anwendungen zuständig sind. Diese Behörden haben unter bestimmten Voraussetzungen auch einen Zugriff auf den Quellcode des KI-Systems und Eingriffsbefugnisse, die von Korrekturmaßnahmen bis zu einer gänzlichen Untersagung reichen.

Besondere Transparenzregeln für bestimmte Anwendungen

Für drei verschiedene Gruppen von KI-Anwendungen, bei denen nicht danach unterschieden wird, ob es sich um Hochrisiko-Anwendungen handelt oder nicht, gibt es besondere Transparenzregeln: Systeme, die mit Menschen interagieren sowie Systeme zur Erkennung von Emotionen oder zur biometrischen Kategorisierung müssen die Betroffenen darüber informieren, dass sie es mit einer KI-Anwendung zu tun haben, sofern dies aufgrund der Umstände nicht offensichtlich ist. Systeme zur Erzeugung oder Veränderung von Bild-, Audio- oder Videomaterial, das für echt gehalten werden könnte (sogenannte deep fakes), müssen offenbaren, dass ihr Inhalt nicht echt ist.

Sonstige KI-Anwendungen sind durch den AI Act ausdrücklich nicht erfasst. KI-gestützte Videospiele oder Spamfilter beispielsweise werden durch den AI Act nicht reguliert.

Geldbußen in Millionenhöhe bei Verstößen gegen den AI Act

Die Rechtsfolgen von Verstößen gegen die Bestimmungen des AI Act werden in dem vorgegebenen Rahmen durch die Mitgliedstaaten festgelegt. Dieser Rahmen hat es allerdings in sich:

Die Bußgelder können bis zu 30 Millionen Euro und bei Unternehmen darüber hinaus sogar bis zu sechs Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres betragen. Diese Sanktion droht insbesondere bei der Missachtung des Verbots bestimmter KI-Anwendungen sowie bei einigen Verstößen gegen Grundsätze der Datenverwaltung im Zusammenhang mit Hochrisiko-Anwendungen. 

Bei geringfügigeren Verstößen droht ein Bußgeld von bis zu 20 Millionen Euro bzw. vier Prozent des weltweiten Jahresumsatzes des letzten Geschäftsjahres. Ein Bußgeld in Höhe von bis zu zehn Millionen Euro bzw. zwei Prozent des Jahresumsatzes ist bei unvollständigen oder irreführenden Auskünften an die zuständigen Behörden fällig.

Es gibt kein Entrinnen

Ohne Frage handelt es sich um ein wegweisendes Projekt der EU, für das es weltweit bisher kein Vorbild gibt. Der Grundgedanke, die Entwicklung von KI zu fördern und gleichzeitig in die richtigen Bahnen zu lenken, ist begrüßenswert. Insbesondere dürfen KI-Anwendungen nicht dazu führen, dass für einen Rechtsstaat essentielle Grundrechte und Grundfreiheiten eingeschränkt oder gar aufgehoben werden.

Auf der anderen Seite ist es eine offene Frage, ob es auf diesem Weg tatsächlich gelingen wird, die Entwicklung von KI-Anwendungen in der EU zu fördern oder ob im Gegenteil Entwickler aus Furcht vor der Regulierung aus der EU abwandern und ihre Entwicklung anderenorts vorantreiben werden. Diese Gefahr hat die EU-Kommission aber offenbar erkannt und die Anwendbarkeit des AI Act weit ausgedehnt: Die Verordnung findet unabhängig von ihrem Unternehmenssitz Anwendung auf alle Anbieter, die KI-Systeme in der EU in den Verkehr bringen und auf Nutzer von KI-Systemen in der EU. Selbst wenn sowohl Anbieter als auch Nutzer ihren Sitz außerhalb der EU haben, unterliegen sie dem AI Act, sofern der von dem KI-System erzeugte Output in der EU verwendet wird.

Ebenso wie es heute schon gegenüber KI-Systemen kein Entrinnen mehr gibt, gilt das auch für die Regulierung durch die EU. Etwas anderes würde nur gelten, wenn sich die Anbieter vollständig vom europäischen Markt verabschieden, was wohl nicht zu erwarten ist.

Nicht auszuschließen ist dagegen, dass die Entwicklung von KI-Systemen langwieriger und kostenintensiver wird. Hier wird es Aufgabe der EU sein, durch geeignete Fördermaßnahmen gegenzusteuern. 

Dr. Sebastian Cording ist Rechtsanwalt und Partner bei CMS Hasche Sigle in Hamburg. Er ist im Bereich Technology, Media & Communications tätig. Im Rahmen der seitens der EU-Kommission im Vorfeld durchgeführten Verbändeanhörung war er an den Konsultationen des BitKom und des Council of Bars and Law Societies of Europe (CCBE) beteiligt. An der Stellungnahme des BitKom hat er nicht mitgewirkt. Für den CCBE hat er – in seiner Funktion als Mitglied in zwei Arbeitsgruppen, IT und Surveillance – an dessen Stellungnahme mitgearbeitet.

  • Drucken
  • Senden
  • Zitieren
Zitiervorschlag

Erster Entwurf des Artificial-Intelligence-Act: . In: Legal Tribune Online, 03.05.2021 , https://www.lto.de/persistent/a_id/44872 (abgerufen am: 08.02.2026 )

Infos zum Zitiervorschlag
  • Mehr zum Thema
    • Informationstechnologie
    • IT-Sicherheit
    • Kanzlei-IT
    • Legal Tech
    • Technik
Ein Smartphone mit Tiktok auf dem Bildschirm vor einer verschwommenen EU-Flagge. 06.02.2026
Soziale Medien

EU-Kommission stellt fest:

Warum Tiktok süchtig macht und wie es jetzt wei­ter­geht

Nach vorläufigen Ergebnissen einer EU-Untersuchung verstößt die Videoplattform gegen EU-Recht, weil sie süchtig mache. Das Verfahren läuft nach dem Digital Services Act, der jetzt zeigen wird, ob er wirksam oder nur ein Papiertiger ist.

Artikel lesen
Mann am Notebook 29.11.2025
KI

Interview mit programmierendem Syndikus:

"Ein Co-Pilot für Gesetze"

Ein Syndikusanwalt hat alle Gesetze und Verordnungen des Bundes in eine KI-Webapp eingebunden. Ziel ist, auch eher unbekannte Normtexte nicht zu übersehen. Das Angebot stellt der 40-Jährige den Nutzern kostenlos zur Verfügung. 

Artikel lesen
ChatGPT auf einem Laptop und einem Smartphone-Bildschirm 03.11.2025
Künstliche Intelligenz

OpenAI ändert Nutzungsbedingungen:

Ist nun Schluss mit Rechts­be­ra­tung durch ChatGPT?

ChatGPT gehört für viele längst zum Alltag – auch in Rechtsfragen. Jetzt hat OpenAI aber die Nutzungsbedingungen geändert. Auf konkrete rechtliche Fragen antwortet der Chatbot jetzt mit einem Disclaimer. Doch was ändert sich wirklich?

Artikel lesen
Das Bild zeigt einen Podcast über Rechtsberatung für Tech-Giganten, thematisiert KI, Bar Exam und Games-Recht. 13.10.2025
Anwaltsberuf

Jura-Karriere-Podcast:

Rechts­be­ra­tung für Tech-Giganten im Silicon Valley

Felix Hilgert wollte erst Diplomat werden. Heute ist er Partner bei Osborne Clarke in San Francisco, im Herzen der Tech-Welt. Er berichtet, wie man im Silicon Valley europäisches Recht erklärt, und dass auch er gespannt auf GTA VI wartet.

Artikel lesen
Legal Hackathon Cologne 2025 16.09.2025
Legal Tech

Legal Hackathon Cologne 2025:

Inno­va­tion trifft Recht

Wie kann man Recht einfacher zugänglich oder verständlicher machen? Beim Legal Hackathon 2025 traten elf interdisziplinäre Teams an, um Ideen zu entwickeln und umzusetzen. Eine Fach-Jury kürte dann die Sieger.

Artikel lesen
Das Eingabefeld einer Künstlichen Intelligenz 08.09.2025
Hintergründe

Large Language Models:

Wann ist Promp­ting straf­bares Hacking?

Large Language Models sind gefragte Werkzeuge. Gleichzeitig können sie mittels Prompt Injections manipuliert werden. Das deutsche Strafrecht hat darauf noch keine ausreichenden Antworten – was sich ändern muss, meint Philip N. Kroner.

Artikel lesen
ads lto paragraph
ads Transfermarkt people
lto karriere transfermarkt logo

Ihre Transfermeldung – Sichtbar. Relevant. Reichweitenstark.

Jetzt eintragen!
ads lto paragraph
ads lto arrow
lto karriere transfermarkt logo

Den nächsten Karriereschritt feiern – mit einer Meldung im LTO Transfermarkt.

Jetzt eintragen!
logo lto karriere
TopJOBS
Logo von Herbert Smith Freehills Kramer LLP
Wis­sen­schaft­li­che Mit­ar­bei­ter (m/w/d) und Sta­ti­ons­re­fe­ren­da­re (m/w/d)...

Herbert Smith Freehills Kramer LLP , Frank­furt am Main

Logo von A&O Shearman
Re­fe­ren­da­re (m/w/d) IP & Da­ta &Tech

A&O Shearman , Düs­sel­dorf

Logo von Gleiss Lutz
Rechts­an­wäl­te (m/w/d) Ko­rea-Team

Gleiss Lutz , Ber­lin

Logo von Osborne Clarke GmbH & Co. KG
Re­fe­ren­dar (w/m/d) Mer­gers & Ac­qui­si­ti­ons und Ge­sell­schafts­recht

Osborne Clarke GmbH & Co. KG , Ber­lin

Logo von Gleiss Lutz
Rechts­an­wäl­te (m/w/d) Ko­rea-Team

Gleiss Lutz , Düs­sel­dorf

Logo von REDEKER SELLNER DAHS
Re­fe­ren­da­rin­nen/Re­fe­ren­da­re

REDEKER SELLNER DAHS , Mün­chen

Logo von Gleiss Lutz
Wis­sen­schaft­li­che Mit­ar­beit (m/w/d) IP/Tech

Gleiss Lutz , Stutt­gart

Logo von Ministerium des Innern und für Sport Rheinland-Pfalz
Voll­ju­ris­tin­nen und -ju­ris­ten (m/w/d)

Ministerium des Innern und für Sport Rheinland-Pfalz , Mainz

Mehr Stellenanzeigen
logo lto events
Logo von Deloitte Legal Rechtsanwaltsgesellschaft mbH
Legal Entity Reduction: Konzernstrukturen rechtssicher vereinfachen

18.02.2026

EU AI Act Compliance im Griff – Schritt für Schritt zur Umsetzung

17.02.2026

EU AI Act Compliance im Griff – Schritt für Schritt zur Umsetzung

17.02.2026

Kölner Tage Immobilienbesteuerung 2026

19.02.2026, Köln

Logo von GvW Graf von Westphalen
Rechtsprechungs­report: Urheberrecht

18.02.2026

Mehr Events
Copyright © Wolters Kluwer Deutschland GmbH