Druckversion
Mittwoch, 7.01.2026, 14:55 Uhr


Legal Tribune Online
Schriftgröße: abc | abc | abc
https://www.lto.de//recht/hintergruende/h/ai-act-ki-verordnung-eu-sicherheit-risiko-verboten-teil-2
Fenster schließen
Artikel drucken
55171

Verbotene Praktiken unter dem AI Act: Wann ist Künst­liche Intel­li­genz zu gefähr­lich?

von Nico Kuhlmann und Dr. Jasper Siems

08.08.2024

Ein Infrarot-Kamerasystem wird auf der Sicherheits-Expo in Frankreich 2024 vorgestellt

KI-Systeme zur biometrischen Identifizierung in Echtzeit erlaubt der AI Act nur ausnahmsweise. Foto: picture alliance / NurPhoto | Artur Widak

Bei der Regulierung Künstlicher Intelligenz differenziert der AI Act nach Risikostufen. Welche Praktiken strikt verboten sind und warum, erklären Nico Kuhlmann und Jasper Siems in Teil 2 ihres Überblicks über die neuen Regeln.

Anzeige

Dieser Beitrag ist Teil einer Miniserie zum Inkrafttreten des Artificial Intelligence (AI) Act am 1. August 2024. Im ersten Beitrag haben wir den AI Act in seinen Grundzügen vorgestellt. Im Folgenden geht es nun um Praktiken aus dem KI-Bereich, die die EU-Verordnung grundsätzlich verhindern will.

Beim AI Act handelt es sich um ein spezielles Produktsicherheitsgesetz, das Betreiber und Hersteller von Systemen Künstlicher Intelligenz (KI) in verschiedene Risikokategorien einteilt. Für sie gelten je nach Risiko für die Nutzer unterschiedlich strenge Anforderungen. Diesem risikobasierten Ansatz folgend hat die EU bestimmte Praktiken aus dem KI-Bereich direkt als verbotene Praktiken eingestuft. 

Hierbei handelt es sich etwa um das Social Scoring – zuletzt prominent geworden durch Chinas Sozialkreditsystem –, um die Prognose, ob jemand straffällig wird, sowie um die Überwachung von Emotionen am Arbeitsplatz. 

Ein solches KI-System darf dann weder in den Verkehr gebracht noch in Betrieb genommen oder verwendet werden. Dem liegt die Einschätzung des EU-Gesetzgebers zugrunde, dass bestimmte KI-gestützte Techniken so schädlich für den einzelnen Menschen und damit auch gesamtgesellschaftlich unerwünscht sind, dass sie grundsätzlich unterbunden werden müssen.

Verbot von Manipulation, Täuschung & Social Scoring

Zu den verbotenen Praktiken gehört zum Beispiel der Einsatz von KI-Systemen, die absichtlich manipulative oder unterschwellig täuschende Techniken einsetzen, um eine Person zu einem selbst- oder fremdschädigenden Verhalten zu bewegen. Hierbei handelt es sich in der Theorie etwa um Stimulation über Audio-, Bild- oder Videodateien, die von Menschen nicht (aktiv) wahrgenommen werden, sie aber trotzdem zu gewissen Handlungen bewegen können. Ebenfalls untersagt sind KI-Systeme, die die Schwächen oder Schutzbedürftigkeit einer natürlichen Person aufgrund des Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen und dies dann zu einem Schaden führt.

Ausdrücklich verboten sind unter bestimmten Bedingungen zudem KI-Systeme zur Bewertung und Einstufung von Personen auf der Grundlage ihres sozialen Verhaltens oder bestimmter Persönlichkeitsmerkmale, wenn dies zu einer Schlechterstellung führt. Damit gemeint ist insbesondere das sogenannte Social Scoring, welches in den letzten Jahren besondere Aufmerksamkeit durch das chinesische Sozialkreditsystem erhalten hat. Hier sammelt der chinesische Staat Daten über seine Bürger aus deren Arbeits- und Privatleben, wertet sie aus und lässt sie in ein Punktekonto einfließen. Der Punktestand ist dabei an gewisse Vor- und Nachteile geknüpft: Bei wenig Punkten folgen Einschränkungen, wie etwa der Verlust von Kreditwürdigkeit. Bei einem hohen Score winken bevorzugte Behandlungen, etwa bei der Zulassung für Schulen, bei sozialen Leistungen oder beim Abschluss von Versicherungen.

Ein derartiges KI-System, das das Verhalten von Privatpersonen bewertet, ist verboten, soweit das Ergebnis dazu führt, dass bestimmte Personen benachteiligt werden, ohne dass diese Benachteiligung in einem Zusammenhang zur ursprünglichen Datenerhebung steht. So dürfen etwa Social-Media-Daten nicht zur Bewertung der Kreditwürdigkeit herangezogen werden. Es soll insgesamt gerade nicht möglich sein, als "Störfaktor" wahrgenommene Bürger, wie etwa regimekritische Blogger, mit Nachteilen zu überziehen. Das Verbot des Social Scoring dient somit dem primären Zweck, die Ausgrenzung bestimmter Personengruppen zu verhindern.

Strenge Vorgaben für Verbrechensprognosen und Profiling

Ein weiterer Bereich der verbotenen Praktiken im KI-Bereich betrifft die Prävention von Straftaten. Der AI Act soll unter anderem eine Zukunft verhindern, wie im Film "Minority Report" mit Tom Cruise aus dem Jahr 2002 zu sehen war. Dieser Film spielt in einer Zukunft, in der Verbrechen durch sogenannte "Precogs" vorhergesagt und verhindert werden.

Untersagt sind konkret KI-Systeme zur Durchführung der Prognose, dass eine Person eine Straftat begeht. Dieses Verbot gilt allerdings nur, wenn diese Risikobewertung ausschließlich auf der Grundlage des Profilings einer natürlichen Person oder der Bewertung der persönlichen Merkmale und Eigenschaften beruht. Der EU-Gesetzgeber hatte hier wohl das in den USA bereits verfügbare KI-System COMPAS im Hinterkopf, welches zur Bewertung des Rückfallrisikos straffälliger Personen von Gerichten eingesetzt wird. Dieses auch in den USA umstrittene System wird mit verschiedenen Parametern, wie etwa Alter und Geschlecht, aber auch die Anzahl von Verweisen aus der Schulzeit, gefüttert und prognostiziert dann die Wahrscheinlichkeit, dass der Angeklagte erneut eine Straftat begeht.

Ein wenig Unterstützung durch KI darf dennoch sein: Das Verbot gilt zum Beispiel nicht für KI-Systeme, die die menschliche Bewertung unterstützen, ob eine Person an einer kriminellen Tätigkeit beteiligt ist, wenn sich die Bewertung bereits auf objektive und überprüfbare Tatsachen stützt.

Immer schön lächeln, wenn der Chef sich meldet?

Der AI Act verbietet auch KI-Systeme, die Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen ableiten können. Der Arbeitgeber darf also beispielsweise nicht mit der Webcam überwachen, ob sich die Arbeitnehmer freuen oder ärgern, wenn eine E-Mail vom Chef eingeht.

Ausnahmen vom Verbot sieht der AI Act nur dann vor, wenn die Verwendung des KI-Systems aus medizinischen oder Sicherheitsgründen erfolgt. Denkbar wäre etwa ein KI-System, das medizinische Notfälle oder sonstige Gefahrensituationen erkennt.

Keine biometrische Echtzeit-Identifizierung und keine Kategorisierung

Ebenfalls unter bestimmten Bedingungen verboten sind KI-Systeme zur biometrischen Kategorisierung, mit denen natürliche Personen individuell auf der Grundlage ihrer biometrischen Daten in Schubladen eingeordnet werden. Biometrische Daten sind dabei – vereinfacht gesagt – jede Art von Informationen über die physischen Merkmale einer Person.

Der AI Act untersagt konkret eine solche Kategorisierung unter anderem bezogen auf die – im Wortlaut der Verordnung so bezeichnete – "Rasse", die politischen Einstellungen, die Gewerkschaftszugehörigkeit, religiöse oder weltanschauliche Überzeugungen, das Sexualleben und die sexuelle Ausrichtung. Derartige Kategorisierungen sind also grundsätzlich unzulässig. Eine Ausnahme gilt aber für die Kategorisierung biometrischer Daten im Bereich der Strafverfolgung.

Neben der biometrischen Kategorisierung regelt der AI Act auch die biometrische Identifizierung. Darunter versteht man die Identifizierung einer Person anhand ihrer individuellen, biologischen oder verhaltensbasierten Merkmale. Zu diesen Merkmalen zählen das Gesicht sowie Körperform, Stimme, Gang oder Haltung. Liegen entsprechende Datensätze vor, können bestimmte KI-Systeme theoretisch die jeweilige Person durch eine Auswertung von Überwachungskameras finden. Für Ermittler wäre dies eine große Erleichterung, für viele andere, insbesondere von den Maßnahmen Betroffene, ein Schreckensszenario.

Der AI Act hat nun versucht, hier einen Kompromiss zu finden. Grundsätzlich dürfen auch zur Verfolgung von Straftaten in öffentlich zugänglichen Räumen keine Fernidentifizierungssysteme in Echtzeit verwendet werden. Aber es gibt auch Ausnahmen. Sofern ein biometrisches Echtzeit-Fernidentifikationssystem unbedingt erforderlich ist, um beispielsweise gezielt nach bestimmten Opfern von Entführungen oder von Menschenhandel zu suchen, dann ist dies erlaubt. Ebenfalls ausgenommen vom Verbot ist der Einsatz solcher Systeme unter anderem zum Abwenden einer unmittelbaren Lebensgefahr oder bei der Gefahr eines Terroranschlags. Schließlich darf eine biometrische Echtzeit-Fernidentifizierung unter bestimmten Voraussetzungen sogar zum Aufspüren oder Identifizieren von Tatverdächtigen eingesetzt werden.

KI-Modelle mit allgemeinem Verwendungszweck

Inmitten des Gesetzgebungsverfahrens zum AI Act erkannte die EU zudem eine zentrale Schwäche des risikobasierten Ansatzes: Er passt schlicht nicht auf die KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI – GPAI). GPAI-Modelle dienen oft als Grundlage für anwendungsspezifische KI-Systeme (bestehend aus KI-Modell und entsprechender Soft- und Hardware für den spezifischen Einsatzzweck, etwa im Rahmen der Medizintechnik). Beispiele für solche GPAI-Modelle sind etwa GPT 4 von OpenAI oder Claude 3 Opus von Anthropic. 

Der risikobasierte Ansatz des AI Act richtete sich jedoch allein an KI-Systeme mit einem spezifischen Einsatzzweck. GPAI-Modelle, die als Grundlage für spezifische KI-Systeme dienen, wären damit nicht vom AI Act erfasst gewesen. Das wäre nicht zuletzt besonders nachteilig für Anbieter von spezifischen KI-Systemen in Hochrisiko-Bereichen gewesen und hätte den Regulierungsansatz AI insgesamt in Frage gestellt. Denn Anbieter von Hochrisiko-Systemen, die auf GPAI-Modellen aufsetzen, sind zu einem gewissen Grad von den GPAI-Modell-Anbietern abhängig. Enthalten Anbieter von spezifischen Hochrisiko-Systemen von den GPAI-Modell-Anbietern ihrerseits keine Informationen und Dokumentationen über das jeweilige Grundlagenmodell, können sie ihren eigenen Pflichten nach dem AI Act, zum Beispiel ihren Transparenzpflichten, nicht entsprechen.

Die Regulierung von GPAI-Modellen ist also vom Gedanken einer KI-Wertschöpfungskette geprägt: GPAI-Modelle werden als erstes Glied oder auch Grundlage dieser Wertschöpfungskette berücksichtigt. Ihre Anbieter treffen umfassende Dokumentations- und Informationspflichten. 

Aufgrund dieses Grundlagencharakters und der enormen Fähigkeiten von einigen GPAI-Modellen erkennt der EU-Gesetzgeber bei besonders leistungsfähigen Modellen zudem ein systemisches Risiko: je leistungsstärker das Modell, desto schwerwiegender die potenziellen negativen Konsequenzen seiner Anwendung. So befürchtet die EU, dass auf der Grundlage besonders leistungsstarker GPAI-Modelle besonders effizient “Fakenews” geschaffen und verbreitet oder neue chemische Waffen kreiert werden könnten. Besonders leistungsfähige GPAI-Modelle unterliegen daher zusätzlichen gesonderten Anforderungen, um etwaigen Risiken, die von ihnen ausgehen könnten, entgegenzuwirken. Zum Beispiel sieht der AI Act die Pflicht vor, einschlägige Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen zu erfassen, zu dokumentieren und das neu durch den AI Act geschaffene KI-Büro hierüber zu unterrichten.

Die Autoren arbeiten als Rechtsanwälte bei Hogan Lovells International LLP in der Praxisgruppe Intellectual Property, Media & Technology in Hamburg.

  • Drucken
  • Senden
  • Zitieren
Zitiervorschlag

Verbotene Praktiken unter dem AI Act: . In: Legal Tribune Online, 08.08.2024 , https://www.lto.de/persistent/a_id/55171 (abgerufen am: 12.01.2026 )

Infos zum Zitiervorschlag
  • Mehr zum Thema
    • Europa- und Völkerrecht
    • Digitalisierung
    • Europa
    • Produkthaftung
e-Akte 07.01.2026
e-Akte

Oberlandesgericht rügt Landgericht:

Schlu­d­rige Digi­ta­li­sie­rung der Pro­zess­akte führt zu Ver­fah­rens­fehler

Das OLG Saarbrücken verweist einen Rechtsstreit zurück ans LG. Aber nicht, weil es anderer Meinung ist – sondern weil es die übermittelte E-Akte für derart unvollständig hält, dass eine rechtsstaatskonforme Entscheidung unmöglich sei.

Artikel lesen
Flüchtlinge kommen in der hessischen Erstaufnahmeeinrichtung in Gießen an. 05.01.2026
Asyl

Migrationsbilanz 2025:

Deut­lich weniger Asy­l­an­träge, mehr Abschie­bungen

2025 stellten deutlich weniger Menschen in Deutschland einen Asylantrag – minus 51 Prozent gegenüber 2024. Gleichzeitig stieg die Zahl der Abschiebungen um rund 20 Prozent.

Artikel lesen
Präsident des EuGH Prof. Dr. Koen Lenaerts bei einer Rede am 15.09.2023 27.12.2025
EuGH

Sollte man kennen:

Sieben wich­tige EuGH-Ent­schei­dungen 2025

Upload-Filter-Diskussion reaktiviert, Mitgliedstaaten an die Menschenwürde von Asylbewerbern erinnert und Streit mit Polen eskaliert: Das Jahr 2025 war auch am EuGH spannend und thematisch breit gefächert. Ein Best-of.

Artikel lesen
Videoverhandlung 23.12.2025
Zivilprozess

VerfGH rüffelt Amtsrichter:

Zu bequem, um Vide­o­ver­hand­lung für Schwer­be­hin­derte zu ermög­li­chen?

Schwerbehinderte und reiseunfähige Parteien sind in Sachen Videoverhandlung besonders schutzwürdig, hat der VerfGH Baden-Württemberg klargestellt. In dem Fall lehnte das AG die Videoverhandlung mehrfach ab, obwohl eine Partei reiseunfähig ist.

Artikel lesen
Bundeskanzler Friedrich Merz (CDU) geht nach der Pressekonferenz nach dem EU-Gipfel. Im Hintergrund sind an der Wand der Schriftzug "Europäischer Rat" und eine EU- und Deutschlandflagge zu sehen. 19.12.2025
Politik

EU einigt sich:

Geld für Ukraine gesi­chert, aber nicht aus rus­si­schem Ver­mögen

Es wurde viel diskutiert, gerungen, gebangt. Nun das Ergebnis: Die EU hat die Finanzierung der Ukraine für die kommenden zwei Jahre gesichert, jedoch ohne nach dem "Modell Merz" auf das eingefrorene russische Vermögen zurückzugreifen.

Artikel lesen
Christiane Bahner mit zwei Islandpferden. 19.12.2025
Ausland

Erste Anwältin mit deutschem Staatsexamen auf Island:

"Ich war bekannt wie ein bunter Hund"

Selbst die Rechtsanwaltskammer auf Island musste überlegen, was zu tun ist, als Christiane Bahner sich bei ihr mit ihrem deutschen Staatsexamen gemeldet hat. Seit gut zwanzig Jahren ist sie dort Anwältin – und genießt die Ruhe.

Artikel lesen
lto karriere logo

LTO Karriere - Deutschlands reichweitenstärkstes Karriere-Portal für Jurist:innen

logo lto karriere
Jetzt registrieren bei LTO Karriere

Finde den Job, den Du verdienst 100% kostenlos registrieren und Vorteile nutzen

  • LTO Job Matching: Finde den Job & Arbeitgeber, der zu Dir passt.
  • Jobs per Mail: Verpasse keine neuen Job-Angebote mehr.
  • One-Klick Bewerbung: Dein Klick zum neuen Job, einfach und schnell.
Das Passwort muss mindestens 8 Zeichen lang sein und mindestens einen Großbuchstaben, einen Kleinbuchstaben, eine Zahl und ein Sonderzeichen enthalten (z.B. #?!@$%^&*-).
Pflichtfeld *

Nur noch ein Klick!

Wir haben Dir eine E-Mail gesendet. Bitte klicke auf den Bestätigungslink in dieser E-Mail, um Deine Anmeldung abzuschließen.

Weitere Infos & Updates einfach und kostenlos direkt ins Postfach.

LTO Karriere Newsletter

Das monatliche Update mit aktuellen Stellenangeboten & Karriere-Tipps.

LTO Daily

Jeden Abend um 18 Uhr die wichtigsten News vom Tag.

LTO Presseschau

Jeden Morgen um 7:30 Uhr die aktuelle Berichterstattung über Recht und Justiz.

Pflichtfeld *

Fertig!

Um die kostenlosen Nachrichten zu beziehen, wechsle bitte nochmal in Dein Postfach und bestätige Deine Anmeldung mit dem Bestätigungslink.

Du willst Dein Bewerberprofil direkt anlegen?

Los geht´s!
ads lto paragraph
lto karriere logo
ads career people

Wir haben die Top-Jobs für Jurist:innen

Jetzt registrieren
logo lto karriere
TopJOBS
Logo von Personalamt der Freien und Hansestadt Hamburg
Voll­ju­rist:in­nen (m/w/d) - Trainee­pro­gramm für an­ge­hen­de...

Personalamt der Freien und Hansestadt Hamburg , Ham­burg

Logo von Oberlandesgericht Celle
Rich­ter/-in (w/m/d) bzw. Staats­an­walt / -an­wäl­tin (w/m/d) im Be­zirk des...

Oberlandesgericht Celle

Logo von BfDI - Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit
Voll­ju­ris­tin­nen und Voll­ju­ris­ten (m/w/d)

BfDI - Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit , Ber­lin

Logo von BfDI - Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit
Voll­ju­ris­tin­nen und Voll­ju­ris­ten (m/w/d)

BfDI - Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit , Bonn

Logo von RechtDialog Rechtsanwaltsgesellschaft mbH
Rechts­an­wäl­te (m/w/d) als An­ge­s­tell­te oder in frei­er Mit­ar­beit

RechtDialog Rechtsanwaltsgesellschaft mbH , 100% Re­mo­te

Logo von Oberlandesgericht Celle
Rich­ter/-in (w/m/d) bzw. Staats­an­walt / -an­wäl­tin (w/m/d) im Be­zirk des...

Oberlandesgericht Celle

Logo von Clarios Germany GmbH & Co. KG
Rechts­re­fe­ren­dar (m/w/d) für die Wahl­sta­ti­on

Clarios Germany GmbH & Co. KG , Han­no­ver

Logo von Baker McKenzie Rechtsanwaltsgesellschaft mbH von Rechtsanwälten und Steuerberatern
Mid-Le­vel As­so­cia­tes | Tra­de, Com­p­li­an­ce & In­ves­ti­ga­ti­on | Ber­lin

Baker McKenzie Rechtsanwaltsgesellschaft mbH von Rechtsanwälten und Steuerberatern , Ber­lin

Mehr Stellenanzeigen
logo lto events
Logo von GvW Graf von Westphalen
Rechtsprechungs­report: Gewerbliches Mietrecht

20.01.2026

Logo von GvW Graf von Westphalen
Rechtsprechungs­report: Privates Baurecht

20.01.2026

Infoanlass (online) «Berufsbegleitendes Doktoratsstudium der Rechtswissenschaften»

20.01.2026

Update Umwandlungen

22.01.2026

Online-Seminar! § 15 FAO - GmbH - Geschäftsführende im Arbeitsrecht

21.01.2026

Mehr Events
Copyright © Wolters Kluwer Deutschland GmbH