Warum wir Metas KI-Training widersprechen sollten: Wir sind nicht nur Frisch-Daten-Lie­fe­r­anten

Gastkommentar von Prof. Dr. Johannes Caspar

26.06.2025

KI-Konzerne brauchen unsere Daten, je persönlicher, desto besser. An Spielregeln halten sie sich dabei nicht. Johannes Caspar mahnt: Wir sollten widersprechen, wenn wir denn können.

Als vor mehr als 15 Jahren die bunten Autos von Google mit ihren hoch aufragenden Kameras durch deutsche Städte und Dörfer rollten, berichteten Zeitungen, Rundfunk und Onlinemedien rund um die Uhr über die Fahrten. Bis in die Provinz hinein wurde klar: Die digitale Zeit hatte begonnen, und wir sind als Statisten mit dabei, gewollt oder nicht. Es erhob sich eine Welle der Empörung, als seien nicht Kleinwagen, sondern Panzer gekommen, um das Land in Besitz zu nehmen. Ein Kampf zwischen analoger und digitaler Welt, ein Angriff auf die Privatsphäre, das war die allgemeine Empfindung.

Schon damals zeichnete sich ein Grundkonflikt ab, der bis heute anhält: Müssen Konzerne vor der Datennutzung eine Einwilligung einholen (Opt-in)? Reicht ein Vorab-Widerspruch (Opt-out)? Oder dürfen sie sich ungefragt nehmen, was ihnen nützlich erscheint – das Full-Take-Modell, das sie aus ihrem Mutterland, den USA, kennen und schätzen?

Damals "Blurmany", heute die Burnout-Therapie auf Instagram teilen?

Die Widerspruchslösung, mit der sich Häuser verpixeln ließen, brachte Deutschland einst den spöttischen Beinamen "Blurmany" ein. Doch sie markierte eine vermittelnde Regelung, die bis heute für Panoramadienste gilt, auch wenn die meisten Menschen inzwischen kaum noch ein Problem darin sehen, dass ihr Wohnumfeld online sichtbar ist.

Die Ankündigung, dass Meta als weltweit größter Social-Media-Konzern künftig seine KI mit dem Datenschatz der Nutzer trainieren wird, hat eine völlig andere Dimension. Ein Aufschrei darüber, dass niemand vorher gefragt wurde, blieb aus. Dabei geht es um unsere digitalen Selbstporträts in all ihren Facetten: Benutzernamen, Profilbilder, öffentlich sichtbare Kommentare, Bewertungen, Fotos, Videos. Und im Gegensatz zu Street View ist die Regelung diesmal alles andere als kohärent.

Selbst schuld, wer einen Social Media Account hat? 

Der Widerspruch bezieht sich nur auf das eigene Konto. Posts und Bilder, die auf anderen Accounts veröffentlicht sind, etwa auf öffentlichen Seiten oder in Gruppen, sind davon nicht erfasst. Grund genug, einmal bei Regierungen, Behörden oder Parlamenten anzufragen, die zur Reichweitensteigerung gern auf Fanpages setzen. Haben sie ihre Follower durch einen Widerspruch geschützt? Zu hohe Wetten sollte man darauf lieber nicht abschließen.

Also selbst schuld, wer sich dort registrieren lässt? Weit gefehlt: Um im Zuckerberg-Imperium zu landen, braucht es keine Registrierung. Bei 45 Millionen Instagram- und 32,9 Millionen Facebook-Nutzern allein in Deutschland ist die Wahrscheinlichkeit hoch, auch als Außenstehender durch Fotos, Texte oder Markierungen erfasst zu werden („Johannes Caspar mit XY bei der Demo in Berlin“). Digitale Mitbürger wider Willen können zwar auch als Dritte Widerspruch einlegen. Doch dafür muss man konkret nachweisen, in welcher KI-Antwort die eigenen Daten aufgetaucht sind. Das ist symbolisch, statt präventiv. Die Betroffenheit bleibt in der Regel unsichtbar und die Datenzentrifuge hat ohnehin schon alles geschluckt. 

In der Hyperrealität angekommen

Was mit der Sammlung persönlicher Daten zur Profilerstellung begann, verfolgt heute ein überindividuelles Erkenntnisinteresse. Trainingsdaten sind der Treibstoff zur Erzeugung einer neuen Realität. Sie gelten dem Statischen, Wiedererkennbaren und Generalisierbaren: KI-Systeme generieren synthetische Texte, Bilder und Narrative direkt aus Datenmustern und Wahrscheinlichkeiten. Soziale Interaktion, Bewusstsein, oder ein Bezug zur Welt ist dazu nicht mehr erforderlich.  

Es entsteht eine Hyperrealität – wie sie der Soziologe Jean Baudrillard bereits in den 1980er Jahren beschrieb: Zeichen, die ursprünglich Wirklichkeit repräsentierten, lösen sich unter dem Einfluss der Medien von ihrem Ursprung. Fernsehen, Werbung und politische Kommunikation rekonstruieren die Realität nicht mehr. Stattdessen erzeugen sie ein System wechselseitiger Bezüge, das das Reale überlagert und zunehmend ersetzt. Der Unterschied: Was Baudrillard noch als kulturelles Phänomen beschreibt, geschieht heute technologisch automatisiert auf Knopfdruck. Die algorithmisch erzeugte Ordnung schafft eine digitale Wirklichkeit, die sich schrittweise gegen die physische durchsetzt. 

Digitale Frischzellen statt Inzucht

Warum also sind für das KI-Training überhaupt noch reale Individuen nötig? Könnte man nicht einfach mit synthetischen, anonymen Daten arbeiten? Wenn sich Informationen über Menschen selbst replizierten, ließen sich dann nicht Rechtskonflikte im Schnittfeld zwischen Privatheit und geistiger Urheberschaft gänzlich vermeiden? 

Doch genau das funktioniert nicht. KI, die nur noch auf künstlich erzeugtem Output trainiert wird, verliert die Anbindung an die Wirklichkeit. Der Technologieforscher Jathan Sadowski hat dafür ein einprägsames Bild gefunden: die Habsburg-KI. Die gleichnamige Dynastie verstand es, durch innerfamiliäre Heiratspolitik ihre Macht zu erweitern, doch damit beschleunigte sie gleichzeitig ihre genetische Degeneration.  

Wie die überzeichneten Kieferpartien und Erbkrankheiten der Adelslinie zeigt auch die digitale Inzucht im KI-Training ihre Deformationen: Fehlertendenzen verstärken sich und werden zu gravierenden Verzerrungen, Vielfalt, Kontext und Tiefe gehen verloren. Echtdaten sind daher als ultimative Frischzellenkur auf dem Markt innovativer KI unverzichtbar. Das ist der Grund, warum sie heute heißer begehrt sind denn je.   

Daten, die wie Zombies ein Eigenleben führen

Allerdings: Sind persönliche Daten einmal in das Räderwerk der KI-Modelle geraten, lassen sie sich, anders als Inhalte, die direkt auf den Plattformen eingegeben wurden, kaum mehr löschen. Das Recht auf Vergessenwerden löst sich auf. Die Daten leben im System weiter. Zweckentfremdet, kontextlos, undurchschaubar können sie in der Black Box wie Zombies ein Eigenleben führen. 

Diskriminierende Ergebnisse oder missbräuchliche Re-Identifizierungen sind als unschöne Überraschungen nicht ausgeschlossen. Prompt Hacking ermöglicht es, durch gezielte Eingaben geschützte Inhalte aus KI-Modellen aktiv herauszulocken. Mit Privacy-Attacken lassen sich indirekt Rückschlüsse auf vertrauliche Informationen über die Daten oder das Modell eines KI-Systems enthüllen, etwa bestimmte Personen eines sensiblen Datensatzes, z.B. einer Gruppe von Patienten.  

KI-Training nutzt zudem geistige Inhalte. Auf sozialen Plattformen veröffentlichte Bilder, Texte oder Videos können durch Stilkopie oder Bildsynthese zur Generierung von Deepfakes bis hin zur KI-Kunst dienen. Besonders für Kreative und Journalisten, die ihre Werke über soziale Medien verbreiten, droht der schöpferische Ausverkauf an die Contentmaschinen.  

Das Opt-out-Verfahren als effizienter Datenstaubsauger

Die Auseinandersetzung um Trainingsdaten hat inzwischen die Gerichte erreicht. Einen Antrag der Verbraucherzentrale NRW gegen Metas KI-Training wies das Oberlandesgericht Köln Ende Mai im Eilverfahren ab. Es machte damit den Weg frei für den ersten großen Trainingslauf.  

Das Gericht begründete dies mit einem berechtigten Interesse des Meta-Konzerns am Training seiner KI-Modelle. In Kombination mit der angebotenen Widerspruchsmöglichkeit und Metas Sicherheitsmaßnahmen zur Filterung von Namen, Telefonnummern und Kontonummern, erhält die KI-Entwicklung die Vorfahrt gegenüber den Rechten Betroffener.

Doch reicht das Widerspruchsverfahren wirklich aus? Wohl kaum. Das Prinzip "Schweigen gilt als Zustimmung" kehrt das Schutzprinzip um: Die Betroffenen müssen selbst aktiv werden, um Eingriffe in ihre Rechte zu verhindern. In der Praxis erweisen sich Opt-Out-Verfahren als effiziente Datenstaubsauger. Einerseits werden alle mit einbezogen, doch Zeitmangel, Vergessen oder Unkenntnis lassen die Daten nur so sprudeln.

Dass auch unbeteiligte Dritte betroffen sind und der Umstand, dass sich der Widerspruch nur auf das eigene Konto bezieht, macht das Schutzversprechen endgültig brüchig.

Warum wir wenigstens widersprechen sollten – wenn wir es überhaupt können

So unzulänglich das Widerspruchsverfahren auch ist – bei Systemen wie ChatGPT hat es ein solches Verfahren erst gar nicht gegeben. Die Möglichkeit, der Nutzung persönlicher Daten zu widersprechen, war schlicht nicht vorgesehen. Tatsächlich ist das Absaugen von Daten längst Industriestandard. Es erfolgt nicht nur über die Nutzung der eigenen Datenbestände, wie bei Meta oder auch bei X, sondern auch über das Scraping, bei dem Netzcrawler das Internet nach verwertbaren Inhalten durchforsten, oder über den Abschluss von Lizenzverträgen.

Während das Scraping per se eine ungefragte Aneignung darstellt, erfolgen API-Zugriffe immerhin über Vereinbarungen zwischen Entwicklern und Plattformen.  Die exemplarisch bekannt gewordene Vereinbarung zwischen Google und Reddit, bei der jährlich 60 Millionen US-Dollar für den Datenzugang an die Plattform fließen, zeigt: Die eigentlichen Datenproduzenten gehen stets leer aus. Es handelt sich hier zumeist um Verträge zu Lasten Dritter.

Sollten wir vor diesem Hintergrund also dankbar sein, dass uns Meta überhaupt einen Widerspruch anbietet? Das wäre ein Trugschluss. Auch die vermeintlich goldene Zukunft in einer Welt der Effizienz und Hyperrealität begründet keinen Anspruch, menschliche Informationen grenzenlos und ungefragt für KI-Zwecke zu sammeln. Selbst dann nicht, wenn ein Widerspruch ausbleibt. Alles andere ist nichts weniger als eine entschädigungslose Enteignung zugunsten kommerzieller Interessen.

Zwei Forderungen sind unverzichtbar: Urheber haben Anspruch auf faire Vergütung. Und Menschen, deren Daten ins KI-Training einfließen, steht das Recht zu, gefragt zu werden, sowie auf Auskunft, Löschung und Vergessenwerden.

Der Widerspruch gegen die Datenverarbeitung ist daher mehr als ein individueller Akt, insbesondere kein stilles Einverständnis mit den Spielregeln. Er ist ein kollektives und symbolisches Nein zu einer Welt, in der Systeme über Menschen und Konzerne über ihre Daten herrschen.

Johannes Caspar | picture alliance/dpa | Daniel Reinhardt alliance/dpa | Daniel ReinhardtProf. Dr. Johannes Caspar ist Honorarprofessor an der Fakultät für Rechtswissenschaft der Universität Hamburg und freier Autor. Neben dem Recht der Information und Kommunikation liegt sein Forschungsschwerpunkt auf den Veränderungen normativer Ordnungen und demokratischer Systeme durch die digitale Moderne. Von 2009 bis 2021 war er Hamburgischer Beauftragter für Datenschutz und Informationsfreiheit und vertrat ab 2015 die Aufsichtsbehörden der Bundesländer auf EU-Ebene in Brüssel.

Zitiervorschlag

Warum wir Metas KI-Training widersprechen sollten: . In: Legal Tribune Online, 26.06.2025 , https://www.lto.de/persistent/a_id/57504 (abgerufen am: 20.01.2026 )

Infos zum Zitiervorschlag

LTO Karriere - Deutschlands reichweitenstärkstes Karriere-Portal für Jurist:innen

Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen