Meta, Microsoft & Co. werden in ganz Europa verklagt. Die Gerichte und Behörden reagieren bislang jedoch zurückhaltend. In der Debatte setzt ein Beschluss des OLG Köln bei öffentlich geteilten Inhalten zumindest Leitplanken.
Von Amsterdam bis Zagreb wenden sich Verbraucherschutz- und Interessenverbände, Datenschutz‑NGOs wie die niederländische Stiftung für Marktinformationsforschung (Somi), die Organisation None of your business (Noyb) aus Wien oder das Irish Council for Civil Liberties (ICCL) mit grenzüberschreitenden Sammel- und Unterlassungsklagen gegen "Big Tech" an die Gerichte. Die Bandbreite der Klagegegenstände reicht von App‑Store‑Gebühren über Dark Patterns bis zum KI‑Training. Die Kläger reichen (teils sogar parallel) in mehreren Mitgliedstaaten Klagen ein und wählen die ihrer Ansicht nach strengsten Foren.
Die Verbandsklagen‑Richtlinie (EU) 2020/1828, seit 2020 in Kraft, dient dabei als Hebel. Sie erlaubt qualifizierten Einrichtungen, Klagen im Verbraucherinteresse zu erheben und Schadensersatz einzufordern.
In der europäischen Durchsetzungsarchitektur wirkt dieses Konstrukt wie ein Fremdkörper. Es erhöht das Risiko divergierender Entscheidungen: zwischen Datenschutzaufsicht und Zivilgerichten ebenso wie zwischen Gerichten verschiedener Mitgliedstaaten, die im Umgang mit den diversen Tech-Konzernen jeweils eigene Maßstäbe anlegen. Ein Kohärenzmechanismus, wie ihn die Datenschutzgrundverordnung (DSGVO) für die Aufsichtsbehörden kennt, fehlt der grenzüberschreitenden Zivilgerichtsbarkeit in der EU.
KI-Training im Fokus der Interessenverbände
Anlass für einige der aktuellen Verfahren ist Metas Ankündigung, öffentliche Inhalte von Facebook und Instagram zum Training seiner KI‑Modelle zu nutzen. Das Unternehmen stützt sich dabei auf ein berechtigtes Interesse an der Datenverarbeitung. Risiken würden durch technische Maßnahmen minimiert; Betroffene könnten jederzeit widersprechen.
Die Kläger halten das Vorgehen für rechtswidrig: Meta stelle seine Profilinteressen über die Rechte der Nutzer, ohne dass ein überwiegendes Interesse an der Datennutzung bestehe. Wegen desselben Sachverhalts läuft inzwischen auch ein Eilverfahren vor dem Schleswig‑Holsteinischen Oberlandesgericht (OLG). In Belgien fordert Somi pauschal 350 Euro Schadensersatz pro erwachsenem Nutzer bis zu 2.000 Euro für Minderjährige unter 13 Jahre. Forderungen und Verfahrenskosten summieren sich schnell auf zweistellige Millionenbeträge.
Parallel heizt das Urheberrecht die Debatte an. Kreative und Verwertungsgesellschaften verlangen Lizenzen für jedes Training. Die FAZ hob das Thema jüngst auf die Wirtschaftsseite: Autorin Nina George spricht von "kreativem Raub" und taxiert den Wert eines Romans auf 60.000 Euro. Verlage warnen vor einer Erosion ihres Tantiemenpools durch KI‑Songs und fordern einen Anteil an späteren Umsätzen. Dieser Konflikt folgt eigener Logik, verstärkt aber den Gesamtdruck auf die Plattformen.
Leitplanken vom OLG in Köln
In dieses aufgeheizte Klima fällt ein Beschluss des OLG Köln (Beschl. v. 23.05.2025, Az. 15 UKl. 2/25). Die Verbraucherzentrale NRW wollte Meta das KI‑Training untersagen. Der Senat weist den Antrag nüchtern ab und lässt die Nutzung öffentlich sichtbarer Inhalte volljähriger Nutzer zu. Die Entscheidung wirkt wie ein Kompass: Sie zeigt einen Weg, der Datenschutz ernst nimmt und Innovation ermöglicht.
Das Gericht stützt sich dabei auf drei Prüfschritte:
- Das OLG hält Metas Interesse an einem regional angepassten, qualitativ verbesserten Sprachmodell für "aktuell, konkret und nicht spekulativ". Das Gericht erinnert daran, dass der EuGH wirtschaftliche Interessen ausdrücklich als berechtigt anerkenne, wenn keine milderen, gleich geeigneten Mittel zur Verfügung stehen. Die Richter verneinen ein Überwiegen der Nutzerinteressen, weil alle Daten bereits öffentlich sind und Betroffene der Verarbeitung unkompliziert widersprechen können. Das Opt-out-Formular lasse sich laut Senat ohne technische Hürden bedienen.
- Das Gericht verneint einen Verstoß gegen Art. 5 Abs. 2 lit. b Digital Markets Act (DMA). Es betont, dass Meta die Inhalte in Token zerlege und sie in einen unstrukturierten Datensatz einspeise. Eine profilstiftende Zusammenführung personenbezogener Daten über Plattformgrenzen hinweg finde nicht statt. Damit fehle das Kernelement des Verbots, nämlich die Verknüpfung zweier identifizierbarer Profile.
- Die Richter reduzieren das Verarbeitungsverbot für besondere Datenkategorien nach Art. 9 DSGVO teleologisch. Sie stützen sich auf frühere EuGH-Urteile zu Suchmaschinen und sensiblem Content und folgern, dass das Verbot erst greife, wenn Betroffene eine Entfernung verlangen. Ein generelles Trainingshindernis würde die europäische KI‑Forschung blockieren. Nutzer, die ihre Daten selbst öffentlich gemacht haben, gelten als weniger schutzbedürftig. Wer widerspreche, könne seine Inhalte herausnehmen lassen.
Einordnung und Folgen für die Wirtschaft
Das Verfahren spielt sich nicht im luftleeren Raum ab. Bereits 2024 hatte die irische Datenschutzbehörde (DPC) Metas Trainingskonzept geprüft, den Europäischen Datenschutzausschuss (EDSA) um eine Stellungnahme gebeten und Änderungen verlangt. Nach technischen Nachbesserungen durch Meta (De‑Identifizierung, zusätzliche Transparenztexte, konsequentes Opt‑out) sah die DPC keinen Anlass für ein Verbot und forderte lediglich einen Fortschrittsbericht für Oktober 2025. Gericht und Behörde liegen damit auf einer Linie. Beobachter sprechen von einer faktischen Harmonisierung noch vor einer möglichen Vorlage an den Europäischen Gerichtshof (EuGH).
Die Leitplanken des OLG Köln begrenzen zugleich das Potenzial für Forum‑Shopping – d.h. die Geltendmachung von Ansprüchen im opportunen Mitgliedstaat. Denn sollten andere Gerichte die Kriterien übernehmen, verlören die Kläger einen Teil ihres taktischen Vorteils. Das würde Europa als KI-Standort stärken, denn planbare Rahmenbedingungen machen Deutschland und Europa für KI-Investitionen attraktiver.
Offene Baustellen und Ausblick
Das OLG Köln bietet der deutschen Wirtschaft eine erste Orientierung, doch offene Baustellen bleiben: Kreative fordern weiter Vergütung, die Verbraucherzentrale NRW erwägt, in die Hauptsache zu gehen. Der Senat deutete bereits eine EuGH‑Vorlage zu Art. 9 DSGVO an, aber ein Urteil aus Luxemburg käme wohl erst in ein paar Jahren.
Die EU‑Kommission will noch 2025 Leitlinien zur neuen KI‑Verordnung vorlegen. In Brüssel heißt es, De‑Identifizierung und Opt‑out könnten zum Standardmodell werden. Bestätigt die Politik diesen Kurs, würde der Beschluss des OLG Köln zur Blaupause für die gesamte EU.
Derweil rollen Sammel- und Unterlassungsklagen wie die von Somi vorerst weiter. Doch sie treffen nun auf ein erstes Gegengewicht. Das OLG Köln formuliert einen pragmatischen Ausgleich zwischen Grundrechten und Innovationsinteresse. Es erlaubt ein KI-Training mit öffentlichen Daten, solange die Daten de-identifiziert sind, ein Opt‑out besteht und keine Profilzusammenführung erfolgt. Dieser Dreiklang entlastet die Wirtschaft, ohne Betroffene rechtlos zu stellen. Er setzt eine neue Balance im europäischen Datenrecht und verschafft der Industrie den Spielraum, um mit der globalen KI‑Entwicklung Schritt zu halten.
Der Autor Pascal Schumacher ist Rechtsanwalt und Partner bei Noerr, wo er die Praxis "Data, Tech & Telecoms" leitet. Er berät Industrieunternehmen ebenso wie einige der erfolgreichsten Tech‑Start‑ups zu KI‑ und Technologieprojekten.
Die Autorin Dr. Lea Stegemann ist Rechtsanwältin und Senior Associate bei Noerr. Sie verteidigt Unternehmen gegen die private Durchsetzung europäischen Rechts, wie beispielsweise Kartellrecht oder Datenschutzrecht.
KI‑Training zwischen Datenschutz und Innovationsstandort: . In: Legal Tribune Online, 12.08.2025 , https://www.lto.de/persistent/a_id/57883 (abgerufen am: 19.01.2026 )
Infos zum Zitiervorschlag

