Neuer AI Mode: Google weiß jetzt, wie Du denkst

Gastbeitrag von Carl Christian Müller, LL.M. und Tori Gleisinger

07.11.2025

Mit dem AI Mode verabschiedet sich Google von der klassischen Suchmaschine. Statt Linklisten liefert die KI nun direkte Antworten – mit weitreichenden Folgen für Datenschutz und Nutzerkontrolle. Von Carl Christian Müller und Tori Gleisinger.

Google hat nachgelegt: Nach dem Start der "AI Overviews" Ende März 2025 geht der Konzern den nächsten Schritt. Die Suche im Internet wird zur Unterhaltung: Nutzerinnen und Nutzer treten in einen fortlaufenden Dialog mit der KI, der Kontext und Verlauf berücksichtigt.

Der neue AI Mode verändert dabei das Fundament der Informationssuche in zweierlei Hinsicht.

Erstens: Während die AI Overviews die Trefferliste noch ergänzten, ersetzt der AI Mode sie vollständig. Statt einer Auflistung von Links erscheint eine ausformulierte, KI-generierte Antwort, die Inhalte aus verschiedenen Quellen synthetisiert. Nutzer treten direkt in einen Gesprächsmodus mit der Google-KI ein, Folgefragen und Vertiefungen inklusive.

Zweitens: Der Fokus verschiebt sich von der reinen Keyword-Suche hin zur Nutzerabsicht. Der AI Mode analysiert nicht nur, was gesucht wird, sondern auch, warum.

Offiziell begründet Google diesen Schritt mit geänderten Nutzergewohnheiten. Tatsächlich reagiert der Konzern damit auf die von ChatGPT ausgelöste Marktverschiebung: Der Chatbot mit mittlerweile über 800 Millionen wöchentlich aktiven Nutzern hat Google auf seinem ureigenen Terrain herausgefordert: der Suche im Internet. Googles Antwort darauf heißt: AI Mode – und sie markiert den Beginn einer neuen Ära der digitalen Profilbildung.

Suchanfragen werden zu Persönlichkeitsprofilen

Zwar verfügte Google auch bisher über erstaunlich detaillierte Nutzerdaten. Aus Suchverläufen, Standortdaten, Mails und Videonutzung lässt sich längst ein aussagekräftiges Verhaltensprofil ableiten. Neu ist im AI Mode jedoch, dass Google nun Zugang zu einer völlig anderen Datenkategorie erhält: der sprachlichen und kognitiven Ausdrucksform des Nutzers.

Wer mit der KI spricht, verrät unweigerlich, wie er denkt, wie strukturiert, empathisch, unsicher oder ironisch er formuliert, welche Wortfelder er bevorzugt und welche Denkmuster seine Sprache prägen. Aus diesen Dialogen lassen sich Denkstile, Emotionstypen und Bildungsniveaus ableiten, also Informationen, die bislang nur psychologische Testverfahren lieferten.

In Kombination mit Daten aus Gmail, Maps, YouTube oder Wallet würde nicht nur ein bloßes Interessenprofil entstehen, sondern eine digitale Charakterbeschreibung, ein psycholinguistisches Abbild der Person. Diese neue Form des Profilings reichte weit über das hinaus, was bisher technisch möglich war. Das Risiko liegt also nicht allein in der Datenmenge, sondern in der semantischen Tiefe der neuen Signale.

So könnten automatisierte Einschätzungen die kommunikativen Fähigkeiten im Kontext von Bewerbungen beurteilen, psychische Belastungen als Risikofaktor für Versicherungen bewerten oder bestimmte Angebots-Cluster systematisch ausschließen. Die Gefahr einer algorithmischen "Soft Discrimination" ist evident, zumal Merkmale wie sprachliche Unsicherheit, Ironie oder Stress aus Kontext und Formulierung ableitbar sind.

Diskriminierung durch Daten

Ein Beispiel: Eine Studentin nutzt den AI Mode, um Hilfe bei der Formulierung eines Motivationsschreibens zu bekommen. Sie bittet die KI, ihre bisherigen Entwürfe zu bewerten und ihren Schreibstil zu verbessern. Aus den Dialogen erkennt Google nicht nur, dass sie sich für ein Auslandsstipendium interessiert, sondern auch, dass sie eher unsicher formuliert, oft Füllwörter nutzt und Schwierigkeiten hat, ihre Argumente zu strukturieren.

Kombiniert mit Standort- und Suchdaten (Universität, Wohnort, bisherige Bewerbungen) ergibt sich ein psycholinguistisches Kompetenzprofil, quasi ein digitales Abbild ihrer Ausdrucksfähigkeit, Motivation und möglicherweise sogar ihrer sozialen Herkunft. Wird ein solches Profil später in automatisierte Auswahlverfahren eingespeist oder für Zielgruppenwerbung genutzt, kann es zu subtiler Diskriminierung führen – ohne dass die Betroffene dieses Beispiels davon erfährt.

Der Algorithmus diskriminiert dann zwar nicht offen, aber effektiv. Und hier liegt der juristische Knackpunkt: Eine solche automatisierte Risikobewertung wäre nach Art. 22 Datenschutzgrundverordnung (DSGVO) rechtswidrig, weil sie ohne ausdrückliche Einwilligung erfolgt und erhebliche Auswirkungen auf die Lebensgestaltung hat. Daher lohnt ein genauer Blick darauf, wie Google mit den Daten seiner Nutzer tatsächlich umgeht und ob bisher von Nutzern erteilte Einwilligungen in die Datennutzung auch für eine solche Profilbildung gelten.

Was macht Google mit welchen Daten?

Laut den aktualisierten Datenschutzhinweisen für die Gemini-Apps, auf deren Infrastruktur der AI Mode aufsetzt, bleibt unklar, welche Datenkategorien konkret verarbeitet werden und vor allem aus welchen Diensten sie stammen. Google benennt insofern geteilte Inhalte, wie Prompts und Sprachaufnahmen, sowie Kontextdaten aus verbundenen Diensten, ohne offenzulegen, in welchem Umfang diese Daten mit Gmail, YouTube, Maps oder Chrome verknüpft werden.

Zudem räumt Google ein, dass bestimmte Interaktionen, insbesondere manuell geprüfte Chats, bis zu drei Jahre gespeichert und zur Modellverbesserung genutzt werden. In den Hinweisen heißt es, dass einige der erhobenen Daten von Prüfern, einschließlich Dienstleistern, gelesen werden – und zwar selbst dann, wenn die Aktivitätsspeicherung deaktiviert ist. Vollständige Anonymisierung? Fehlanzeige.

Transparente Angaben darüber, welche konkreten Datentypen, Dienste und Zwecke betroffen sind, fehlen. Angesichts der tiefen Integration von Gemini in Android und der Verbindung mit der Google-Suche lässt sich eine datenübergreifende Zusammenführung über verschiedene Produkte hinweg kaum ausschließen. Sicher ist jedenfalls: Die genauen Mechanismen der datenübergreifenden Zusammenführung werden ebenso wenig offengelegt wie die eingesetzten Algorithmen, was gegen das Transparenzgebot aus Art. 5 Abs. 1 lit. a DSGVO verstößt.

Zählt die bisherige Einwilligung auch für den neuen AI Mode?

Google geht offenbar davon aus, dass die bereits erteilte Einwilligung der Nutzerinnen und Nutzer in Google-Dienste auch für den AI Mode gilt, wenn diese in ihren Kontoeinstellungen die "Web- & App-Aktivitäten" aktiviert haben. Nach Auffassung des Unternehmens soll diese Einwilligung auch die Verarbeitung im Rahmen des AI Mode abdecken. Das ist rechtlich mindestens gewagt.

Nach dem datenschutzrechtlichen Grundsatz der Zweckbindung darf eine einmal erteilte Einwilligung nicht automatisch auf neue, qualitativ andere Verarbeitungen erstreckt werden. Die ursprüngliche Zustimmung bezog sich auf die klassische Suchfunktion – nicht auf eine KI-basierte, dialogische Interaktion, bei der personenbezogene Eingaben gespeichert, analysiert und zu Trainingszwecken weiterverarbeitet werden.

Sollte Google die Verarbeitung der im Rahmen der Gemini-Apps anfallenden Daten damit begründen, dass sie zur Vertragserfüllung notwendig ist, kommt noch ein neuer Aspekt hinzu: Die Datennutzung erfasst nach den eigenen Datenschutzhinweisen des Unternehmens auch Kategorien, die über das für die reine Vertragserfüllung erforderliche Maß hinausgehen. Dazu zählen insbesondere Standortdaten, Informationen aus verbundenen Google-Diensten, etwa Such- oder YouTube-Verlauf, sowie Anruf- und Nachrichtenprotokolle bei Nutzung verknüpfter Apps.

Damit bleibt als mögliche Rechtsgrundlage das berechtigte Interesse nach Art. 6 Abs. 1 lit. f DSGVO, auf das sich Google in den Gemini-Hinweisen ausdrücklich beruft. Die Verarbeitung diene danach der Sicherheit sowie der Verbesserung der Modelle.

Meta-Urteil des OLG Köln nicht auf AI Mode übertragbar

Doch dass das ausreicht, ist juristisch nicht sicher: Das Oberlandesgericht (OLG) Köln hat in einer zu Meta ergangenen Entscheidung klargestellt, dass ein berechtigtes Interesse angenommen werden kann, wenn es sich um öffentlich zugängliche Daten handelt, diese vor der Einspeisung in die Trainingssoftware deidentifiziert wurden und die Nutzerinnen und Nutzer der Verarbeitung widersprechen können (Urt. v. 23.05.2025, Az. 15 U Kl 2/25). Im Fall des AI Mode gibt es jetzt ein Problem: Selbst wenn Google eine Deidentifizierung vornähme, blieben die Daten mit dem Nutzerkonto verknüpft. Zudem stammen sie nicht aus öffentlich zugänglichen Quellen.

Erschwerend kommt hinzu, dass der AI Mode offenbar so konzipiert ist, dass er perspektivisch auch auf Daten anderer Google-Dienste wie Gmail, YouTube oder Android zugreifen und diese nutzen kann. Entsprechende Anhaltspunkte ergeben sich bereits aus den Datenschutzhinweisen und der engen Integration des AI Modes in das Google-Ökosystem. Findet eine solche dienstübergreifende Verknüpfung tatsächlich statt, zieht Art. 5 Abs. 2 lit. b Digital Markets Act (DMA) eine klare Grenze: Ohne ausdrückliche, aktive Zustimmung der Nutzerinnen und Nutzer darf eine Zusammenführung personenbezogener Daten über verschiedene Dienste hinweg nicht erfolgen.

Auch bloße Nutzungsvoreinstellungen oder das Bestehen eines Google-Kontos genügen nicht, um eine Einwilligung anzunehmen. Ohne eine ausdrücklich eingeholte, informierte und freiwillige Zustimmung zur dienstübergreifenden Datenverknüpfung dürfte Googles Praxis mit den Anforderungen der DSGVO und den Vorgaben des DMA nur schwer vereinbar sein.

Google kalkuliert Milliardenstrafen ein

Dabei gewinnt bei einem Dienst, der tief in persönliche Kommunikations- und Nutzungsmuster eingreift, die Anforderung eines klaren, überprüfbaren Opt-Ins nochmals erheblich an Gewicht. Dass Google diesen Vorgaben gerecht werden wird, erscheint zweifelhaft, denn das Muster ist immer dasselbe: erst Tatsachen schaffen, dann Rechtsfragen klären.

Milliardenstrafen kalkuliert der Tech-Gigant offenbar von Anfang an ein, solange die unangefochtene Hoheit über Datenmengen und Nutzerprofile nicht ernsthaft gefährdet wird: Erst im Sommer hat die EU-Kommission eine Rekordstrafe von 2,95 Milliarden Euro wegen DMA-Verstößen verhängt. Für den Konzern, der allein im dritten Quartal 2025 einen Gewinn von rund 34,5 Milliarden US-Dollar erzielte, bleibt das finanziell verkraftbar.

Vielmehr fürchtet der Konzern die von der Kommission geforderten strukturellen Auflagen, die das Geschäftsmodell und die Marktmacht Googles langfristig grundlegend verändern könnten, wie etwa die organisatorische Trennung einzelner Geschäftsbereiche oder zusätzliche Compliance-Verpflichtungen.

Der Konflikt mit Brüssel ist also vorprogrammiert. Zu groß ist für Google der Druck, im Wettrennen mit Anbietern wie Perplexity oder ChatGPT den entscheidenden Vorsprung in Sachen Datenmacht zu behaupten.

Der Autor Carl Christian Müller, LL.M. ist Rechtsanwalt und Partner der Kanzlei Mueller.legal Rechtsanwälte mit Sitz in Berlin, die unter anderem auf Medien-, Urheber-, Presse- und Äußerungsrecht, gewerblichen Rechtsschutz sowie auf Fluggastrechte und Bankenrecht spezialisiert ist. Er ist zudem Justiziar des Deutschen Medienverbandes (DMV).

Die Autorin Tori Gleisinger ist seit 2023 als wissenschaftliche Mitarbeiterin bei Mueller.legal Rechtsanwälte tätig, wobei ihr Tätigkeitsschwerpunkt im Bereich des Plattformrechts liegt, insbesondere der Haftung von VLOPs. Ihr Studium der Rechtswissenschaften absolvierte sie an der Humboldt-Universität zu Berlin.

Zitiervorschlag

Neuer AI Mode: . In: Legal Tribune Online, 07.11.2025 , https://www.lto.de/persistent/a_id/58558 (abgerufen am: 16.12.2025 )

Infos zum Zitiervorschlag

LTO Karriere - Deutschlands reichweitenstärkstes Karriere-Portal für Jurist:innen

Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen