Daniel Günthers "Ja" bei Markus Lanz: Algo­rithmen regu­lieren statt Mei­nungen bestrafen

Gastbeitrag von Carl Christian Müller, LL.M.

15.01.2026

Ein klares "Ja" von Daniel Günther bei Markus Lanz löste eine Mediendebatte aus, um die es dem CDU-Politiker ging: Meinung ja, Falschbehauptungen nein. Die Instrumente für Regulierung sind mit dem DSA schon da, meint Carl Christian Müller.

Ein einziges "Ja" reichte für eine bundesweite Mediendebatte. Als Schleswig-Holsteins Ministerpräsident Daniel Günther bei Markus Lanz (hier ab Min. 2:26) die Nachfrage, ob man bestimmte Medienangebote regulieren, zensieren oder gar verbieten" müsse, bejahte, war die Schlagzeile geschrieben. Dass er unmittelbar danach präzisierte, worauf er abzielte – ein mögliches Social-Media-Verbot für unter 16-Jährige –, ging in der Rezeption vielfach unter. Die Reaktionen folgten prompt: Zensurvorwürfe, Empörung – und eine Abmahnung des Portals Nius gegen Günthers öffentliche Kritik.

Der Streit über das "Ja" verstellt damit den Blick auf die eigentliche Frage: Nicht, ob Zensur zulässig wäre – das ist sie nicht –, sondern wo der Rechtsstaat ansetzen muss, wenn der Diskurs durch Desinformation und Erregungslogiken unter Druck gerät. Dazu ist zu unterscheiden zwischen redaktionellen Medienangeboten und Plattformkommunikation. Für beide gelten unterschiedliche Regeln – und vor allem unterschiedliche Instrumente. 

Alternative Medien und Agitationsplattformen

Die Empörung Günthers richtete sich vor allem gegen das rechtspopulistische Portal Nius. Dem warf der Ministerpräsident vor, in Bezug auf seine Person vollkommen faktenfrei zu berichten. Tatsächlich stehen sogenannte alternative Medien im Ruf, verschwörungstheoretische Inhalte oder gezielte Desinformationen zu verbreiten. 

Gleichwohl gilt: Das Grundgesetz schützt selbst die Feinde der Freiheit. Das Bundesverwaltungsgericht (BVerwG) hat dies im Juni 2025 bekräftigt, als es das vom Bundesinnenministerium angeordnete Compact-Verbot aufhob – und damit das Narrativ angeblich "abgeschafften" Meinungsfreiheit widerlegte.

Müssen Politiker und demokratische Institutionen also hinnehmen, wenn alternative Medien bewusst Unwahres verbreiten oder mit Falschzitaten und manipulativen Darstellungen arbeiten? Die klare Antwort lautet: Nein – und sie sollten es auch nicht.

Zwar steckt das Bundesverfassungsgericht (BVerfG) die Grenzen im politischen Diskurs bewusst weit; Polemik und überspitzte Kritik sind zu dulden. Diese weite Auslegung entspringt der Erkenntnis, dass demokratische Willensbildung eine robuste und auch scharfe öffentliche Auseinandersetzung benötigt. Würden die rechtlichen Hürden für Kritik zu hoch angesetzt, drohte ein lähmender Chilling Effect: Akteure könnten aus Sorge vor Sanktionen davor zurückschrecken, Missstände klar zu benennen.

Unterlassungsansprüche als wirksames Mittel

Das BVerfG zieht allerdings in seiner ständigen Rechtsprechung eine klare Grenze: Die bewusste Lüge hat im politischen Diskurs keinen Platz; sie kann nichts Wertvolles zur Meinungsbildung beitragen (Beschl. v.  03.06.1980, Az. 1 BvR 797/78). Auch Schmähungen müssen nicht hingenommen werden, wenn sie nicht mehr der Sache, sondern der persönlichen Diffamierung dienen (Beschl. v. 03.06.1987, Az. 1 BvR 313/85).

Die Durchsetzung zivilrechtlicher Unterlassungsansprüche mag mühsam erscheinen. Sie ist jedoch kein Ausdruck besonderer Dünnhäutigkeit, sondern rechtsstaatliche Normalität – und für öffentliche Amtsträger sowie Institutionen sogar geboten. Wer bewusst unwahre Tatsachenbehauptungen unwidersprochen stehenlässt, nimmt in Kauf, dass sich Delegitimierungsnarrative verfestigen und Vertrauen in demokratische Verfahren weiter erodiert. 

Die Praxis zeigt: Greifen Betroffene rechtswidrige Inhalte konsequent an, erhöht sich für deren Verbreiter das Risiko. Inhalte müssen entfernt, Unterlassungserklärungen abgegeben, Verfahrenskosten getragen und Wiederholungsverstöße teuer bezahlt werden. Auf diese Weise kann das in Eilverfahren geführte Äußerungsrecht gerade dort wirksam werden, wo das Strafrecht zu schwerfällig reagiert und regelmäßig an der Geschwindigkeit öffentlicher Empörungswellen scheitert.

Warum Strafrechts-Eskalation oftmals das falsche Werkzeug ist

Gerade vor diesem Hintergrund erscheint ein Trend bedenklich, der sich in Teilen der politischen Landschaft abzeichnet. Wenn Spitzenpolitiker die Verfolgung niedrigschwelliger Äußerungsdelikte an Legal-Tech-Strukturen auslagern, mag die Idee auf den ersten Blick nachvollziehbar erscheinen, dem Hass im Netz auf breiter Front zu begegnen. Wenn aber das massenhafte Einreichen von Strafanzeigen zum Geschäftsmodell wird, befeuert dies das Narrativ einer schwindenden Meinungsfreiheit.

Daher ist das Strafrecht bei einzelnen privaten Social‑Media‑Posts ein Instrument mit unverhältnismäßiger Eingriffsintensität. Die „Schwachkopf‑Affäre“ um Robert Habeck zeigt das exemplarisch: Eine Hausdurchsuchung wegen eines parodistischen Memes wirkt weniger wie Rechtsschutz als wie Abschreckung – und bestätigt genau die Erzählungen, die man widerlegen will. Verstärkt wird dieses Risiko durch die Tendenz, das Strafrecht in diesem Feld auszuweiten, etwa über § 188 Strafgesetzbuch (StGB) und flankierende Tatbestände.

Das ist keine Absage an das Strafrecht. Bei schweren Delikten – etwa Volksverhetzung, Bedrohungen oder koordinierter Hetze – ist die konsequente Strafverfolgung das adäquate Mittel. Entscheidend ist der passgenaue Einsatz der Instrumente: Strafrecht für schwere Angriffe auf Rechtsgüter und den öffentlichen Frieden, Äußerungsrecht gegen reichweitenstarke Akteure, die im Gewand seriöser Berichterstattung mit Unwahrheiten und Diffamierung arbeiten.

Transparenz vor Zensurdebatte

Auf Lanz' Frage nach Zensur, Verbot oder Regulierung hätte eine andere Antwort nähergelegen: Die Regeln existieren längst. Sie heißen nicht Zensur, sondern europäisches Plattformrecht – insbesondere der Digital Service Acts (DSA). Es ist der Versuch, die Machtfrage im Netz dort zu stellen, wo sie tatsächlich entschieden wird: bei der Distribution.

Zum Instrumentarium gehört zum einen das Notice‑and‑Take‑Down-Verfahren. Es ist das mildere Mittel gegenüber Strafanzeigen. Es geht nicht um staatliche Sanktionen, sondern um schnelle Reichweitenbegrenzung rechtswidriger Inhalte – mit Begründungs- und Beschwerdewegen als notwendigem Korrektiv. Gleichwohl bleibt das Symptombekämpfung: Man entfernt einzelne Inhalte, nicht den Mechanismus, der die nächste Empörungswelle schon vorbereitet. 

Der Hebel liegt im Empfehlungssystem

Das Kernproblem liegt nicht im einzelnen Post, sondern im Empfehlungssystem. Es ist gut belegt, dass große Plattformen Inhalte priorisieren, die starke negative Emotionen auslösen – vor allem Wut und Empörung –, weil diese Reaktionen Verweildauer und Interaktionen steigern. Diese Logik hat in den vergangenen Jahren erheblich dazu beigetragen, dass der öffentliche Diskurs härter, toxischer und manipulationsanfälliger geworden ist.

Der DSA setzt genau hier an. Er verpflichtet sehr große Online‑Plattformen und Suchmaschinen dazu, systemische Risiken für öffentliche Debatten, demokratische Prozesse und Grundrechte zu erkennen, zu bewerten und zu mindern (Art. 34 ff. DSA). Kernstück ist eine bis dahin beispiellose Transparenzpflicht. Plattformen müssen offenlegen, nach welchen Hauptparametern Empfehlungssysteme Inhalte auswählen, priorisieren und verstärken – und zwar bis hinein in algorithmische Parameter, die bislang als Geschäftsgeheimnisse galten. 

Mit der am 5. Dezember 2025 verhängten Millionenbuße gegen X sowie den laufenden DSA-Verfahren der EU-Kommission gegen Meta (Jugendschutz, Datentransparenz) und TikTok (Wahl- und Desinformationsrisiken) wird diese Transparenzpflicht nun greifbar. Während die EU-Kommission in Brüssel bei X bereits erste Sanktionen wegen irreführender Schnittstellendesigns und mangelndem Datenzugang für Forscher durchsetzte, dringen die weiteren Ermittlungen nun zum Kern vor: Es geht um die Frage, ob X seiner Pflicht zur Risikoanalyse bei der Verbreitung von Desinformation und Propaganda genügt. Auch bei Meta und TikTok stehen Empfehlungslogiken im Fokus, die Empörung und Polarisierung algorithmisch verstärken oder Minderjährige unzureichend schützen. Zum ersten Mal droht den Plattformen damit echter regulatorischer Zugriff auf das, was sie am empfindlichsten trifft – ihre algorithmische Steuerungslogik.

Wir Europäer sollten dieses Instrumentarium konsequent nutzen und politisch verteidigen. Möglicherweise haben wir hiermit einen Hebel geschaffen, um die Aufmerksamkeitslogik digitaler Empörung zu bremsen. Ob das gelingt, ist offen. Aber es ist der bisher ernsthafteste Versuch, den Kreislauf aus Wut, Reichweite und politischer Polarisierung zu durchbrechen – nicht mit Zensur, sondern mit Transparenz und Rechenschaftspflicht.

Foto: Müller Legal

Carl Christian Müller, LL.M. ist Rechtsanwalt und Partner der Kanzlei Mueller.legal Rechtsanwälte mit Sitz in Berlin, die unter anderem auf Medien-, Urheber-, Presse- und Äußerungsrecht, gewerblichen Rechtsschutz sowie auf Fluggastrechte und Bankenrecht spezialisiert ist. Er ist zudem Justiziar des Deutschen Medienverbandes (DMV).

Zitiervorschlag

Daniel Günthers "Ja" bei Markus Lanz: . In: Legal Tribune Online, 15.01.2026 , https://www.lto.de/persistent/a_id/59071 (abgerufen am: 16.02.2026 )

Infos zum Zitiervorschlag

LTO Karriere - Deutschlands reichweitenstärkstes Karriere-Portal für Jurist:innen

Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen