Tiktok drosselte den Account von AfD-EU-Kandidat Maximilian Krah. Das mag wegen fragwürdiger Videos nachvollziehbar sein – transparent ist es nicht. Warum der Staat das Feld nicht Digitalriesen überlassen darf, dazu Chan-jo Jun und Jessica Flint.
Ende März hat sich TikTok schließlich dazu durchgerungen, einige Videos des Europa-Spitzenkandidaten der AfD und ehemaligen Rechtsanwaltes Maximilian Krah zu entfernen. Außerdem hat das Netzwerk seinen gesamten Kanal für 90 Tage aus der "Für Dich"-Timeline entfernt. Dies hat eine Beschränkung der Sichtbarkeit zur Folge, da er so weniger Nutzern angezeigt wird. Begründet wurde dies damit, dass Krah wiederholt gegen Community-Richtlinien verstoßen habe. Welche der Beiträge den Verstoß herbeiführten und gegen welche Richtlinien verstoßen wurde, ließ das Unternehmen dabei – zumindest in der Kommunikation nach außen – offen. Es seien fünf Videos gesperrt worden, weil sie Hassrede und hasserfülltes Verhalten enthalten hätten. Dass Krah und seine Partei sich davon ungerecht behandelt fühlen, war vorhersehbar. Krah selbst äußerte sich zu dem Vorfall dahingehend, dass für ihn nicht nachvollziehbar sei, welche Aussagen bemängelt wurden. Er fordert nun andere TikTok-Nutzer dazu auf, seine Videos zu teilen oder herunterzuladen und im eigenen Namen neu hochzuladen, um die Reichweitenbeschränkung zu umgehen.
Die Inhalte auf dem Kanal waren zwar oft hasserfüllt, sexistisch und revisionistisch, aber eben kaum strafbar. Der Staat hält sich aus diesem heiklen Content-Bereich aus Neutralitätsgründen oder möglicherweise aus Trägheit heraus und überlässt das Feld dem begrenzt überprüfbaren Hausrecht der Plattformbetreiber. Das ist keine gute Idee, zumal der seit Februar anwendbare Digital Services Act (DSA) durchaus Handlungsmöglichkeiten böte.
Nicht nur strafbare, auch "nur" rechtswidrige Inhalte müssen entfernt werden
Betrachten wir zunächst das, was bisher unstreitig war: Plattformbetreiber müssen rechtswidrige Inhalte nach substantiierter Meldung überprüfen, entfernen und dafür die nötigen Mechanismen bereithalten. Das Grundprinzip von Notice and Take Down wurde vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) in den europaweit anwendbaren DSA übernommen. Beim NetzDG hatte man die Löschungspflicht für einzelne Inhalte noch auf einen Katalog von 22 Strafnormen beschränkt. Der DSA kennt einen solchen beschränkten Katalog nicht – rechtswidrig ist nach der Legaldefinition in Art. 3 lit. h DSA jeder Inhalt, der nicht im Einklang mit Unionsrecht oder dem Recht eines Mitgliedsstaates steht. Das umfasst neben Strafrecht beispielsweise Verbraucherschutzrechte, Wettbewerbsrecht oder auch das häufig verletzte allgemeine Persönlichkeitsrecht – also auch ziviles und öffentliches Recht.
Das kann dazu führen, dass die Auftritte von Kindern von gewerblichen Momfluencern ohne Genehmigung des Ergänzungspflegers genauso als rechtswidrige Inhalte zählen wie Verstöße gegen ein bayerisches Genderverbot – also gegen eine reine Verwaltungsvorschrift. Das erscheint jetzt überraschend, weil wir uns schon daran gewöhnt hatten, dass Plattformbetreiber allenfalls bei Straftaten aktiv werden und das auch oft nur nach gerichtlicher Inanspruchnahme. Wenn die Nichtbeachtung des Rechts zur Regel und die Rechtsverfolgung zur Überraschung wird, entsteht eine Gewöhnung an das Unrecht. Wer seinen moralischen Kompass nach der erlebten Online-Anarchie ausrichtet, empfindet die tatsächliche Rechtsordnung manchmal schon als Zumutung.
Der DSA verpflichtet die Plattformbetreiber, Maßnahmen gegen Konten zu ergreifen, die häufig und regelmäßig rechtwidrige Inhalte verbreiten oder das Melde- oder interne Beschwerdemanagementsystem offensichtlich missbrauchen. Die Konten dieser Nutzer sind nach vorheriger Warnung für einen angemessenen Zeitraum zu sperren (Art. 23 DSA).
Beim Vorgehen gegen gemeldete rechtswidrige Inhalte räumt der DSA den Plattformbetreibern einen weiteren Spielraum ein. Es gilt nicht mehr nur "hopp oder top", löschen oder stehen lassen, sondern im Rahmen der Moderation dürfen sie auch andere Maßnahmen ergreifen, wie Inhalte zu demonetisieren, herabzustufen oder das Konto eines Nutzers dauerhaft zu schließen. Bei der Entscheidung, welches Vorgehen die Betreiber nach Meldung eines rechtswidrigen Inhaltes ergreifen, müssen sie zeitnah, sorgfältig, frei und objektiv handeln (Art. 16 Abs. 6 DSA). Diese Maßnahmen wurden bisher nur bei Verstößen gegen die Nutzungsbedingungen angewendet und waren dem NetzDG unbekannt. Durch die Einräumung einer abgestuften Reaktionsmöglichkeit wird dem Umstand Rechnung getragen, dass Plattformbetreiber nun auch gegen Inhalte vorgehen müssen, die deutlich schwächere Rechtsverstöße darstellen als solche, die strafbar sind.
Das bedeutet jedoch nicht, dass die Entscheidung darüber, wie gegen rechtswidrige Inhalte vorzugehen ist, allein den Plattformbetreibern überlassen wird. Die Verhältnismäßigkeit der Maßnahmen bleibt weiterhin eine Frage, welche die nationalen und damit auch die deutschen Gerichte beschäftigen wird. Dreh- und Angelpunkt des DSA ist jedoch die weite Definition rechtswidriger Inhalte, welche die Entscheidungsbefugnis darüber, was in sozialen Netzwerken zulässig ist und was nicht, auf den nationalen und den europäischen Gesetzgeber überträgt.
Trägheit des Gesetzgebers
Die deutsche Rechtsordnung kennt keinen gesetzlichen Schutz gegen Desinformation und Fake News jenseits der Beleidigungsdelikte. Um Schutzwirkungen des Gesetzes zu aktivieren, braucht es immer erst einen Personenbezug. In dem weiten Bereich der Behauptungen ohne Personenbezug hat sich insbesondere im rechten Lager das eigenartige Narrativ durchgesetzt, dass über Lüge und Wahrheit lieber Google, X und Bytedance (das Unternehmen hinter TikTok) entscheiden sollen als der Staat. Allen voran von der AfD wird dann oft lautstark mit der Vorstellung eines "Wahrheitsministeriums" und dem Vorwurf der Zensur um sich geworfen. Dabei haben wir Gerichte, die nach demokratischer Tradition genau dazu berufen wären, solche Sachentscheidungen objektiv und ohne Weisungsgebundenheit zu treffen.
Und noch ein Bereich ist in sozialen Netzwerken frei von staatlicher Regulierung: Der Schutz der Verfassung selbst. Wenn eine Aussage oder andere Inhalte die freiheitlich demokratische Grundordnung angreifen, wenn "lediglich" die Unantastbarkeit der Menschenwürde in Frage oder die Gleichheit von Staatsbürgern aufgrund ihrer Vorfahren in Abrede gestellt wird, gibt sich der Gesetzgeber gleichgültig. Und das, obwohl derartige Angriffe gegen die freiheitlich demokratische Grundordnung durch Gruppierungen und Parteien ein wesentliches Argument für die Einstufung durch den Verfassungsschutz als extremistisch oder sogar für ein Parteiverbot nach Art. 21 Abs. 2 GG und damit die schwerste Sanktion der Demokratie sein können.
Maximilian Krah ruft in seinem 2023 veröffentlichten Buch "Politik von rechts" dazu auf, die eigentlich unantastbare Menschenwürde künftig von jeglichen rechtlichen Ansprüchen zu entkleiden, weil er sich nicht mehr dem "liberalen Verständnis der Menschenwürde unterordnen" will. In seinen TikTok-Videos erklärt er, dass es Teil des "linken Menschenbildes" sei, dass alle Menschen gleich sind – im Unterschied dazu sei in der rechten Politik jeder Mensch individuell und unterschiedlich. Wie wollen wir mit solchen Inhalten und Parteien zukünftig umgehen? Oder solchen, die dazu aufrufen minderassimilierte deutsche Staatsbürger mit Migrationshintergrund zur Ausreise zu vergraulen – sich dabei aber gerade noch unterhalb der Strafbarkeitsgrenze des § 130 StGB und § 7 Abs. 1 Nr. 4 VStGB bewegen?
Strafbarkeit war ein guter Maßstab für das NetzDG. Über das verknüpfte Telemediengesetz sah das NetzDG sogar ein eigenes gerichtliches Prüfungsverfahren vor – und zwar noch vor einer Auskunftserteilung der Plattformbetreiber, um festzustellen, ob eine löschungswürdige Straftat vorliegt. Der DSA sieht ein solches Verfahren und einen entsprechenden Auskunftsanspruch nicht vor.
Auf nationaler Ebene wird der DSA durch das Digitale-Dienste-Gesetz (DDG) ergänzt. Dieses wurde am 21. April 2024 vom Bundestag verabschiedet. Es regelt insbesondere die Zuständigkeit der Bundesnetzagentur als nationale Koordinierungsstelle und bestimmt Buß- und Zwangsgelder für Verstöße gegen den DSA. Es ändert außerdem § 21 Abs. 2 TTDSG (künftig: TDDDG) und erweitert darin das Auskunftsverfahren, welches bereits eine gerichtliche Vorabentscheidung über die Rechtswidrigkeit des Inhalts enthält. Dieses gilt zukünftig über die strafrechtlichen Normen aus dem NetzDG hinaus auch für sonstige rechtswidrige audiovisuelle Inhalte. Einzelne Betroffene lassen sich damit auf die Zivilgerichte verweisen, wo immerhin auch Grundrechte über die Drittwirkung einfließen können. Aber Grundgesetz pur? Verletzung der Menschenwürde, Aufrufe die repräsentative Demokratie abzuschaffen. Dort, wo es ums Ganze geht, hält sich der Gesetzgeber heraus?
Es gibt gute Gründe, für solche Inhalte Regeln aufzustellen. Den besten Grund lieferte TikTok-Betreiber Bytedance, indem er ohne Angabe von konkreten Gründen den Account des Europa-Spitzenkandidaten Krah drosselte. Die Entscheidung mag inhaltlich nachvollziehbar gewesen sein, aber sie sollte auf rechtlichen Grundlagen basieren statt auf den Regeln der Plattformbetreiber, die bei der Ausgestaltung vorrangig von wirtschaftlichen Interessen geprägt sind. Die Internet-Unternehmen haben ihre eigenen Hausregeln aufgestellt und setzen diese über schmerzhafte Maßnahmen wie Zeitsperren und Accountlöschungen rigoros durch. Sex, Schimpfwörter oder Kritik an Elon Musk haben schon zu Sperrungen geführt.
Die Regeln folgen primär dem Ziel, durch eine Balance aus Verboten und Freiheiten das Benutzungserlebnis zu erzeugen, mit dem die Nutzer so lange wie möglich auf der Plattform gehalten werden. Beiträge, welche das Nutzungserlebnis stören, indem sie beispielsweise durch Hass oder Schock den Nutzern ein schlechtes Gefühl vermitteln, werden gesperrt oder gelöscht. Andere Beiträge, die das Erlebnis verbessern, werden verstärkt angezeigt. Je länger ein Nutzer durch ein soziales Netzwerk scrollt, desto mehr Daten kann das Netzwerk über ihn sammeln und desto gezielter und häufiger kann es ihm Werbung anzeigen. Die Nutzerdaten werden dadurch monetarisiert. Es ist offenkundig, dass diese Linie nicht immer parallel läuft zu grundrechtlichen Schutzaufträgen wie der Demokratieförderung oder dem Minderheitenschutz. Die Reichweitenreduktion von Krah diente wohl nicht dem Ziel, die deutsche Verfassung und öffentliche Willensbildung zu schützen, sondern dazu, die Auswahl der Inhalte auf TikTok für die Nutzer möglichst attraktiv zu machen.
Der DSA als Chance zur Regulierung der Plattformen
Die TikTok-Entscheidung zu Krah hat außerdem einen miefigen Beigeschmack. In einer Zeit, in der die Plattform international immer mehr in den Verdacht gerät, geltendes Recht zu missachten, geht sie derart aggressiv gegen einen Politiker vor, der für die kommende Europawahl als Spitzenkandidat antritt. Die EU-Kommission hatte kurz zuvor bekannt gegeben, dass sie eine Untersuchung gegen TikTok einleitet, in der unter anderem die Suchtgefahr der Plattform und die Einhaltung von Vorschriften zum Schutz von Minderjährigen geprüft werden sollen. Auch der US-Kongress hat gerade ein Verbotsverfahren in die Wege geleitet, da befürchtet wird, dass sich die chinesische Regierung über Bytedance Zugang zu den Daten von TikTok-Nutzern verschaffen und über die Plattform politisch Einfluss nehmen könnte.
Der DSA hat die Plattformregulierung den Mitgliedsstaaten nicht weggenommen, sondern in Wirklichkeit deren Werkzeugkasten erheblich erweitert. Jedes nationale Gesetz kann Grundlage für Moderationspflichten sein und die Reaktionspflichten der Plattformbetreiber sehen endlich neben bloßen Löschungen auch weitere Maßnahmen auf Accountebene vor. Der deutsche Gesetzgeber darf sich jetzt nicht zurücklehnen, sondern muss die Spielregeln aufstellen, die in den sozialen Netzwerken gelten sollen.
Regulierung nach dem DSA: . In: Legal Tribune Online, 30.05.2024 , https://www.lto.de/persistent/a_id/54659 (abgerufen am: 02.10.2024 )
Infos zum Zitiervorschlag