Immer wieder erstaunlich ist, wie lange eine solche EU-Verordnung von der ersten Initiative bis zur Verabschiedung benötigt und wie lange es folglich dauert, bis die Diskussion darüber in den nationalen Debatten ankommt. Die Beratungsprozesse rund um das „Digitale-Dienste-Gesetz“ der EU (Digital Services Act, DSA) zogen sich über Jahre hin und blieben dabei weitgehend unbemerkt von Medien und Bürgern. Schon im Juli 2021 passierte das Gesetz erstmals das EU-Parlament. Spruchreif wurde es im vergangenen Sommer – zufällig in dem Moment, als in Frankreich die Nahel-Unruhen tobten. Damals rühmte sich Binnenmarkt-Kommissar Thierry Breton, man habe während der Vorstadtrevolten bereits einige Inhalte und Profile auf TikTok und ähnlichen Medien gesperrt – unklar blieb, auf welcher Rechtsgrundlage das geschah.
Doch seit dem 16. November ist die Verordnung auf EU-Ebene in Kraft. Große Plattformen und Suchmaschinen (ab 45 Millionen Nutzern in der EU) sind seitdem dazu verpflichtet, gegen Desinformation vorzugehen. Andernfalls drohen hohe Geldbußen von bis zu sechs Prozent des globalen Umsatzes. Das können bei den Branchenriesen Milliardenbeträge sein, die die EU dann in ihren Haushalt vereinnahmen könnte.
Das ist aber nicht der wesentliche Punkt an diesem „EU-Gesetz“. Im DSA hat sich die Kommission nach jahrelanger Vorbereitung zur Kontrolleurin „sehr großer“ Online-Plattformen (etwa Facebook, TikTok, X, Youtube) und Suchdienste (Google, Bing) aufgeschwungen. Seit 2018 und noch einmal intensiver seit Ausrufung der Pandemie im Frühjahr 2020 versucht die Kommission eine immer stärkere Kontrolle über die Internet-Angebote auszuüben, wohl auch weil man den zunehmenden Einfluss der Netzwerke und Plattformen auf das eigene Geschäft (die Politik) bemerkt hatte.
Digitalministerium: Verbote für das Internet als „besseren Ort“
Daniela Kluckert (FDP), parlamentarische Staatssekretärin im Verkehrs- und Digitalministerium, stellte den Gesetzentwurf vor und bezeichnete „Lüge, Hassrede, Verleumdung von Frauen, aber auch Kinderpornographie, Angebote für gefälschte Markenprodukte“ als „unerträglich“ oder auch einfach „wirtschaftsschädlich“. Was offline verboten ist, das müsse es auch online sein. Aber zu diesem Zweck bräuchte es kein neues Gesetz und keine EU-Verordnung. Kluckert will „Verbote“ umsetzen und weist die Verantwortung dafür den privaten Plattformen zu. Sie sollen Inhalte löschen und „verfolgen“ und zusätzlich Vorkehrungen treffen, damit „solche Dinge nicht passieren“, damit das Internet „ein besserer Ort“ wird.
Das sind natürlich Leerformeln, die keiner kritischen Überprüfung standhalten. Es ist wie immer mit dieser neuen Regierungsrhetorik: Dank dem Mittel der einfachen Sprache drücken sich die Redner um die eigentlichen Probleme des Regierens herum. Denn was das Internet zu einem „besseren Ort“ machen könnte, ist nicht Gegenstand der Beratungen des Bundestags, es ist von der Kommission dekretiert und darf nun „regional“ ausgeführt werden.
Auch die Abgeordnete Tabea Rößner (Grüne) täuscht sich – wie sich nur eine Grüne täuschen kann –, wenn sie meint, dass die Kontrollstelle, die die Ampel für Deutschland plant, staatsferner agieren wird als die EU-Kommission in ihrem Aktionsfeld. Ob ein Kontrolleur nun von der Kommission oder vom Deutschen Bundestag bestellt wird, ist beim derzeitigen Stand der Demokratie fast egal. Er wird doch immer denselben Mächten dienen.
Von Storch: Künftig können jedem Protest die Netzwerke abgeschaltet werden
In ihrer Rede kritisiert Beatrix von Storch (AfD) den Digital Services Act scharf als weiteren „Baustein, um die nationalen Parlamente zu entmachten, Grundrechte willkürlich außer Kraft zu setzen“ und die Macht in die Hände von supranationalen Organisationen wie der EU zu legen. Der DSA gehe „über die Zensur durch das Netzwerkdurchsetzungsgesetz weit hinaus“. Daneben sieht sie eine verhängnisvolle Verkettung mit dem Krisenreaktionsmechanismus der EU voraus. Auch wenn der Krisenreaktionsmechanismus der EU im letzten Herbst als Teil des EU-Asylpakets vorgestellt wurde, lässt er sich in jeder „schweren und komplexen Krise“ anwenden.
Diese Äußerungen überträgt von Storch – nicht unplausibel – auf die Proteste von Gelbwesten, Lockdown-Kritikern oder Bauern, deren interne Kommunikation über Online-Dienste die EU im Krisenfall jederzeit abschalten könne. Zu rechnen sei dann mit der „raschen Entfernung“ regierungskritischer Inhalten und einer Anpassung der „algorhythmischen“ und „Empfehlungssysteme“, wie man sie allerdings aus dem alten Twitter-Universum kannte. Dort gab es ein ganzes System von Warnhinweisen, Shadow-Banning und Profilsperren.
Im Dunkeln bleibende Kontrolleure für die öffentliche Debatte
Letztlich muss man aber befürchten, dass die EU-Verordnung auch im Alltag der EU-Bürger – abseits jeder Krise – eine größere Rolle spielen wird, als vielen lieb ist. Wie alle Hassrede-Gesetze vermengt auch der DSA eindeutig rechtswidrige Inhalte mit „anderweitig schädlichen Informationen“, die durch das Gesetz vielleicht nicht unter Strafe gestellt, aber de facto schuldig gesprochen und möglichst schnell gelöscht werden, ganz so wie es die Staatssekretärin Kluckert angedeutet hat („Lüge, Hassrede, Verleumdung von Frauen, … Angebote für gefälschte Markenprodukte“). Hier wird also echte Kriminalität mit Gedankenverbrechen vermengt, die dann beide gleichbehandelt werden sollen.
Das stellt auch der Richter im Ruhestand Manfred Kölsch in einem Gastbeitrag in der Berliner Zeitung fest. Zunächst werde penibel zwischen beiden Kategorien unterschieden, die dann aber beide gleichermaßen ins Unrecht gesetzt würden. Das „Maß, an dem die Beurteilung als Desinformation ausgerichtet ist“, werde dabei von der Kommission gesetzt, und dasbedeute, dass „politisch unliebsame Meinungen, ja wissenschaftlich argumentierte Positionen gelöscht werden können“. Die Meinungsfreiheit sei in akuter Gefahr. Denn zum einen würden sich Bürger und Nutzer zunehmend einer „Vorzensur“ unterwerfen, der berühmten inneren Schere im Kopf. „Soziale Nachteile“ wie das Gesperrtwerden oder die Stigmatisierung durch gelöschte Posts würden die Bürger scheuen. Kölsch glaubt daher an eine „indirekte Zensur“, die durch den DSA ausgeübt wird.
Die dritte genannte Kategorie umfasst dann, noch vager und dadurch gefährlicher, Auswirkungen von online geteilten Inhalten auf „demokratische Prozesse, die gesellschaftliche Debatte und Wahlprozesse“. Niemand kann dieses Feld vernünftig abgrenzen, und wenn doch, müsste diese Abgrenzung öffentlich diskutiert werden, was vermutlich nicht geschehen wird. Viertens soll es, wie schon zu ahnen war, um die „öffentliche Gesundheit“ gehen, aber auch um das „körperliche und geistige Wohlbefinden“ verschiedener Personen sowie um „geschlechtsspezifische Gewalt“. Es sind sämtlich Kaugummi-Bestimmungen, die so von einem unbekannt und im Dunkeln bleibenden Gremium und Mechanismus kontrolliert werden sollen. Die Entscheidung, ob ein Online-Eintrag nachteilige Auswirkungen auf die „öffentliche Debatte“ oder die „öffentliche Gesundheit“ haben könnte, ist kaum objektivierbar.
Die EU wählt den Vordereingang zur Zensur
Doch dieses Modell hat die Kommission schon seit 2018 entwickelt. Damals wurde ein „Verhaltenskodex zur Bekämpfung von Desinformation“ (Code of Practice on Disinformation) verfasst, mit dem man auf freiwilliger Basis gegen Desinformation vorgehen wollte. Die wichtigsten Online-Dienste wurden zur Unterschrift gebracht. 2020 feierte der Code fröhliche Urständ dank der ausgerufenen Pandemie. Schon im August 2020 hatte die Twitter-Führung eine Hierarchie der Kennzeichnung und Löschung von Inhalten entworfen. Das Bemerkenswerte ist hier, dass eine Behauptung ohne Belege („unverified claim“) an sich keine Konsequenzen haben muss. Erst wenn die Behauptung von anderen „bestritten“ wird oder als „irreführend“ eingestuft wird, sollen Konsequenzen zwingend werden. Die genannten Kriterien („disputed claim“ und „misleading information“) hängen aber in hohem Maß an der subjektiven Beurteilung und Beteiligung anderer. Die Hierarchie ist ein Einfallstor für willkürliche Löschungen und Unterdrückungen von Meinungen.
In den folgenden Jahren legten Online-Unternehmen wie Twitter, Meta und Google monatliche Berichte vor, in denen sie ihr erfolgreiches Vorgehen gegen Desinformation – entweder durch Löschungen und Sperren oder durch positive Anreize – dokumentierten, offenbar im Bemühen, ihren Herren in der Kommission zu gefallen. Alleine Twitter sperrte seit Februar 2021 monatlich hunderte Profile und löschte insgesamt zehntausende Inhalte.
In einer Pressemitteilung vom März 2022 kündigte die Kommission zudem an, dass auch Informationen zum Ukraine-Krieg durch den „Code of Practice“ gefiltert werden sollen, wie die Vizepräsidentin für Werte und Transparanz Věra Jourová verkündete. Im Oktober letzten Jahres trafen die Kommissionsermittlungen die Plattform X, die Elon Musk eigentlich so frei wie möglich halten wollte. Informationen zum Gaza-Konflikt führten zum ersten Anwendungsfall des DSA. Wenig später bemerkten Nutzer die Löschung von besonders aktiven, wohl eher propalästinensischen Profilen. Dass das im Sinne der „Meinungsvielfalt“ ist, wie an der Stelle fast in einer Art Neusprech immer wieder gerne gesagt wird, darf man bezweifeln.
Das Vorgehen der Kommission unterschied sich damit anfangs nicht grundlegend von dem der US-Administration, die sich über geheime Kontakte direkten Zugriff vor allem auf Twitter verschafft hatte. Dieses hinterlistige Handeln hinter dem Rücken der Öffentlichkeit wurde durch die „Twitter-Files“-Recherchen ausführlich dokumentiert. Nun wählt die EU-Kommission den Vordereingang zum selben Zweck: Sie zwingt die Unternehmen, die noch 2022 freiwillig einen „verstärkten“ Verhaltenskodex unterschrieben haben, nun per Verordnung, den Zensurvorstellungen der Kommissare nachzukommen.