Wer moderiert? Die Plattformen. Sie löschen einerseits nach ihrem Hausrecht, zugleich auch nach nationalen Gesetzen. Das waren lange Zeit keine Social-Media-Gesetze, sondern Gesetze und Rechtsnormen aus anderen Bereichen, die zur Anwendung kamen. Zum Beispiel das Gesetz, das in Thailand die Beleidigung des Königs verbietet. Oder die Iran-Sanktionen, wegen derer Facebook und Twitter Tausende Konten gelöscht haben.  Oder in Deutschland Strafgesetzbuch §130, speziell Absatz 3 (Holocaust-Leugnung, Verherrlichung des Nationalsozialismus etc.). 

Oft spiegeln sich die geltenden Gesetze in den Hausregeln/Geschäftsbedingungen zu Löschungen wieder (Kinderpornografie, Terror-Inhalte). Auf einer weiteren Ebene speisen sich die Hausregeln aus Firmen-”Werten” (Nacktbilder) oder wurden als Reaktion auf problematische Entwicklungen (koordinierte Desinformation, Schusswaffen-Glorifizierung) entwickelt.

Diese Kontexte sind wichtig, weil sie den Plattformen häufig Interpretationsspielraum geben. Allerdings verbergen sich hier aber auch die kniffligsten Fälle – letztlich solche Grenzfälle, die dann Schlagzeilen machen oder verdeckte Community-Entwicklungen begünstigen. Und Kontext ist eben immer stärker das Geschehen in der fleischlichen Welt: Trump Sperre folgte nicht aus den vorangegangenen Ermahnungen, sondern aus der tatsächliche Erstürmung des Kapitols und der Sorge, dies könnte sich wiederholen. In Myanmar wiederum ignorierte Facebook damals den Kontext, nämlich die tatsächlichen Folgen der Hetze durch Militärs in Form von ethnischen Säuberungen.

Neben solchen Regeln gibt es auch noch Formen der kodifizierten Selbstregulierung: In der EU zum Beispiel der “Code of Conduct on countering illegal hate speech online”, den seit 2016 alle relevanten Plattformen unterzeichneten, zuletzt TikTok. In Brüssel gilt diese Selbstregulierung, die es auch für Desinformation gibt, aber als schwaches Instrument. Der im Dezember vorgestellte “Digital Services Act” wird hier einen konkreten EU-Rahmen für Plattform-Pflichten schaffen, der aber erst in einigen Jahren umgesetzt wird.

Einiges, was dann EU-weit Realität wird, ist heute schon im deutschen Netzwerkdurchsetzungsgesetz enthalten: Die Löschpflicht für gemeldete Kommentare, die “offensichtlich rechtswidrig” sind. In einer Ausweitung des NetzDG müssen Kommentare sogar samt IP-Adresse dem BKA gemeldet werden, wenn sie strafrechtlich relevant sind – für Kritiker eine Vorverlagerung staatlicher Hoheitsaufgaben auf Privatunternehmen (Befürworter verweisen als analoges Beispiel auf das Bankenwesen und die Pflicht zur Meldung von Geldwäscheverdacht). 

In einem anderen Strang erhält das NetzDG auch eine Einspruchsmöglichkeit gegen Plattform-Löschungen, und das nicht nur, wenn nach dem NetzDG gelöscht wurde (was weiterhin die Minderheit der Fälle ist), sondern auch bei Löschungen nach dem Hausrecht. Das NetzDG wäre aber für einen Fall wie bei Trump insofern nicht geeignet gewesen, als es hier nur um Content geht, nicht um Konten. Eine Lücke, die bei der konkreten Ausgestaltung des “Digital Services Act” von der EU geschlossen werden könnte – zumindest für institutionelle Konten und Amtsträger.