Gleichzeitig haben sowohl Facebook als auch Twitter an dem Grundsatz festgehalten, dass Inhalte, die von gewählten Amtsträgern gepostet werden, mehr Schutz verdienen als Material von gewöhnlichen Einzelpersonen, was der Rede von Politikern mehr Macht verleiht als der des Volkes. Diese Position steht im Widerspruch zu zahlreichen Beweisen dafür, dass hasserfüllte Äußerungen von Personen des öffentlichen Lebens eine größere Wirkung haben als ähnliche Äußerungen von normalen Nutzern.
Es ist jedoch klar, dass diese Politik nicht überall auf der Welt gleich angewendet wird. Schließlich ist Trump bei weitem nicht der einzige Staatschef, der diese Plattformen nutzt, um Unruhen zu schüren. Ein Blick auf die BJP, die Partei des indischen Premierministers Narendra Modi, genügt, um weitere Beispiele zu finden.
Auch wenn das Verbot von Trump sicherlich kurzfristige Vorteile und viel Genugtuung mit sich bringt, wirft diese Entscheidung (und die vorangegangenen) grundlegendere Fragen zur Meinungsfreiheit auf. Wer sollte das Recht haben, zu entscheiden, was wir sagen dürfen und was nicht? Was bedeutet es, wenn ein Unternehmen einen Regierungsbeamten zensieren kann?
Die Verantwortlichen von Facebook, insbesondere Mark Zuckerberg, haben sich seit Jahren als schlechte Richter darüber erwiesen, was eine angemessene Meinungsäußerung ist und was nicht. Ob es um das Verbot von Brüsten auf der Plattform geht oder um die Tendenz, Nutzer zu sperren, wenn sie sich gegen Hassreden aussprechen, oder um das völlige Versagen, Aufrufe zur Gewalt in Myanmar, Indien und anderswo zu entfernen – es gibt einfach keinen Grund, Zuckerberg und anderen Tech-Führungskräften zu vertrauen, dass sie diese wichtigen Entscheidungen richtig treffen.
Die Abschaffung von 230 ist nicht die Antwort
Um diese Bedenken auszuräumen, fordern einige mehr Regulierung. In den letzten Monaten wurden von beiden Seiten Forderungen laut, Abschnitt 230 – das Gesetz, das Unternehmen vor der Haftung für die Entscheidungen schützt, die sie in Bezug auf die von ihnen gehosteten Inhalte treffen – aufzuheben oder zu ändern, obwohl einige Politiker, die es eigentlich besser wissen müssten, die Funktionsweise des Gesetzes falsch dargestellt haben.
Die Sache ist die, dass die Aufhebung von Abschnitt 230 Facebook oder Twitter wahrscheinlich nicht dazu gezwungen hätte, Trumps Tweets zu entfernen, noch würde es Unternehmen daran hindern, Inhalte zu entfernen, die sie als unangenehm empfinden, ganz gleich, ob es sich dabei um Pornografie oder die verstörten Tiraden von Trump handelt. Es sind die Rechte des Ersten Verfassungszusatzes, die es den Unternehmen ermöglichen, ihre Plattformen so zu gestalten, wie sie es für richtig halten.
Stattdessen würde die Aufhebung von Abschnitt 230 die Konkurrenten von Facebook und den anderen Tech-Giganten behindern und den Plattformen ein größeres Haftungsrisiko für die Inhalte auferlegen, die sie bereitstellen. Ohne Abschnitt 230 könnten die Anwälte von Facebook beispielsweise entscheiden, dass die Aufnahme antifaschistischer Inhalte angesichts der Angriffe der Trump-Regierung auf die Antifa zu riskant ist.
Dies ist kein weit hergeholtes Szenario: Plattformen schränken bereits die meisten Inhalte ein, die auch nur lose mit ausländischen terroristischen Organisationen in Verbindung gebracht werden könnten, aus Angst, dass sie aufgrund von Gesetzen zur materiellen Unterstützung haftbar gemacht werden könnten. Beweise für Kriegsverbrechen in Syrien und wichtige Gegenrede gegen terroristische Organisationen im Ausland wurden daraufhin entfernt. In ähnlicher Weise sind Plattformen unter Beschuss geraten, weil sie Inhalte blockieren, die mit Ländern in Verbindung zu stehen scheinen, gegen die die USA Sanktionen verhängt haben. In einem besonders absurden Beispiel verbot Etsy eine handgefertigte Puppe, die in Amerika hergestellt worden war, weil das Angebot das Wort „persisch“ enthielt.
Es ist nicht schwer zu erkennen, wie eine Verschärfung der Haftung von Plattformen dazu führen könnte, dass noch mehr wichtige Äußerungen von Unternehmen entfernt werden, deren einziges Interesse nicht darin besteht, „die Welt zu verbinden“, sondern davon zu profitieren.
Plattformen müssen nicht neutral sein, aber sie müssen fair spielen
Trotz der ständigen Wiederholungen von Senator Ted Cruz gibt es nichts, was diese Plattformen zwingt, neutral zu sein, und das sollte es auch nicht. Wenn Facebook Trump – oder Fotos von stillenden Müttern – verbieten will, ist das das Vorrecht des Unternehmens. Das Problem ist nicht, dass Facebook das Recht dazu hat, sondern dass seine Nutzer aufgrund seiner Übernahmen und seines ungehinderten Wachstums praktisch nirgendwo anders hingehen können und sich mit immer problematischeren Regeln und automatisierter Inhaltsmoderation herumschlagen müssen.
Die Antwort liegt nicht in der Aufhebung von Abschnitt 230 (was wiederum den Wettbewerb behindern würde), sondern in der Schaffung der Voraussetzungen für mehr Wettbewerb. Darauf sollte die Regierung Biden in den kommenden Monaten ihr Augenmerk richten. Dazu gehört auch, dass sie sich mit Experten für die Moderation von Inhalten aus der Anwaltschaft und der Wissenschaft in Verbindung setzt, um die Probleme zu verstehen, mit denen die Nutzer weltweit konfrontiert sind, anstatt sich nur auf die Debatte in den USA zu konzentrieren.
Die Plattformen wissen, was sie zu tun haben, denn die Zivilgesellschaft hat sie seit Jahren darauf hingewiesen. Sie müssen transparenter sein und sicherstellen, dass die Nutzer das Recht haben, bei Fehlentscheidungen Abhilfe zu schaffen. Die Santa Clara Principles on Transparency and Accountability in Content Moderation (Santa Clara-Grundsätze für Transparenz und Rechenschaftspflicht bei der Moderation von Inhalten), die 2019 von den meisten großen Plattformen unterstützt, aber nur von einer (Reddit) befolgt werden, bieten Mindeststandards für Unternehmen in Bezug auf diese Maßnahmen. Die Plattformen sollten sich auch an ihre bestehenden Verpflichtungen zur verantwortungsvollen Entscheidungsfindung halten. Am wichtigsten ist, dass sie sicherstellen, dass die Entscheidungen, die sie in Bezug auf die Meinungsäußerung treffen, im Einklang mit den globalen Menschenrechtsstandards stehen, anstatt sich die Regeln selbst auszudenken.
Anständige Menschen können unterschiedlicher Meinung darüber sein, ob es richtig war, Trump von diesen Plattformen zu verbannen, aber wenn wir sicherstellen wollen, dass die Plattformen in Zukunft bessere Entscheidungen treffen, dürfen wir uns nicht auf schnelle Lösungen verlassen.
Jillian C. York ist die Autorin des in Kürze erscheinenden Buches Silicon Values: The Future of Free Speech Under Surveillance Capitalism und Direktorin für internationale Meinungsfreiheit bei der Electronic Frontier Foundation.
AnmeldenJetzt abonnieren