Jednocześnie zarówno Facebook, jak i Twitter trzymają się doktryny, że treści zamieszczane przez wybranych urzędników zasługują na większą ochronę niż materiały pochodzące od zwykłych osób, dając w ten sposób wypowiedziom polityków większą moc niż wypowiedzi ludzi. Takie stanowisko jest sprzeczne z licznymi dowodami na to, że nienawistne wypowiedzi osób publicznych mają większy wpływ niż podobne wypowiedzi zwykłych użytkowników.
Jasne jest jednak, że te polityki nie są stosowane równomiernie na całym świecie. W końcu Trump nie jest jedynym światowym przywódcą wykorzystującym te platformy do wzniecania niepokojów. Wystarczy spojrzeć na BJP, partię premiera Indii Narendry Modiego, aby uzyskać więcej przykładów.
Choć z pewnością istnieją krótkoterminowe korzyści i mnóstwo satysfakcji, które można mieć z zakazu Trumpa, decyzja (i te, które pojawiły się przed nią) podnoszą bardziej fundamentalne pytania dotyczące mowy. Kto powinien mieć prawo do decydowania, co możemy, a czego nie możemy powiedzieć? Co to znaczy, gdy korporacja może cenzurować urzędnika państwowego?
Pracownicy Facebooka, a w szczególności Mark Zuckerberg, przez lata pokazywali się jako kiepscy sędziowie tego, co jest, a co nie jest odpowiednim wyrażeniem. Od zakazu platformy na piersi do jego tendencji do zawieszania użytkowników za mówienie przeciwko mowie nienawiści, lub jego całkowita niezdolność do usunięcia wezwań do przemocy w Myanmar, Indie, i gdzie indziej, po prostu nie ma powodu, aby ufać Zuckerberg i innych liderów technologicznych, aby uzyskać te wielkie decyzje prawo.
Uchylenie 230 nie jest odpowiedzią
Aby rozwiązać te problemy, niektórzy wzywają do większej regulacji. W ostatnich miesiącach z obu stron sceny politycznej pojawiły się żądania uchylenia lub zmiany sekcji 230 – prawa, które chroni firmy przed odpowiedzialnością za decyzje podejmowane w sprawie treści, które udostępniają – pomimo poważnych przekłamań ze strony polityków, którzy powinni wiedzieć lepiej, jak to prawo faktycznie działa.
Chodzi o to, że uchylenie Sekcji 230 prawdopodobnie nie zmusiłoby Facebooka lub Twittera do usunięcia tweetów Trumpa, ani nie uniemożliwiłoby firmom usuwania treści, które uznają za nie do przyjęcia, niezależnie od tego, czy ta treść jest pornografią, czy niezrównoważonymi tyradami Trumpa. To właśnie prawa firm do Pierwszej Poprawki umożliwiają im kuratorowanie swoich platform według własnego uznania.
Zamiast tego, uchylenie sekcji 230 utrudniłoby konkurentom Facebooka i innych gigantów technologicznych, a także umieściłoby większe ryzyko odpowiedzialności na platformach za to, co zdecydują się gościć. Na przykład, bez Sekcji 230, prawnicy Facebooka mogliby zdecydować, że hosting treści antyfaszystowskich jest zbyt ryzykowny w świetle ataków administracji Trumpa na antifę.
To nie jest daleko idący scenariusz: Platformy już teraz ograniczają większość treści, które mogłyby być nawet luźno powiązane z zagranicznymi organizacjami terrorystycznymi, z obawy, że ustawy o wsparciu materialnym mogłyby pociągnąć je do odpowiedzialności. W rezultacie usunięto dowody zbrodni wojennych w Syrii i istotne kontr-materiały przeciwko zagranicznym organizacjom terrorystycznym. Podobnie, platformy znalazły się pod ostrzałem za blokowanie wszelkich treści pozornie związanych z krajami objętymi sankcjami USA. W jednym szczególnie absurdalnym przykładzie, Etsy zakazał ręcznie robionej lalki, wykonanej w Ameryce, ponieważ wpis zawierał słowo „perski.”
Nietrudno zauważyć, jak zaostrzenie odpowiedzialności platform może spowodować, że jeszcze więcej istotnych wypowiedzi zostanie usuniętych przez korporacje, których jedynym interesem nie jest „łączenie świata”, ale czerpanie z niego zysków.
Platformy nie muszą być neutralne, ale muszą grać fair
Wbrew temu, co powtarza senator Ted Cruz, nie ma nic, co wymagałoby, aby te platformy były neutralne, ani nie powinno być. Jeśli Facebook chce bootować Trumpa lub zdjęcia matek karmiących piersią – to prerogatywa firmy. Problem nie polega na tym, że Facebook ma prawo to zrobić, ale że – dzięki swoim przejęciom i nieograniczonemu wzrostowi – jego użytkownicy nie mają praktycznie gdzie się podziać i utknęli, radząc sobie z coraz bardziej problematycznymi zasadami i automatyczną moderacją treści.
Odpowiedź nie polega na uchyleniu Sekcji 230 (co znowu utrudniłoby konkurencję), ale na stworzeniu warunków dla większej konkurencji. To właśnie na tym administracja Bidena powinna skupić swoją uwagę w nadchodzących miesiącach. I te wysiłki muszą obejmować dotarcie do ekspertów moderacji treści z rzecznictwa i środowisk akademickich, aby zrozumieć zakres problemów, z jakimi borykają się użytkownicy na całym świecie, a nie tylko koncentrować się na debacie wewnątrz US.
Jeśli chodzi o platformy, wiedzą, co muszą zrobić, ponieważ społeczeństwo obywatelskie mówiło im od lat. Muszą być bardziej przejrzyste i zapewnić użytkownikom prawo do środków zaradczych w przypadku podjęcia niewłaściwych decyzji. Zasady z Santa Clara dotyczące przejrzystości i odpowiedzialności w zakresie moderacji treści – zatwierdzone w 2019 r. przez większość głównych platform, ale przestrzegane tylko przez jedną (Reddit) – oferują minimalne standardy dla firm w zakresie tych środków. Platformy powinny również trzymać się swoich dotychczasowych zobowiązań w zakresie odpowiedzialnego podejmowania decyzji. Co najważniejsze, powinny one zapewnić, że decyzje, które podejmują w sprawie wypowiedzi, są zgodne z globalnymi standardami praw człowieka, a nie wymyślać zasady na bieżąco.
Rozsądni ludzie mogą nie zgadzać się co do tego, czy akt zakazania Trumpa na tych platformach był właściwy, ale jeśli chcemy zapewnić, że platformy podejmują lepsze decyzje w przyszłości, nie możemy szukać szybkich rozwiązań.
Jillian C. York jest autorką nadchodzącej książki Silicon Values: The Future of Free Speech Under Surveillance Capitalism i dyrektorem ds. międzynarodowej wolności słowa w Electronic Frontier Foundation.
Sign inSubscribe now