Tidigare har både Facebook och Twitter hållit fast vid principen att innehåll som publicerats av valda tjänstemän förtjänar mer skydd än material från vanliga privatpersoner, vilket ger politikers tal mer makt än folkets. Denna ståndpunkt står i strid med en mängd bevis för att hatiskt tal från offentliga personer har större effekt än liknande tal från vanliga användare.
Det är dock uppenbart att denna politik inte tillämpas jämnt över hela världen. Trump är trots allt långt ifrån den enda världsledaren som använder dessa plattformar för att underblåsa oroligheter. Man behöver bara titta på BJP, partiet för Indiens premiärminister Narendra Modi, för att få fler exempel.
Tyvärr finns det säkert kortsiktiga fördelar – och gott om tillfredsställelse – med att förbjuda Trump, men beslutet (och de beslut som föregick det) väcker mer grundläggande frågor om yttrandefrihet. Vem ska ha rätt att bestämma vad vi får och inte får säga? Vad betyder det när ett företag kan censurera en regeringstjänsteman?
Facebooks policypersonal, och Mark Zuckerberg i synnerhet, har i åratal visat sig vara dåliga bedömare av vad som är eller inte är ett lämpligt uttryck. Från plattformens förbud mot bröst till dess tendens att stänga av användare som motsätter sig hatpropaganda, eller dess totala misslyckande med att ta bort uppmaningar till våld i Myanmar, Indien och på andra håll, finns det helt enkelt ingen anledning att lita på att Zuckerberg och andra teknikledare fattar de här stora besluten på rätt sätt.
Avskaffande av 230 är inte lösningen
För att avhjälpa dessa farhågor kräver vissa att det ska finnas mer reglering. Under de senaste månaderna har det från båda sidor av gången kommit krav på att upphäva eller ändra avsnitt 230 – den lag som skyddar företag från ansvar för de beslut som de fattar om det innehåll som de är värdar för – trots en del allvarliga missuppfattningar från politiker som borde veta bättre om hur lagen faktiskt fungerar.
Saken är den att ett upphävande av avsnitt 230 förmodligen inte skulle ha tvingat Facebook eller Twitter att ta bort Trumps tweets, och det skulle inte heller hindra företag från att ta bort innehåll som de finner obehagligt, oavsett om det handlar om pornografi eller Trumps okontrollerade svordomar. Det är företagens rättigheter enligt första tillägget som gör det möjligt för dem att styra sina plattformar som de vill.
Istället skulle ett upphävande av avsnitt 230 hindra konkurrenterna till Facebook och de andra teknikjättarna och innebära en större risk för att plattformarna ska kunna hållas ansvariga för det som de väljer att lägga upp på sina plattformar. Utan avsnitt 230 skulle till exempel Facebooks advokater kunna besluta att det är för riskabelt att lägga upp antifascistiskt innehåll med tanke på Trumpadministrationens attacker mot antifa.
Detta är inget långsökt scenario: Plattformar begränsar redan det mesta innehåll som kan vara ens löst kopplat till utländska terroristorganisationer, av rädsla för att lagar om materiellt stöd kan göra dem ansvariga. Bevis på krigsförbrytelser i Syrien och vitala mottal mot terroristorganisationer utomlands har tagits bort som ett resultat av detta. På samma sätt har plattformar fått kritik för att de blockerar allt innehåll som verkar ha anknytning till länder som omfattas av amerikanska sanktioner. I ett särskilt absurt exempel förbjöd Etsy en handgjord docka, tillverkad i USA, eftersom den innehöll ordet ”persisk”.
Det är inte svårt att se hur ett utökat ansvar för plattformar skulle kunna leda till att ännu fler viktiga yttranden tas bort av företag vars enda intresse inte är att ”koppla samman världen” utan att tjäna på det.
Plattformar behöver inte vara neutrala, men de måste spela rättvist
Trots vad senator Ted Cruz ständigt upprepar finns det ingenting som kräver att dessa plattformar ska vara neutrala, och det bör det inte heller vara. Om Facebook vill stänga av Trump – eller bilder av ammande mödrar – är det företagets privilegium. Problemet är inte att Facebook har rätt att göra det, utan att dess användare – till följd av dess förvärv och obehindrade tillväxt – praktiskt taget inte har någon annanstans att ta vägen och måste hantera alltmer problematiska regler och automatiserad innehållsmoderering.
Lösningen ligger inte i att upphäva avsnitt 230 (vilket återigen skulle hindra konkurrensen), utan i att skapa förutsättningar för mer konkurrens. Det är på detta som Biden-administrationen bör fokusera sin uppmärksamhet under de kommande månaderna. Och dessa ansträngningar måste inbegripa att nå ut till experter på innehållsmoderering från intresseorganisationer och den akademiska världen för att förstå de olika problem som användare världen över står inför, i stället för att bara fokusera på debatten inom USA.
Vad gäller plattformarna vet de vad de behöver göra, eftersom det civila samhället har sagt det till dem i åratal. De måste vara mer öppna och se till att användarna har rätt att få rättelse när felaktiga beslut fattas. Santa Clara Principles on Transparency and Accountability in Content Moderation – som under 2019 godkändes av de flesta större plattformar men som endast en (Reddit) anslöt sig till – erbjuder minimistandarder för företag när det gäller dessa åtgärder. Plattformarna bör också hålla fast vid sina befintliga åtaganden om ansvarsfullt beslutsfattande. Viktigast av allt är att de bör se till att de beslut de fattar om yttranden är i linje med globala standarder för mänskliga rättigheter, snarare än att hitta på reglerna allteftersom.
Redliga människor kan vara oense om huruvida det var rätt att bannlysa Trump från dessa plattformar, men om vi vill se till att plattformarna fattar bättre beslut i framtiden får vi inte se till snabba lösningar.
Jillian C. York är författare till den kommande boken Silicon Values: The Future of Free Speech Under Surveillance Capitalism och chef för internationell yttrandefrihet vid Electronic Frontier Foundation.
Logga inPrenumerera nu