Al tempo stesso, sia Facebook che Twitter sono rimasti fedeli al principio che i contenuti pubblicati dai funzionari eletti meritano più protezione del materiale proveniente da individui comuni, dando così al discorso dei politici più potere di quello del popolo. Questa posizione è in contrasto con un sacco di prove che il discorso odioso da parte di figure pubbliche ha un impatto maggiore di un discorso simile da parte di utenti comuni.
E’ chiaro, però, che queste politiche non sono applicate in modo uniforme in tutto il mondo. Dopo tutto, Trump è lontano dall’essere l’unico leader mondiale che usa queste piattaforme per fomentare disordini. Basta guardare al BJP, il partito del primo ministro indiano Narendra Modi, per altri esempi.
Anche se ci sono certamente benefici a breve termine – e un sacco di soddisfazione – da avere dal bandire Trump, la decisione (e quelle che l’hanno preceduta) sollevano questioni più fondamentali sul discorso. Chi dovrebbe avere il diritto di decidere cosa possiamo e non possiamo dire? Cosa significa quando una società può censurare un funzionario del governo?
Il personale politico di Facebook, e Mark Zuckerberg in particolare, hanno dimostrato per anni di essere cattivi giudici di ciò che è o non è espressione appropriata. Dal divieto della piattaforma sui seni alla sua tendenza a sospendere gli utenti per parlare contro i discorsi d’odio, o il suo totale fallimento nel rimuovere gli appelli alla violenza in Myanmar, India e altrove, semplicemente non c’è motivo di fidarsi di Zuckerberg e altri leader tecnologici per prendere queste grandi decisioni nel modo giusto.
Abrogare 230 non è la risposta
Per rimediare a queste preoccupazioni, alcuni stanno chiedendo una maggiore regolamentazione. Negli ultimi mesi, le richieste hanno abbondato da entrambi gli schieramenti per abrogare o modificare la sezione 230 – la legge che protegge le aziende dalla responsabilità per le decisioni che prendono sui contenuti che ospitano – nonostante alcuni gravi travisamenti da parte di politici che dovrebbero sapere meglio come funziona effettivamente la legge.
Il fatto è che l’abrogazione della sezione 230 probabilmente non avrebbe costretto Facebook o Twitter a rimuovere i tweet di Trump, né avrebbe impedito alle aziende di rimuovere i contenuti che trovano sgradevoli, sia che si tratti di pornografia o delle farneticazioni sconnesse di Trump. Sono i diritti del Primo Emendamento delle aziende che permettono loro di curare le loro piattaforme come meglio credono.
Invece, l’abrogazione della Sezione 230 ostacolerebbe i concorrenti di Facebook e degli altri giganti della tecnologia, e metterebbe un maggiore rischio di responsabilità sulle piattaforme per ciò che scelgono di ospitare. Per esempio, senza la Sezione 230, gli avvocati di Facebook potrebbero decidere che ospitare contenuti antifascisti è troppo rischioso alla luce degli attacchi dell’amministrazione Trump contro l’antifa.
Questo non è uno scenario inverosimile: Le piattaforme già limitano la maggior parte dei contenuti che potrebbero essere anche solo vagamente collegati alle organizzazioni terroristiche straniere, per paura che gli statuti di supporto materiale potrebbero renderli responsabili. Prove di crimini di guerra in Siria e vitali contro le organizzazioni terroristiche all’estero sono state rimosse come risultato. Allo stesso modo, le piattaforme sono finite sotto tiro per bloccare qualsiasi contenuto apparentemente collegato a paesi sotto sanzioni statunitensi. In un esempio particolarmente assurdo, Etsy ha vietato una bambola fatta a mano, fatta in America, perché l’annuncio conteneva la parola “persiano”.
Non è difficile vedere come l’aumento della responsabilità delle piattaforme potrebbe causare la rimozione di un discorso ancora più vitale da parte di società il cui unico interesse non è quello di “collegare il mondo” ma di trarne profitto.
Le piattaforme non hanno bisogno di essere neutrali, ma devono giocare onestamente
Nonostante ciò che il senatore Ted Cruz continua a ripetere, non c’è nulla che richieda a queste piattaforme di essere neutrali, né dovrebbe esserci. Se Facebook vuole eliminare Trump – o le foto di madri che allattano – è una prerogativa dell’azienda. Il problema non è che Facebook ha il diritto di farlo, ma che, grazie alle sue acquisizioni e alla sua crescita incontrollata, i suoi utenti non hanno praticamente nessun altro posto dove andare e sono bloccati da regole sempre più problematiche e dalla moderazione automatica dei contenuti.
La risposta non è l’abrogazione della sezione 230 (che, di nuovo, ostacolerebbe la concorrenza) ma la creazione delle condizioni per una maggiore concorrenza. Questo è dove l’amministrazione Biden dovrebbe concentrare la sua attenzione nei prossimi mesi. E questi sforzi devono includere il raggiungimento di esperti di moderazione dei contenuti dall’avvocatura e dal mondo accademico per capire la gamma di problemi affrontati dagli utenti in tutto il mondo, piuttosto che concentrarsi semplicemente sul dibattito all’interno degli Stati Uniti.
Per quanto riguarda le piattaforme, sanno cosa devono fare, perché la società civile ha detto loro per anni. Devono essere più trasparenti e garantire che gli utenti abbiano il diritto di rimediare quando vengono prese decisioni sbagliate. I Santa Clara Principles on Transparency and Accountability in Content Moderation – approvati nel 2019 dalla maggior parte delle principali piattaforme ma rispettati solo da una (Reddit) – offrono standard minimi per le aziende su queste misure. Le piattaforme dovrebbero anche attenersi ai loro impegni esistenti per un processo decisionale responsabile. La cosa più importante è che dovrebbero garantire che le decisioni che prendono sul discorso siano in linea con gli standard globali dei diritti umani, piuttosto che inventare le regole man mano che vanno avanti.
Persone ragionevoli possono essere in disaccordo sul fatto che l’atto di bandire Trump da queste piattaforme sia stato quello giusto, ma se vogliamo garantire che le piattaforme prendano decisioni migliori in futuro, non dobbiamo guardare a soluzioni rapide.
Jillian C. York è l’autore del libro di prossima pubblicazione Silicon Values: The Future of Free Speech Under Surveillance Capitalism e direttore per la libertà di espressione internazionale alla Electronic Frontier Foundation.
Sign inSubscribe now