Os usuários, não os executivos de tecnologia, devem decidir o que constitui a liberdade de expressão online

Ao mesmo tempo, tanto o Facebook como o Twitter se agarraram ao princípio de que o conteúdo postado pelos eleitos merece mais proteção do que o material dos indivíduos comuns, dando assim mais poder ao discurso dos políticos do que ao do povo. Esta posição está em desacordo com muitas evidências de que o discurso odioso de figuras públicas tem um impacto maior do que o discurso semelhante de usuários comuns.

Claramente, porém, estas políticas não são aplicadas uniformemente em todo o mundo. Afinal de contas, Trump está longe de ser o único líder mundial a usar estas plataformas para fomentar a agitação. Basta olhar para o BJP, o partido do primeiro-ministro indiano Narendra Modi, para mais exemplos.

Embora certamente haja benefícios a curto prazo – e muita satisfação – de proibir o Trump, a decisão (e as que vieram antes) levanta mais questões fundacionais sobre a fala. Quem deveria ter o direito de decidir o que podemos e não podemos dizer? O que significa quando uma corporação pode censurar um funcionário do governo?

A equipe de políticas do Facebook, e Mark Zuckerberg em particular, tem se mostrado por anos como juízes pobres do que é ou não é expressão apropriada. Desde a proibição da plataforma de seios até sua tendência de suspender usuários por falarem contra o discurso do ódio, ou seu total fracasso em remover chamadas para a violência em Mianmar, Índia, e em outros lugares, simplesmente não há razão para confiar em Zuckerberg e outros líderes tecnológicos para acertar essas grandes decisões.

Repetir 230 não é a resposta

Para remediar essas preocupações, alguns estão pedindo mais regulamentação. Nos últimos meses, tem havido muitas demandas de ambos os lados do corredor para revogar ou emendar o Artigo 230 – a lei que protege as empresas da responsabilidade pelas decisões que tomam sobre o conteúdo que hospedam – apesar de algumas sérias declarações errôneas de políticos que deveriam saber melhor sobre como a lei realmente funciona.

O problema é que, revogar a Secção 230 provavelmente não teria forçado o Facebook ou o Twitter a remover os tweets do Trump, nem impediria as empresas de removerem conteúdo que acham desagradável, quer esse conteúdo seja pornografia ou as glórias malucas do Trump. São os direitos da Primeira Emenda das empresas que lhes permitem curar suas plataformas como acharem melhor.

Em vez disso, revogar a Seção 230 impediria os concorrentes do Facebook e de outros gigantes tecnológicos, e colocaria um risco maior de responsabilidade sobre as plataformas pelo que eles escolherem hospedar. Por exemplo, sem a Seção 230, os advogados do Facebook poderiam decidir que hospedar conteúdo anti-fascista é muito arriscado à luz dos ataques da administração Trump ao antifa.

O que significa quando uma corporação pode censurar um funcionário do governo?

Este não é um cenário rebuscado: As plataformas já restringem a maioria dos conteúdos que poderiam ser mesmo vagamente ligados a organizações terroristas estrangeiras, por medo que os estatutos de apoio material as responsabilizem. As evidências de crimes de guerra na Síria e contra-argumentos vitais contra organizações terroristas no exterior foram removidas como resultado. Da mesma forma, as plataformas ficaram sob fogo por bloquearem qualquer conteúdo aparentemente ligado a países sob sanções dos EUA. Em um exemplo particularmente absurdo, Etsy proibiu uma boneca feita à mão, feita na América, porque a lista continha a palavra “persa”.

Plataformas não precisam ser neutras, mas devem jogar limpo

Embora o senador Ted Cruz continue repetindo, não há nada que exija que estas plataformas sejam neutras, nem deveria haver. Se o Facebook quer iniciar o Trump – ou fotos de mães amamentando – essa é uma prerrogativa da empresa. O problema não é que o Facebook tem o direito de fazer isso, mas que – com as suas aquisições e crescimento sem obstáculos – os seus usuários não têm praticamente para onde ir e estão presos a lidar com regras cada vez mais problemáticas e moderação automatizada de conteúdo.

A resposta não é revogar a Secção 230 (o que, mais uma vez, iria prejudicar a concorrência), mas sim criar as condições para mais concorrência. É aqui que a administração Biden deve concentrar a sua atenção nos próximos meses. E esses esforços devem incluir chegar a especialistas em moderação de conteúdo de advocacia e academia para compreender a gama de problemas enfrentados pelos usuários em todo o mundo, em vez de simplesmente se concentrar no debate dentro dos EUA.

Como para plataformas, eles sabem o que precisam fazer, porque a sociedade civil tem lhes dito durante anos. Eles devem ser mais transparentes e garantir que os usuários tenham o direito de remediar quando decisões erradas são tomadas. Os Princípios Santa Clara sobre Transparência e Responsabilidade na Moderação de Conteúdo – endossados em 2019 pela maioria das principais plataformas, mas aderidos por apenas uma (Reddit)- oferecem padrões mínimos para as empresas sobre essas medidas. As plataformas também devem se ater aos seus compromissos atuais com a tomada de decisões responsáveis. Mais importante, elas devem garantir que as decisões que tomam sobre a fala estão em conformidade com os padrões globais de direitos humanos, em vez de fazer as regras à medida que vão.

As pessoas razoáveis podem discordar se o ato de banir Trump dessas plataformas foi o certo, mas se queremos garantir que as plataformas tomem melhores decisões no futuro, não devemos procurar soluções rápidas.

Jillian C. York é a autora do próximo livro Silicon Values: The Future of Free Speech Under Surveillance Capitalism and the director for international freedom of expression at the Electronic Frontier Foundation.

{{creditRemaining}} free stories remaining
1 free story remaining
Esta é a sua última história livre.

Assine agoraSubscreva agora.

Deixe uma resposta

O seu endereço de email não será publicado.