Al mismo tiempo, tanto Facebook como Twitter se han aferrado al principio de que el contenido publicado por los funcionarios electos merece más protección que el material de los individuos ordinarios, dando así más poder al discurso de los políticos que al de la gente. Esta postura se contradice con las numerosas pruebas de que el discurso de odio de las figuras públicas tiene un mayor impacto que el discurso similar de los usuarios comunes.
Sin embargo, está claro que estas políticas no se aplican por igual en todo el mundo. Después de todo, Trump está lejos de ser el único líder mundial que utiliza estas plataformas para fomentar el malestar. Basta con mirar al BJP, el partido del primer ministro de la India, Narendra Modi, para ver más ejemplos.
Aunque ciertamente hay beneficios a corto plazo -y mucha satisfacción- por prohibir a Trump, la decisión (y las que la precedieron) plantean cuestiones más fundamentales sobre la expresión. ¿Quién debería tener derecho a decidir lo que podemos y no podemos decir? ¿Qué significa que una empresa pueda censurar a un funcionario del gobierno?
El personal de políticas de Facebook, y Mark Zuckerberg en particular, han demostrado durante años ser malos jueces de lo que es o no es una expresión apropiada. Desde la prohibición de los pechos en la plataforma hasta su tendencia a suspender a los usuarios que se manifiestan en contra de la incitación al odio, o su fracaso total a la hora de eliminar los llamamientos a la violencia en Myanmar, India y otros lugares, simplemente no hay razón para confiar en que Zuckerberg y otros líderes tecnológicos acierten en estas grandes decisiones.
Derogar la 230 no es la respuesta
Para remediar estas preocupaciones, algunos piden más regulación. En los últimos meses, han abundado las peticiones desde ambos lados del pasillo para derogar o enmendar la Sección 230 -la ley que protege a las empresas de la responsabilidad por las decisiones que toman sobre el contenido que alojan- a pesar de algunas tergiversaciones graves de los políticos que deberían saber mejor cómo funciona realmente la ley.
La cuestión es que la derogación de la Sección 230 probablemente no habría obligado a Facebook o a Twitter a eliminar los tuits de Trump, ni impediría a las empresas eliminar los contenidos que consideren desagradables, tanto si se trata de pornografía como de los desquiciados desvaríos de Trump. Son los derechos de la Primera Enmienda de las empresas los que les permiten gestionar sus plataformas como consideren oportuno.
En cambio, la derogación de la Sección 230 obstaculizaría a los competidores de Facebook y de los otros gigantes tecnológicos, y supondría un mayor riesgo de responsabilidad para las plataformas por lo que decidan albergar. Por ejemplo, sin la Sección 230, los abogados de Facebook podrían decidir que alojar contenido antifascista es demasiado arriesgado a la luz de los ataques de la administración Trump contra los antifa.
No es un escenario descabellado: Las plataformas ya restringen la mayoría de los contenidos que podrían estar incluso vagamente relacionados con organizaciones terroristas extranjeras, por temor a que los estatutos de apoyo material puedan hacerlos responsables. Las pruebas de los crímenes de guerra en Siria y los discursos vitales contra las organizaciones terroristas en el extranjero han sido eliminados como resultado. Del mismo modo, las plataformas han sido objeto de críticas por bloquear cualquier contenido aparentemente relacionado con países sometidos a sanciones estadounidenses. En un ejemplo particularmente absurdo, Etsy prohibió una muñeca hecha a mano, fabricada en Estados Unidos, porque el anuncio contenía la palabra «persa».
No es difícil ver cómo el aumento de la responsabilidad de las plataformas podría hacer que se eliminen aún más discursos vitales por parte de corporaciones cuyo único interés no es «conectar el mundo» sino beneficiarse de él.
Las plataformas no necesitan ser neutrales, pero deben jugar limpio
A pesar de lo que el senador Ted Cruz sigue repitiendo, no hay nada que exija que estas plataformas sean neutrales, ni debería haberlo. Si Facebook quiere echar a Trump -o a las fotos de madres lactantes- es una prerrogativa de la empresa. El problema no es que Facebook tenga derecho a hacerlo, sino que -debido a sus adquisiciones y a su crecimiento sin obstáculos- sus usuarios no tienen prácticamente ningún otro sitio al que ir y están atrapados lidiando con normas cada vez más problemáticas y con la moderación automatizada de contenidos.
La respuesta no es derogar la Sección 230 (que, de nuevo, obstaculizaría la competencia), sino crear las condiciones para una mayor competencia. Aquí es donde la administración Biden debe centrar su atención en los próximos meses. Y esos esfuerzos deben incluir el acercamiento a los expertos en moderación de contenidos de la abogacía y el mundo académico para entender la gama de problemas a los que se enfrentan los usuarios en todo el mundo, en lugar de centrarse simplemente en el debate dentro de EE.UU.
En cuanto a las plataformas, saben lo que tienen que hacer, porque la sociedad civil se lo ha dicho durante años. Deben ser más transparentes y garantizar que los usuarios tengan derecho a recurrir cuando se tomen decisiones equivocadas. Los Principios de Santa Clara sobre la Transparencia y la Responsabilidad en la Moderación de Contenidos -aprobados en 2019 por la mayoría de las principales plataformas, pero a los que solo se adhiere una (Reddit)- ofrecen unos estándares mínimos para las empresas en estas medidas. Las plataformas también deben atenerse a sus actuales compromisos de toma de decisiones responsable. Lo más importante es que se aseguren de que las decisiones que toman sobre la libertad de expresión están en consonancia con las normas mundiales de derechos humanos, en lugar de inventarse las reglas sobre la marcha.
Las personas razonables pueden discrepar sobre si el acto de prohibir a Trump en estas plataformas fue el correcto, pero si queremos asegurarnos de que las plataformas tomen mejores decisiones en el futuro, no debemos buscar soluciones rápidas.
Jillian C. York es autora del libro de próxima aparición Silicon Values: The Future of Free Speech Under Surveillance Capitalism y directora de libertad de expresión internacional en la Electronic Frontier Foundation.
RegístrateSuscríbete ahora