Les utilisateurs, et non les dirigeants de la technologie, devraient décider de ce qui constitue la liberté d’expression en ligne

Dans le même temps, Facebook et Twitter se sont tenus au principe selon lequel le contenu posté par des élus mérite plus de protection que le matériel provenant d’individus ordinaires, donnant ainsi à la parole des politiciens plus de pouvoir que celle du peuple. Cette position est en contradiction avec de nombreuses preuves que les discours haineux des personnalités publiques ont un impact plus important que les discours similaires des utilisateurs ordinaires.

Il est clair, cependant, que ces politiques ne sont pas appliquées uniformément dans le monde. Après tout, Trump est loin d’être le seul dirigeant mondial à utiliser ces plateformes pour fomenter des troubles. Il suffit de regarder le BJP, le parti du Premier ministre indien Narendra Modi, pour trouver d’autres exemples.

Bien qu’il y ait certainement des avantages à court terme – et beaucoup de satisfaction – à bannir Trump, cette décision (et celles qui l’ont précédée) soulève des questions plus fondamentales sur le discours. Qui devrait avoir le droit de décider ce que nous pouvons ou ne pouvons pas dire ? Qu’est-ce que cela signifie quand une société peut censurer un représentant du gouvernement ?

Le personnel politique de Facebook, et Mark Zuckerberg en particulier, se sont montrés pendant des années de mauvais juges de ce qui est ou n’est pas une expression appropriée. De l’interdiction des seins par la plateforme à sa tendance à suspendre les utilisateurs pour s’être élevés contre les discours de haine, ou son échec total à supprimer les appels à la violence au Myanmar, en Inde et ailleurs, il n’y a tout simplement aucune raison de faire confiance à Zuckerberg et aux autres dirigeants de la technologie pour prendre ces grandes décisions correctement.

L’abrogation de 230 n’est pas la réponse

Pour remédier à ces préoccupations, certains appellent à plus de réglementation. Au cours des derniers mois, les demandes ont abondé des deux côtés de l’allée pour abroger ou modifier la section 230 – la loi qui protège les entreprises de la responsabilité des décisions qu’elles prennent sur le contenu qu’elles hébergent – malgré de graves déformations de la part de politiciens qui devraient mieux connaître le fonctionnement réel de la loi.

Le truc, c’est que l’abrogation de la section 230 n’aurait probablement pas forcé Facebook ou Twitter à supprimer les tweets de Trump, pas plus qu’elle n’empêcherait les entreprises de supprimer le contenu qu’elles jugent désagréable, qu’il s’agisse de pornographie ou des divagations déséquilibrées de Trump. Ce sont les droits du Premier amendement des entreprises qui leur permettent de gérer leurs plates-formes comme elles l’entendent.

Au contraire, l’abrogation de la section 230 gênerait les concurrents de Facebook et des autres géants de la technologie, et exposerait les plates-formes à un risque accru de responsabilité pour ce qu’elles choisissent d’héberger. Par exemple, sans la section 230, les avocats de Facebook pourraient décider que l’hébergement de contenus antifascistes est trop risqué à la lumière des attaques de l’administration Trump contre les antifa.

Que signifie le fait qu’une société puisse censurer un représentant du gouvernement ?

Ce n’est pas un scénario tiré par les cheveux : Les plateformes restreignent déjà la plupart des contenus qui pourraient être liés, même vaguement, à des organisations terroristes étrangères, de peur que les lois sur le soutien matériel ne les rendent responsables. Des preuves de crimes de guerre en Syrie et des contre-discours essentiels contre des organisations terroristes à l’étranger ont été supprimés en conséquence. De même, des plateformes ont été critiquées pour avoir bloqué tout contenu apparemment lié à des pays soumis à des sanctions américaines. Dans un exemple particulièrement absurde, Etsy a interdit une poupée faite à la main, fabriquée en Amérique, parce que l’annonce contenait le mot « perse ».

Il n’est pas difficile de voir comment le ratchet de la responsabilité des plateformes pourrait entraîner la suppression d’encore plus de discours vitaux par des sociétés dont le seul intérêt n’est pas de « connecter le monde » mais d’en tirer profit.

Les plateformes n’ont pas besoin d’être neutres, mais elles doivent jouer franc jeu

Malgré ce que le sénateur Ted Cruz ne cesse de répéter, rien n’oblige ces plateformes à être neutres, et il ne devrait pas en être ainsi. Si Facebook veut mettre Trump à la porte – ou des photos de mères qui allaitent – c’est la prérogative de l’entreprise. Le problème n’est pas que Facebook a le droit de le faire, mais que – grâce à ses acquisitions et à sa croissance sans entrave – ses utilisateurs n’ont pratiquement aucun autre endroit où aller et sont coincés face à des règles de plus en plus problématiques et à la modération automatisée du contenu.

La réponse n’est pas dans l’abrogation de la section 230 (qui, encore une fois, entraverait la concurrence) mais dans la création des conditions pour plus de concurrence. C’est sur ce point que l’administration Biden devrait concentrer son attention dans les mois à venir. Et ces efforts doivent inclure la prise de contact avec des experts en modération de contenu issus de la défense des droits et du monde universitaire pour comprendre l’éventail des problèmes rencontrés par les utilisateurs dans le monde entier, plutôt que de se concentrer simplement sur le débat à l’intérieur des États-Unis.

Pour ce qui est des plateformes, elles savent ce qu’elles doivent faire, car la société civile le leur dit depuis des années. Elles doivent être plus transparentes et veiller à ce que les utilisateurs aient un droit de recours lorsque de mauvaises décisions sont prises. Les principes de Santa Clara sur la transparence et la responsabilité dans la modération des contenus – approuvés en 2019 par la plupart des grandes plateformes mais respectés par une seule (Reddit) – offrent des normes minimales aux entreprises sur ces mesures. Les plateformes devraient également s’en tenir à leurs engagements existants en matière de prise de décision responsable. Plus important encore, elles devraient s’assurer que les décisions qu’elles prennent en matière de discours sont conformes aux normes mondiales en matière de droits de l’homme, plutôt que d’inventer les règles au fur et à mesure.

Des personnes raisonnables peuvent ne pas être d’accord sur la question de savoir si l’acte de bannir Trump de ces plateformes était le bon, mais si nous voulons nous assurer que les plateformes prennent de meilleures décisions à l’avenir, nous ne devons pas chercher des solutions rapides.

Jillian C. York est l’auteur du livre à paraître Silicon Values : The Future of Free Speech Under Surveillance Capitalism et directrice de la liberté d’expression internationale à l’Electronic Frontier Foundation.

{{creditRemaining}} histoires gratuites restantes
1 histoire gratuite restante
C’est votre dernière histoire gratuite.

S’inscrireS’inscrire maintenant

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.