何がオンラインでの言論の自由を構成するかを決めるのは、技術系幹部ではなくユーザーだ

同時に、FacebookとTwitterはともに、選挙で選ばれた人物が投稿したコンテンツは一般個人のものよりも保護に値するという信条を守っており、政治家の言論は国民のものよりも力を与えているのである。 この立場は、公人による憎悪に満ちた言論が、一般ユーザーによる同様の言論よりも大きな影響力を持つという多くの証拠と矛盾しています。

しかし、これらの政策が世界中で均等に適用されていないことは明らかです。 結局のところ、トランプは、これらのプラットフォームを使用して不安を煽っている唯一の世界的リーダーには程遠いのです。 インドのナレンドラ・モディ首相の政党である BJP を見れば、より多くの例がわかります。

確かにトランプ氏を禁止することで得られる短期的な利益や多くの満足はありますが、この決定(およびそれ以前の決定)は、言論に関するより基本的な疑問を提起しています。 私たちが何を言っていいか、何を言ってはいけないかを決める権利は誰にあるのでしょうか。 企業が政府高官を検閲することができるというのはどういうことなのだろうか。

Facebook のポリシー担当者、特に Mark Zuckerberg は、何が適切な表現で、何が適切でないかを判断する能力がないことを長年にわたって明らかにしてきました。 胸像の禁止から、ヘイトスピーチに反論したユーザーを停止する傾向、あるいは、ミャンマーやインドなどにおける暴力の呼びかけを削除できなかったことなど、ザッカーバーグやその他の技術リーダーがこれらの大きな決定を正しく下すことを信頼できる理由はありません。 ここ数カ月、230 条 (ホストするコンテンツについて企業が行う決定に対する責任から企業を保護する法律) を廃止または修正する要求が、通路の両側からあふれていますが、この法律の実際の仕組みについてよく知っているはずの政治家が深刻な誤った説明をしているのです。

重要なのは、230条を廃止しても、おそらくFacebookやTwitterがトランプのツイートを削除することはなかっただろうし、そのコンテンツがポルノであれトランプの狂言であれ、企業が不愉快だと思うコンテンツを削除することを妨げることもなかっただろう、ということだ。 その代わり、230 条を廃止すると、Facebook やその他のハイテク企業の競争相手が妨げられ、プラットフォームがホストすることを選択したものに対して、より大きな責任を負うリスクが生じます。 たとえば、230 条がなければ、Facebookの弁護士は、トランプ政権の反ファへの攻撃を考慮して、反ファシストのコンテンツをホストすることはリスクが高すぎると判断することができます。

企業が政府関係者を検閲できることは何を意味するのか。

これは決して突飛なシナリオではありません。 プラットフォームはすでに、物質的支援に関する法令により責任を問われることを恐れて、外国のテロ組織と緩やかにでも関連する可能性があるほとんどのコンテンツを制限しています。 その結果、シリアにおける戦争犯罪の証拠や、海外のテロ組織に対する重要な反論が削除されました。 同様に、米国の制裁下にある国々と関係があると思われるコンテンツをブロックするプラットフォームも非難を浴びている。 特にばかげた例では、Etsy は、リストに「ペルシャ」という言葉が含まれていたため、アメリカで作られた手作りの人形を禁止しました。

プラットフォームの責任を強化することが、「世界をつなぐ」ことではなく、そこから利益を得ることにのみ関心を持つ企業によって、さらに重要なスピーチが削除される原因になることは想像に難くありません。

プラットフォームは中立である必要はないが、公平でなければならない

Ted Cruz 上院議員が繰り返し述べていることとは裏腹に、これらのプラットフォームが中立である必要は何もなく、またそうあるべきでもないでしょう。 もしFacebookがトランプ氏や母乳を与えている母親の写真を掲載したいのであれば、それは会社の特権です。 問題は、Facebook がそうする権利を持っていることではなく、その買収と無制限の成長により、ユーザーが事実上他に行くところがなく、ますます問題のある規則や自動的なコンテンツ調整への対処に行き詰っていることです。 これこそが、バイデン政権が今後数カ月間に注意を向けるべき場所です。 そして、その努力には、単に米国内の議論に焦点を当てるのではなく、世界中のユーザーが直面するさまざまな問題を理解するために、擁護団体や学界のコンテンツ モデレーションの専門家に接触することが含まれなければなりません。

プラットフォームについては、市民社会が何年も前から言っているので、何をすべきかはわかっています。 彼らはより透明でなければならず、間違った決定がなされたときにユーザーが救済する権利を持つことを保証しなければなりません。 2019年にほとんどの主要プラットフォームが承認した「コンテンツモデレーションの透明性と説明責任に関するサンタクララ原則」ですが、遵守しているのは1つ(レディット)だけで、これらの措置に関する企業の最低基準を提示しています。 また、プラットフォームは、責任ある意思決定に対する既存のコミットメントを堅持すべきです。 3858>

Reasonable people can disagree on whether the act of banning Trump from these platforms was the right one, but if we want to ensure the platforms make better decisions in the future, we must not look to quick fixes:

{{creditRemaining}} 無料記事残り
1 無料記事残り

これがあなたの最後の無料記事です

Sign inSubscribe now

コメントを残す

メールアドレスが公開されることはありません。