ソーシャルメディア企業のプラットフォーム設計が、マイノリティの声を可視化する装置であると同時に、沈黙させる装置にもなりうる──GLAADが5年目を迎えた『Social Media Safety Index(SMSI)2025』(2025年5月)は、このパラドックスをあらためて可視化する。報告書では、TikTok、YouTube、X、Meta(Facebook、Instagram、Threads)の6プラットフォームを14の指標で評価し、その対応の「質」と「姿勢」を数値化している。
Metaによる「ヘイト容認」への転換
2025年の最大の変化はMetaの方針転換にある。同社は新たな「Hateful Conduct」ポリシーで、「トランスジェンダーや同性愛は精神疾患である」とするような発言を、「政治的・宗教的文脈においては許容される」と明記。これにより、同社はLGBTQに対するヘイトスピーチの一部を事実上合法化した格好となった。
GLAADはこの変更を「容認不可能」と批判し、Metaがこれまでの人権スタンダードを撤回したと断じる。問題は単なる言葉の表現ではなく、このような公式ポリシーの文言変更が、オンライン・オフライン双方での差別と暴力の助長に直結する点にある。
モデレーションのもう一つの顔:LGBTQ表現の抑圧
報告書はまた、各社が掲げる「安全方針」が、しばしば逆にLGBTQ表現の抑圧に機能している点を指摘する。典型例がInstagramでの「トランス俳優の募集投稿」が“人身売買”と誤判定された事例(2024年)。また、TikTokではLGBTQ関連のタグを含む動画が“成人向け”とラベリングされ、拡散が抑制される現象が多数報告されている。
このような影の抑圧、いわゆる「ピンク・シャドウバン」は、明示的な差別よりも検出が困難であり、アルゴリズム設計に組み込まれた偏りが根源にあると考えられている。
YouTubeは保護項目を削除、Xは「法律が求めるときだけ」
YouTubeは今年、「性自認・性表現」という保護対象の文言を「ヘイトスピーチ方針」から削除。企業側は「方針自体は変わっていない」と釈明するが、文面の変更は透明性の後退と受け止められている。
一方、X(旧Twitter)は、ミスジェンダリングやデッドネーミングの禁止を掲げつつも、その適用条件を「現地法が要求する場合に限る」としている。さらに、「違反かどうかは当事者の申告が必要」としており、被害者が名乗り出ない限りは黙認される仕組みとなっている。
TikTokが「最良」でも56点──総体としての低評価
今回の評価で最高点となったのはTikTokだが、それでもスコアは100点中56点。Meta系列は40点台、Xは30点。GLAADはこれを、個別企業の良否というより、「全体としてプラットフォーム設計がLGBTQ保護を優先していない」構造の問題として捉えている。
実際、どの企業も非英語圏におけるヘイトへの対応、モデレーションの多言語訓練、ユーザーデータの収集制御といった点で明確な課題を残している。プライバシーやアルゴリズム透明性に関する改善提言も、繰り返し提示されながら未実施のままだ。
表現の自由 vs. ヘイト対策の複雑さ
GLAADは表現の自由を制限する立法にも警戒を示している。SNS上の安全対策が、かえってLGBTQリソースへのアクセス制限や若年層の表現の抑制に繋がることもありうる。実際、InstagramではLGBTQ関連のキーワードが未成年検索でブロックされたケースも報告されている。
問題は「表現の自由か保護か」の二者択一ではない。いかにして両立を図るか、その設計と執行の透明性こそが問われている。
GLAADのSMSIは、LGBTQの権利だけでなく、ソーシャルメディアの構造的な倫理性を問うリトマス紙でもある。単なるスコアランキングとして読むのではなく、表現の自由、安全、透明性という複数の価値がどのように緊張関係にあるかを読み解くための素材として活用すべきレポートである。
コメント