2025年5月21日に発表されたPEN AmericaとConsumer Reportsによる報告書『Digital Harassment: Treating Online Abuse Like Spam』は、オンライン上の嫌がらせ(online abuse)に対して「スパム的発想で対処する」というアイディアを軸に、現状の問題点、技術的可能性、制度的障壁、設計提言を多角的に検討している。
本レポートの価値は、既存の“通報→審査→削除”という事後的かつ中央集権的なモデレーション手法の限界を明示したうえで、ユーザー自身にコントロール可能な“隔離型フィルター”という代替的発想を明確に提示している点にある。そこでは単なる機能提案ではなく、コンテンツ可視性・精神的被害・プラットフォームの責任構造をめぐる設計哲学の転換が語られている。
技術はすでに存在している
このレポートが確認するように、RedditのHarassment FilterやTwitchのAutoMod、BlueskyのOzoneなど、一定の自動フィルタリング技術はすでに実装されている。YouTubeでも「保留コメント」として分類された投稿を投稿者自身が確認する仕組みがある。AI(特にNLPやLLM)を用いた検出制度は年々向上しており、「死の脅迫」「性的脅迫」「doxing」といった露骨な攻撃の自動検出は比較的実現可能とされている。
にもかかわらず、ほとんどのプラットフォームでは、それらの検出機構がプラットフォーム側の“見えない背後”でしか運用されず、ユーザー自身がカスタマイズ可能な形では公開されていない。実質的にコントロール不可能な“ブラックボックス型フィルター”だけが存在しており、個々のユーザーが自分の感受性や脅威状況に応じて調整できる仕組みはほぼ存在しない。
モデレーションの分権化という思想
レポートが提案する「スパム的嫌がらせ隔離機構」は、単なるUI設計や検出技術の話ではない。それはモデレーションの主導権をプラットフォーム側からユーザー側に一定程度移譲するという思想的転換である。
プラットフォームが全体の可視性を統制する既存型の中央集権モデレーションとは異なり、提案された仕組みでは、潜在的に有害な投稿は個別ユーザーの「隔離フォルダ(ダッシュボード)」に送られ、見るかどうか・対応するかどうかはユーザーが選択できる。これは表現の自由の制限を最小限に抑えつつ、被害者の被曝を減らすという観点から、一つの制度設計上の妥協案と見ることができる。
特筆すべきは、被害が「見ることで生じる(perspectival harm)」場合にはこの仕組みが極めて有効であるという認識である。他方、「見なくても生じる(global harm)」──たとえばdoxingや名誉毀損的な拡散──には別の介入(すなわちプラットフォーム自身による削除や規制対応)が必要であり、提案された仕組みはそれを“補完”するものとして位置づけられている。
なぜ企業はこれをやらないのか
報告書の核心は、「この仕組みは実現可能なのに、なぜ企業は導入しないのか」という問いにある。その答えは端的である。企業にとって最も優先されるのは収益性であり、ヘイト・炎上・嫌がらせがしばしばエンゲージメントを生み出す構造にある限り、被害の低減は後回しにされやすい。Trust & Safety部門の大規模削減(特にX)、ポリシーの緩和(Meta)、自動モデレーションから通報依存への回帰といった動きが、近年その傾向を裏付けている。
報告書では、広告主や規制当局の圧力が企業行動を変化させうる例として、Xの広告収入59%減少(2023年)を挙げるが、現時点ではそうした圧力が持続的なモデレーション改善へとつながっているとは言いがたい。
緩衝設計としての可能性
レポートは制度的な万能策を提示しているわけではない。提案された機構は、あくまで“部分的”“補完的”な仕組みであることを繰り返し強調している。だからこそ信頼性がある。表現の自由と安全の両立というモデレーションの難題に対して、すべての解決を一つのアルゴリズムに託すのではなく、「晒されること」そのもののリスクを緩和する仕組みとして構想されている。
この「緩衝設計」という観点こそ、本提案の評価にふさわしい位置づけだろう。見たくないものを見なくて済む設計──それはコンテンツの検閲ではなく、可視性の調整であり、テクノロジーにおける“権限の帰属”の再設計である。
コメント