紛争と情報空間の構造的リスク ―ISD Digital Policy Lab(2025)報告書の分析から―

紛争と情報空間の構造的リスク ―ISD Digital Policy Lab(2025)報告書の分析から― 情報操作

 英国のシンクタンクInstitute for Strategic Dialogue(ISD)は2025年11月、Digital Policy Lab(DPL)の枠組みで『Assessing and Mitigating Conflict-Related Online Risks』を公表した。欧州委員会、英国Ofcom、オーストラリアeSafetyなどが参加する政策ネットワークによる共同研究であり、目的は、紛争下の情報空間に発生するリスクを「制度の構造」として定義し直すことである。

 報告書は、有害コンテンツを個々の投稿やユーザーの問題としてではなく、設計・収益・削除運用・法制度が相互に生み出す構造的リスク(systemic risks)として捉える。その中核は、紛争時の情報空間が形成する循環構造の分析にある。

構造的リスクという循環

 ISDが描くリスク構造は、四つの段階が連続する循環として整理される。
 ①AI生成や国家的操作を含む情報の「拡散」、②宗教やジェンダーを軸にした「分断と攻撃」、③AIモデレーションによる「削除と証拠喪失」、④アルゴリズムと広告収益による「再生産」である。この流れが切れ目なく回転することで、紛争はオンライン空間において自律的に増幅し続ける。ISDはこれを“conflict-related online risk ecosystem”と呼ぶ。

六つの主要リスク領域

1. 偽情報と外国情報操作(FIMI)
 AI生成映像や改ざん画像を用いた操作が、現地情勢を歪め、外交判断や国際報道を撹乱する。イラン=イスラエル紛争ではAI生成の刑務所爆破映像が実映像として拡散し、国際的報道機関まで引用した。

2. テロリスト・過激派コンテンツ(TVEC)
 戦闘映像、殉教宣伝、テロ行為のライブ配信など、暴力の模倣と動員を誘発する。削除が遅れれば扇動が拡大し、早すぎれば戦争犯罪の証拠が失われる。

3. ヘイトスピーチと暴力扇動
 宗教・民族・政治的アイデンティティを標的とする言説。イスラエル=ハマス戦争後には反ユダヤ・反イスラム双方の暴力的表現が拡散した。分断がオンライン上で制度化され、オフラインの暴力を再生産する。

4. テクノロジー媒介ジェンダー暴力(TFGBV)
 女性人権擁護者や記者に対する晒し、脅迫、ディープフェイクによる攻撃など。ジェンダーを媒介として対立が増幅し、公共圏からの排除を生む。

5. 過剰削除(Over-Moderation)
 AIモデレーションによる誤検出が、合法的発言や人権侵害の記録を排除する。安全確保の名の下に、被害者の声や証拠が消される構造的リスクである。

6. アルゴリズム増幅と収益構造
 対立的・感情的な投稿ほどリーチと広告収益が増える。エンゲージメント最適化によって分断が市場的に報奨される。これが全体の循環を支える経済基盤である。

 ISDは、この六領域が互いに独立しているのではなく、拡散→分断→削除→収益→再拡散の回路を形成していると指摘する。紛争はこの回路の中で自動的に再生産されるため、単一の技術や法規で制御することはできない。

削除と保存のジレンマ

 報告書が最も重視するのは、削除と保存の緊張である。紛争地では、ある映像が「扇動的有害情報」であると同時に、「戦争犯罪の証拠」にもなり得る。シリアやミャンマーではSNS投稿が国際刑事裁判所の訴追資料として利用されたが、AIモデレーション導入後に多くの記録が自動削除で失われた。ISDは、削除を安全確保の技術ではなく、司法・人権・表現の自由を調整する制度的行為とみなし、削除前にデータを暗号化して保全し、認定研究者や人権団体にアクセスを与える「削除前アーカイブ(pre-deletion archive)」の制度化を提案する。可視性の抑制と証拠の保存を両立させる制度設計が必要だとする。

国際規範と責任の空白

 ISDは、現行の国際規範がこの領域に実効性を持たないと指摘する。国際人権法(ICCPR第19条・第20条)は表現の自由と扇動防止を規定するが、越境的な執行メカニズムを持たない。オープンソース証拠の運用を定めたバークレー・プロトコル(2020)や、削除の透明性を求めるサンタクララ原則も、企業への拘束力を欠く。結果として、削除・保存・透明性の最終判断は企業内部で完結し、国家・企業・市民社会のいずれも責任を負わない。ISDはこれを「責任の空白(accountability gap)」と呼び、国際的制度設計の再構築を求めている。

制度介入の比較:EUと英国

 報告書は、既存法制度の中で最も包括的な対応を示すEUのDigital Services Act(DSA)と、英国のOnline Safety Act(OSA)を比較する。

EUのDSA

  • 第34〜35条:巨大プラットフォームに対し、構造的リスクの評価と軽減を義務づける。
  • 第36条:戦争や災害時に欧州委員会が介入できる「危機対応メカニズム」。
  • 第40条:研究者のデータアクセスを保障し、外部検証を制度化。
    TikTokは現地語対応チームと六段階の危機対応手順を報告したが、MetaとX(旧Twitter)は抽象的説明にとどまり、検証可能性を欠いた。ISDはこの差を「透明性と即応性の格差」と評している。

英国のOSA
 テロ宣伝や外国干渉、ヘイトスピーチを「優先違法コンテンツ」と定義し、Ofcomが監督する。しかし、危機対応メカニズムを持たないため、緊急時の即時介入が不可能である。2024年の南港暴動ではSNS上のデマ拡散に対応できず、暴力が拡大した。ISDはこの事例を、制度の「時間的遅延リスク」として位置づけ、危機時の即応体制こそが法制度の実効性を左右すると指摘する。

評価指標と実装提案

 報告書は、制度対応の評価軸を「件数」ではなく「結果指標(outcome metrics)」に置くべきだと主張する。削除件数や通報数ではなく、

  • 高リスク言語での検出遅延、
  • 危機発生から対策までの時間(Time-to-Mitigation)、
  • 有害コンテンツの到達抑制効果、
  • 誤検出コンテンツの救済までの平均時間、
    といったアウトカムKPIを設け、透明性報告に組み込むべきだとする。

 ISDはさらに、制度実装のための三つの柱を提示する。

  1. 削除前アーカイブの制度化:削除と保存を分離し、暗号化・監査ログ付きで保全する。
  2. 危機時設定の公開と検証:戦時・災害時のアルゴリズム既定値(露出閾値・再共有制限など)を事後検証可能にする。
  3. 多言語モデレーションのSLA化:高リスク言語での検出遅延、誤検出救済時間、二次審査率をサービス水準契約(SLA)に明示する。

 これらの施策により、削除・保存・設計・収益の四領域を制度的に連結し、透明性と検証可能性を高めることができると結論づける。

結論:統治対象の再定義

 ISDの報告書が投げかける本質的な問いは、「オンライン空間で何を統治すべきか」である。問題は投稿の削除可否ではなく、拡散・削除・保存・収益という構造の設計にある。これらの要素を再配置することこそが、紛争時における情報空間の安全と民主主義の信頼を両立させる道である。ISDは、情報統治の焦点を「コンテンツ」から「構造」へ移すべきだと結論づけている。

コメント

タイトルとURLをコピーしました