近年の偽情報研究では、単にコンテンツの真偽を問題にするだけでは不十分だとされる。EU対外行動庁が定義したFIMI(Foreign Information Manipulation and Interference)は「違法か否かにかかわらず、協調的に行われる操作的行為」を指す。重要なのは、単発の嘘や誤情報ではなく、偽サイトの立ち上げ、AI生成物の投入、ボットによる拡散、なりすましアカウントの利用といった一連の“行動パターン”全体が脅威として位置づけられる点だ。
カナダのMIGS(Montreal Institute for Global Security)が2025年9月に公開した報告書『WIRED FOR WAR』は、この行動重視の視点を基盤に、生成AIやSNSが認知戦をどう変質させているかを具体的に描き出す。
技術が変えたコスト構造
報告書が強調するのは、量・速度・不可視化の三要素が一度に拡大したことだ。
- 量:AIで記事や画像、音声、動画を自動生成することで、数千件規模の偽情報を一度に投入できる。
- 速度:翻訳や口調模倣が容易になり、多言語でほぼ同時に展開できる。
- 不可視化:情報洗浄、匿名アカウント、ボット群を使い、出所を隠したまま流通させられる。
米司法省が2024年に摘発した事例は象徴的だ。ロシアのRTが関与するAI駆動ボットファームが数千の偽アカウントを運用し、米国内外で分断を煽っていた。国家機関と外郭メディアが結びつき、AIで人間らしい“市民”を大量生産する構造が明らかになった。
事例1:Matryoshka / Operation Overload — コメント欄を戦場に
2023年以降、欧州を中心に観測された「Matryoshka(Operation Overload)」は、もっとも注目すべき作戦の一つだ。流れはこうだ。
まずロシア語圏のTelegramで偽情報や合成メディアを作成・公開。そこからXやBluesky、TikTokに持ち込む。特徴的なのはXの返信欄を狙った戦術で、ファクトチェッカーやメディアの投稿の下に数千件の偽コンテンツを連投し、検証リソースを過負荷に追い込む。報告書は約1.1万のアカウントがこの増幅ネットワークに関与していたと指摘する。
素材も精巧だ。欧米の著名人になりすました動画や、AIで生成した音声クローンを含み、一見本物らしく見える。さらに親露系インフルエンサーや“偽ジャーナリスト”が再投稿して正規流通に混ぜ込む。こうして「Telegram起点 → X返信埋め → インフルエンサー増幅」という分業構造が成立した。
事例2:ルーマニア大統領選 — アルゴリズムが民主主義に食い込む
2024年のルーマニア大統領選では、FIMIとプラットフォームの統治不全が重なり、投票が無効化される異常事態となった。
欧州委員会はTikTokが政治広告や推薦アルゴリズムの透明性規則に違反した疑いで調査を開始。調査団体は、アルゴリズムが中立的なユーザーに極右コンテンツを過剰に推奨していたと指摘した。さらに再選挙時には、Telegram創業者が全国通知を送るという異例の出来事が起き、プラットフォームそのものが政治過程に介入した形になった。
この事例は、単なるコンテンツ削除ではなく、推薦アルゴリズムの設計や通知機能の統治が民主主義の正統性に直結することを示した。
事例3:カナダ総選挙 — TikTok発ディープフェイクと「説明動画」の罠
2025年のカナダ総選挙では、首相が規制を発表する偽動画がTikTokで拡散した。ファクトチェッカーはAI生成と判定し、否定報道も出た。だが流通は止まらなかった。
次の段階では、「解説動画」やインフルエンサーのコメントとしてXやFacebookに再拡散された。偽情報は否定されるどころか、「話題」として息を吹き返した。さらに偽CBCサイトや投資詐欺ページが抱き合わせで利用され、政治的混乱と経済詐欺が結びつく複合的作戦となった。
このパターンが示すのは、一次ソースの削除だけでは足りないという現実だ。誤情報は「解説化」「模倣サイト」「インフルエンサーの再利用」によって延命され、否定報道すら燃料となり得る。
事例4:AIボットファーム — 国家と外郭の結節点
RTと連携したAI駆動のボットファームは、生成AIで作られた記事やコメントを、偽アカウント群を通じて各国に流し込んでいた。これらは単なる自動化ではなく、ターゲット地域の言語や文化に合わせて最適化されていた。AI翻訳とローカライズの活用により、外部勢力が現地発信者のように振る舞うことが可能になった。
この構造は、国家と非国家の境界を曖昧にし、プロパガンダと詐欺・犯罪を同じインフラで動かすことを可能にしている。
認知戦としての位置づけ
報告書は、これらの事例を単なる偽情報ではなく「認知戦」として捉える。狙いは情報の内容ではなく、市民の信頼・制度の正統性・意思決定プロセスそのものだ。
生成AIやアルゴリズムは、注意や感情に直接作用する“説得技術”となりつつある。広さ(拡散)と深さ(個別影響)が同時に強化されることが、従来型プロパガンダとは異なる危険性だ。
防御の方向性
報告書が導く結論は二層に整理できる。
- プラットフォーム統治の強化
- 推薦アルゴリズムの外部監査
- 政治広告・通知機能の透明化
- 半公開空間(Telegramなど)への国際的対応
- 行動ベースの検知
- DISARMやMITRE ATT&CKのような行動知識ベースの活用
- 初出点、拡散経路、アカウント群の再利用といったメタデータ分析
- 大量同時発生や協調の兆候を検知する仕組みの整備
単発のコンテンツ削除ではなく、行動パターンを早期に察知する仕組みがなければ防御は成り立たない。
結論:行動を読むことが防御の第一歩
『WIRED FOR WAR』が提示するのは、偽情報を「誰が」「どの技術で」「どの経路を使い」「どのような行動パターンで」流すかという包括的な視点だ。
Matryoshkaの返信欄埋め、ルーマニア選挙でのアルゴリズム偏向、カナダ選挙でのディープフェイクの再利用、RTとAIボットファームの連携。これらは別々の出来事に見えても、裏では「低コストで試し、成功パターンを繰り返す」という同じ設計思想が働いている。
だからこそ、行動を読み解き、行動に介入する。これが、民主主義が耐性を保つための現実的な道筋だと報告書は強調している。
コメント