NATO StratCom COE(ラトビア・リガ本拠のNATO戦略コミュニケーション優秀センター)は2026年1月に「Social Media Manipulation for Sale」の2025年版を公開した。著者は Dr. Gundars Bergmanis-Korāts、Tetiana Haiduchyk、Bohdan Smolts であり、実験の実施はTramentum Researchに委託した。暗号通貨フローの追跡には Latviaの Financial Intelligence Unit(FIULatvia、金融情報部隊)が参加し、ボットの知性化の分析には Israel を拠点とするサイバーセキュリティ企業 Cyabra が担当した。この報告書は2019年から続く年次実験の6回目であり、規模・プラットフォーム数・操作プロバイダー数いずれも過去最大に拡大している。報告書はNATOの政策や見解を代表するものではないと明記されている。
実験設計:レッドチームの方法論と規模
実験の実施期間は2025年9月から11月であり、対象プラットフォームは Facebook、Instagram、X、YouTube、TikTok、VKontakte、Bluesky の7つに及んだ。2024年までの6プラットフォーム体制に加え、Bluesky が新規追加された。実験の根本的な設計原則として、購入したエンゲージメントの対象は非政治的なコンテンツに限定されている——これにより、プラットフォームの検出・削除能力を政治的介入の有無と分離して測定できる。実験で作成した不正アカウントは28件(各プラットフォーム4件ずつ)に、投稿は126件に及んだ。
操作サービスの購入は10社のプロバイダーから行われ、「バスケット」単位で購入した(標準構成:100件のリアクション・100件のコメント・1,000件のビュー・100件のフォロー)。この購入で実際に配信された不正エンゲージメントの内訳は、コメント17,553件・リアクション37,814件・シェア16,025件・ビュー27,653件であり、配信を行った不正アカウントの総数は30,011件に達した。全体の支出は€252に収まった。さらに、SMS認証サービスAPIを使用した自動アカウント作成パイプラインも構築し、各プラットフォームの抵抗度を測定した。TikTokと YouTube ではCAPTCHAなしで登録が完了し、X と Instagram では第三者のCAPTCHA解読サービスが必要になった。一方、Facebook と Bluesky は自動作成されたアカウントを即時に検知して停止した。VKontakteでは、モバイルアプリのみで登録可能な仕様のため、AI対応のスマートフォン操作自動化を使用しなければアカウント作成は不可であった。
プラットフォーム別の検出・削除パフォーマンス
アカウント削除率の平均は50.4%で、実験シリーズの過去最高を記録した。2021年の約20%・2022年の14%・2024年の13%と比較すると、検出・削除の全体的な傾向は改善に向かっている。ただし、プラットフォーム間の格差は依然として大きい。購入後5週間時点のアカウント削除率と、4週間モニタリング後のエンゲージメント残存率は以下の通りである。
| プラットフォーム | アカウント削除率 | エンゲージメント残存率 |
|---|---|---|
| VKontakte | 96% | 70.35% |
| X | 82% | 43.41% |
| YouTube | 55% | 56.20% |
| Bluesky | 55% | 100%(削除なし) |
| 39% | 79.40% | |
| 22% | 84.03% | |
| TikTok | 4% | 68.13% |
この表で注目すべき構造的矛盾が2つある。一つは VKontakteの動作で、アカウント96%の削除にもかかわらず、エンゲージメント自体は70.35%が残存した——アカウントは削除されるが、その活動の痕跡は消されないという対応は実質的に不完全である。二つは Bluesky で、アカウント削除率55%に対してエンゲージメントは100%残存し、削除活動の効果がエンゲージメント層には一切及んでいない。TikTok のアカウント削除率4%は過去最低水準であるが、エンゲージメント残存率は68.13%と2024年の99.85%から大幅に改善した。
報告後のレスポンスという別の軸でも格差は明確である。報告されたアカウントの削除率はどのプラットフォームでも25%を超えなかった。Facebookは約24%で最大の改善を示し、Blueskyも22%で同様の傾向を見せた。一方、VKontakteは2%・Xは2.5% で削除率は2024年よりも低下した。透明度報告の側面では、TikTok が唯一の例外として実験の発見に対して直接対応し、詳細なCovert Influence Operationの報告書を公開した。ただし、共有されたポスト以外の不正活動は削除されなかった——つまり、報告された能力がルーティンの検出には反映されていないと報告書は指摘している。X は実験期間中に透明度報告やエンフォーサメント情報を公開しなかった。Metaは Facebook の削除件数のみを報告し、Instagram については同等の情報開示を行っていない。
新規次元:広告を通じた操作
2025年の実験で初めて体系的に検証されたのが、スポンサーコンテンツ経由の操作であった。Facebook・Instagram・X・TikTok・YouTubeの5プラットフォームで実施されたこの実験では、不正の広告アカウントを購入し、AIで生成したコンテンツを含む広告キャンペーンを投下した。不正の広告アカウント自体の購入市場が存在することが確認された。Metaの各プラットフォーム・TikTok・YouTubeでは既製の不正広告アカウントが購入可能であり、Xでは標準アカウントを購入してAds Managerを手動で設定した。広告アカウントの価格は通常アカウントとの間で明確な差がある(YouTube:通常€0.067 対 広告用€12.93、TikTok:通常€0.072 対 広告用€3.59)。YouTubeは広告の承認には全プラットフォーム中で最も長い時間を要した。
€130の投下で206,234件のビューと200件のリアクションが生成された。別に€121で購入した不正コメントの配信結果がプラットフォーム間で大幅に異なった。Instagram は72時間後に購入量の340%に達した——つまり、購入した量の3倍以上の不正コメントが配信されたということである。X は約25%・YouTube は約21%の配信率を示した。Facebook は1%未満で、TikTok は0%で配信が完全にブロックされた。報告書がこの実験から導いた構造的問題は、プラットフォームの広告システム自体が不正ナレイティブの分配装置になりうるという点である。有料掲載には、オーガニック投稿に対する読者の懐疑的態度を迂回する効果があり、アルゴリズムが精度の高いターゲティングで不正コンテンツを配信する動作になっている。
AI生成コンテンツと自動オーケストレーション
実験では、人間の介入なしで機能するAI生成コンテンツの制作と配信のパイプラインを構築し検証した。Google Sheetsに格納されたプロンプトが起点となり、ChatGPT(GPT-4o、API経由)がテキストを生成する。画像と動画には Freepik のAPIが使用され、プラットフォーム間で一貫する事前訓練済みのキャラクターモデルが適用された。商業用コンテンツオーケストレーターが、生成されたコンテンツを各プラットフォームの不正アカウントに自動で投稿した。テキスト生成・視覚コンテンツ作成・投稿・結果のログ記録までの全プロセスが、初期設定の後に完全に無人で実行されたことを報告書は確認している。
コスト面では、€10の予算で生成可能なコンテンツの量が以下の範囲に達している。画像としては Classic Fastモードで約2,500件・Fluxモードで約1,000件が生成可能であり、動画としては PixVerseで約370件・Seedreamで約370件の生成が実現した。報告書はこの規模感から、AIで生成したコンテンツによる操作キャンペーンの実行コストが極めて低い事実を結論としている。さらに、既存の商業ツールを組み合わせた配信ワークフローが全プラットフォームで検証されたため、追加プラットフォームへの拡張も技術的に実現可能であると報告書は判断した。
スパムボットの政治的活用と中国軍事ナレイティブの拡大
実験で購入した不正エンゲージメントを配信したボットアカウント群の活動傾向も分析された。報告書によると、ボットが扱うコンテンツの大半は依然としてCryptoスキャム・商業プロモーション・その他の非政治的素材であるが、政治的ナレイティブの増幅には年々拡大する傾向がある。
2025年で特に注目されたのが、中国軍事テーマの顕著な拡大である。FacebookではボットアカウントがChinaStateMedia的な表記を持つページを数百件辿り、ミサイル発射・海軍行動・軍艦の就役・シニア官僚が出席する国家儀式の動画を拡散した。Xでは、中国軍の優越性を米国と比較して描写する投稿がボットによって拡散された。YouTubeでは、東風(Dongfeng)シリーズの長距離弾道ミサイルの軍事パレート映像や、「One China」政策に基づく愛国主義的コンテンツを掲載するチャンネルがボットの辿る対象となった。TikTokでは、中国・ロシア両軍を同時に讃える視覚的に制作されたコンテンツが再投稿された。報告書は、この傾向が2024年の「超選挙年」の後に出現したことに着目し、これが需要側の変化を反映している可能性を指摘した。
Xでは反EU Digital Services Act・反Biden政権・反民主党のコンテンツがボットによって拡散されたことも確認された。Blueskyでは反Trump・反MAGAのコンテンツが拡散の対象となった。Facebookでは、インドの政治家のアカウントへのフォローが複数確認され、アルゼンチンの大統領Javier Mileiに対する批判的なコンテンツも拡散された。一方で、Instagram は実験に含まれる全プラットフォームの中で唯一、政治的コンテンツの増幅がボットによって検知されなかった環境であった。
暗号通貨インフラと金融フロー分析
FIU Latviaによる暗号通貨取引の追跡分析は、操作サービスの経済的インフラの構造を明確にした。実験で実施した10件の暗号通貨取引の中で、エンドツーエンドで信頼性のある追跡が成功したのは4件にしか達しなかった。残る6件は、VASP(Virtual Asset Service Provider、仮想資産サービス提供者)のホットウォレット経由で資金が流動したため、複数ユーザーの資金が同一アドレスで混合されたことで、オンチェーンデータのみでの個別取引の特定が不可能になった。使用されたVASPとしては Cryptomus と Heleket が確認されており、後者は規制監視の限界と不明確なKYC・AML対応のため高リスク交換所と位置づけられている。取引には BTC・MATIC・USDT の3種類の暗号資産が使用され、Binance と Bybit の2つのVASPを経由した。
プロバイダーには US1・US2・UK1・UK2・IT・EST・RU1・RU2・CHN・IND という匿名化されたラベルが付与された。実際の物理的所在地や法的主体としての確認には至っていないが、各プロバイダーのアドレスに対する取引量の分析は以下の通りである。
| プロバイダー | 活動期間 | 受信取引件数 | 受信金額(USD) | 月平均(USD) |
|---|---|---|---|---|
| RU1 | 2023年9月〜2025年10月(約26ヶ月) | 681件 | 約265,261 | 約10,202 |
| UK2 | 2023年7月〜2025年10月(約28ヶ月) | 1,307件 | 約123,714 | 約4,418 |
| US1 | 2023年4月〜2025年10月(約30ヶ月) | 42件 | 約36,152 | 約1,205 |
| UK1 | 2025年1月〜2025年10月(約10ヶ月) | 77件 | 約7,808 | 約781 |
RU1の活動は2024年(選挙年)に取引量のピークを示し、その後は明確に低下した動向を見せた。報告書はこの時系列の変動を選挙年の影響との相関として指摘した。
制裁規制との関連も分析されている。EU理事会規則(EU)No. 833/2014、Article 5b(2)は、2025年10月24日の改正により、ロシア国籍者・ロシア居住者・ロシアで設立された法人への暗号資産サービス提供を禁止した。報告書によると、RU1のオペレーターがロシアに拠点を持つと専門家の見立てが示唆されており、かつBinanceのエンティティがEUの規制対象であれば、Binanceによるこれらのサービス提供がArticle 5b(2)の範囲に該当し制裁違反に相当する可能性がある。その判定には(1)サービスを提供する特定のBinanceエンティティの確認と(2)ウォレット保持者の法的地位・国籍または設立場所の確認が必要とされている。報告書はBinanceが複数のEU関連の登録と認可を持っていることを根拠として、EU規制の一部の業務への適用が可能であると論じた。
ボットの知性化の世代交代:Cyabra分析
Cyabraによる分析は、2018年〜2023年のデータセットから「レガシーボット」のベースラインを構築し、2024年〜2025年の新規データセット(X・Facebook・TikTok・VK)と比較したフレームワークで実行された。レガシーボットの特徴としては、反復的な行動パターン・統一された言語・中央集中型の制御・予測可能なエンゲージメント・独自ページでの単独投稿が挙げられる。
現代のボットでは、これらの特徴が体系的に変化している。自己封閉型の投稿ループ(アカウントが自分のページに投稿し、ハッシュタグで拡散する手法)に代わり、インフルエンサーやジャーナリスト・公人が作成した高可視性コンテンツのコメント欄に偽のコメントを埋め込む戦略が標準になった。Cyabraの分析が特定した行動変化の指標としては、偽アカウント同士の相互作用の減少・検証済みまたは高フォロー数アカウントとの関与の増加・偽コメントとホスト投稿の間の強い文脈的一致・ハッシュタグへの依存の低下・インフルエンサーの受容者を通じた拡散への移行が含まれる。全体の戦略は「量による可視化」から「正確な配置による影響」へにシフトしたと報告書は結論づける。AIが自動で関連性のある投稿を特定し、トレンドの議論を追跡し、複数言語で文脈に沿ったコメントを生成する機能がこのシフトを可能にしている。
このフレームワークの具体的な適用例として、2025年9月のロシア無人機のポーランド空域侵入事件をめぐる談論を分析した事例が含まれる。分析対象は3,622件のプロフィールに及び、そのうち22%が不正であることが判定された——一般的なベースライン水準を大幅に上回る比率である。これらの偽アカウントはAI生成画像・現地らしい命名慣例・プロフェッショナルなメディアペルソナを使用し、協調されたタイミング・スタイルの多様性・複数言語の文脈適合する関与を見せた。展開されたナレイティブは、ロシアの責任の回避・ポーランド指導体制への信頼の弱体化・事件の深刻度の矮小化の3軸を中心としていた。報告書はこの事例が新しい世代の偽アカウント活動の典型的なパターンとして位置づけられるものであり、現代の全偽情報活動の包括的な評価ではないと限定した。
報告書の結論と提言の構造
報告書の提言は、現時点でプラットフォーム側の対応が「キャンペーン単位の対応」に限定されている点を根本的な限界として捉え、その改善に向けた構造的な変更を求める。行動的検出への移行が第一の提言で、テキスト分析に限定するのではなく、タイミングパターン・アカウント間の関係性・クロスプラットフォームの協調活動を指標とする検出モデルが必要とされる。「会話レベルの影響の特定」も強調され、個別投稿ではなく会話スレッド全体を単位とする分析がインフルエンサーコメント欄に埋め込まれたボットの検知には不可欠とされる。「金融インテリジェンスとの連携」が戦略的経路として位置づけられ、FIUやVASPとの深い協力が操作プロバイダーの特定と活動制限の実用的手段として不可欠であると報告書は論じた。全体的には、プラットフォーム側の検出能力は改善傾向にある一方、操作のコストと実行の容易さは依然として検出に先に動く構造になっていると報告書の結論は示している。

コメント