ロシアは生成AIをどう使っているのか──2025年時点の偽情報工作の実例と構造的限界

ロシアは生成AIをどう使っているのか──2025年時点の偽情報工作の実例と構造的限界 情報操作

 2025年4月に公開されたChristopher Nehringによる報告書『Russia’s Use of genAI in Disinformation and Cyber Influence』は、生成AIが実際にどのように偽情報工作に使われているかを示す観察的レポートである。対象は2022年以降から2025年2月までに確認された30件以上の事例であり、ChatGPTなどの商用ツールから独自運用までを含む。

 この報告書の意義は、生成AIを神秘化したり過度に脅威視したりするのではなく、既存のプロパガンダ構造の中でどのように使われているかを、具体例と機能単位で整理している点にある。


ジェネレーティブAIの使用目的:6分類の機能的整理

 報告書では、ロシアおよび親ロシア系アクターによる生成AIの使用を、以下の6つに分類している。

  1. テキスト生成(投稿、記事、コメント)
  2. 翻訳とリライト(多言語展開のため)
  3. 画像生成(プロフィール写真、捏造証拠、ポスター等)
  4. ディープフェイク生成(偽の発言・証言・ニュース映像)
  5. AIアカウント構築(偽の個人プロフィールやSNS人格)
  6. 自動増幅(投稿と拡散の機械化)

 この分類は、従来の「AIで何ができるか」という観点ではなく、「どのプロセスに組み込まれているか」という視点から構成されている。


代表的作戦:Doppelganger、Matryoshka、Overload

◆ Doppelganger

 ChatGPTなどを用いて生成された記事を、ドイツ語・フランス語などに翻訳し、実在メディアに似せた偽サイトに掲載。生成コンテンツはSNSの偽アカウントを通じて自動的に拡散される。OpenAIが調査を通じて使用ログを確認し、関与アカウントを削除したことが知られている。

特徴:信頼の構築や説得ではなく、量的な情報過飽和(overload)による判断能力の低下が狙い。


◆ Matryoshka

 AI音声やディープフェイクを用いた架空の専門家、AI映像で構成されたニュース番組、AI生成の脅迫的グラフィティなどが多層的に使用される。具体例として、France24のニュースキャスターを模した映像や、パリ五輪に対する脅迫的な描写を持つ画像の捏造が報告されている。

特徴:信頼の破壊を目的とする視覚的ノイズの注入であり、事実と偽情報の境界を曖昧にする手法。


◆ Overload

 投稿そのものをマルチバージョンで生成し、SNSで自動配信。偽装された記者アカウント、AIで書かれた署名記事、異なる視点を持つ複数の記事を並列配信することで、信頼性の検証を困難にさせる戦術。

特徴:情報過多による麻痺状態の構築を意図する高度な反復型プロパガンダ。


John Mark Dougan:AIインフラとLLMグルーミングの試み

 ロシアが国家として一貫した戦略を構築できていない一方で、個人または小規模主体による先進的な取り組みも存在する。なかでも顕著なのが、元米国警官John Mark Douganの事例である。

  • モスクワの自宅に設置したLLMインスタンスを使用し、90,000件/月の偽記事を生成
  • 数百におよぶ自前のニュースサイト群で運用
  • ロシア的視点をLLMに注入し、将来的に出力バイアスを誘導するLLMグルーミングを公言

 このアプローチは、「生成AIを使う」のではなく、「プロパガンダインフラとしてAIを組み込む」段階に移行していることを示唆している。


限界と未成熟性:自動化・統合は未達

 報告書は、ロシアのAI活用が「戦略的に一貫している」と評価するにはほど遠いと断じている。アクターごとに使い方は異なり、多くは断片的・試行的である。

  • ディープフェイクの使用は確認されるが、高品質な映像操作はごく一部
  • 投稿や拡散の自動化はあるが、全体最適化されたオペレーションは稀
  • LLM汚染は存在するが、その効果や拡張性については観測困難

 その一方で、戦術単位での反復性と、非国家主体による技術吸収能力は高まっており、今後の警戒対象として浮上している。


将来的展望:5つの進化軸

 レポートでは、今後予想される生成AIの活用変化として、以下の5軸が挙げられている。

  1. Quantity(量):情報出力量のさらなる増加
  2. Automation(自動化):投稿・翻訳・拡散の統合自動化
  3. Persuasiveness(説得力):より自然なディープフェイク生成
  4. Personalization(個別最適化):ターゲットごとの内容出し分け
  5. Algorithmic manipulation(アルゴリズム操作):SNSでの影響最大化手法の導入

 これらが統合された場合、従来の情報操作とは異なる、AI統合型の戦術的プロパガンダが成立する可能性がある。


結論:生成AIは偽情報工作を変えていない。ただし、それを変える可能性がある。

 生成AIは、ロシアの情報戦術において断片的かつ戦術的に導入されており、品質よりも反復性と自動化が重視されている。現時点では統合的な戦略は確認されていないが、一部の非国家アクターによって、プロパガンダ運用インフラとしての組み込みが進行しており、今後の構造的変化を注視する必要がある。

コメント

タイトルとURLをコピーしました