2025年4月15日に公表された政策ブリーフ「Manifestations of Foreign Information Manipulation and Interference(FIMI)」は、EU資金によるATHENAプロジェクトの成果として、外国勢力による情報操作の実態を事例ベースで分析したものである。本稿では、この報告書の構成と要点、そして偽情報研究における含意を整理する。
観察対象としてのFIMI──ディスインフォメーションと何が違うのか
本報告書では、FIMIを「外国主体による虚偽・誤解情報を用いた干渉行為」として定義し、国内発の偽情報(DIMI)と区別している。ディスインフォメーションが意図や主体を問わない「広義の虚偽情報」であるのに対し、FIMIは国家主権への侵害を含意する政治的行為であるという含みをもつ。
32の事例が示すFIMIの多様性と進化
本報告書の中心は、第4章に収められた32件のFIMI事例である。そのうち約3分の2はロシアによるもので、特にウクライナ戦争と欧州諸国に関連する干渉が多い。以下に典型的な類型を示す:
- 選挙干渉型(例:米共和党に対する偽情報供給、Voice of Europeによる欧州議会選影響)
- 戦争ナラティブ操作型(例:ゼレンスキーに関する偽画像・フェイク動画、民間人殺害の責任転嫁)
- 宗教・民族対立型(例:スウェーデンのコーラン焼却事件を利用したイスラム圏との分断工作)
- 中国・トルコ等による地域的影響操作(例:中国のPAPERWALLネットワーク、トルコの北キプロス正当化)
各ケースでは、「目的」「用いられたTTP(戦術・技術・手順)」「攻撃主体の構成」「影響評価」「対応措置」が共通のフォーマットで記述されている。
フレームワークによる構造化:DISARMとATHENAキャンバス
事例分析は、DISARMフレームワークに準拠して行われており、これはMITRE ATT&CKを情報操作に応用したものである。TTP(例:事実の歪曲、エコーチェンバー活用、偽専門家作成等)はコード化され、比較可能な単位で記述されている。
加えて、ATHENAプロジェクト独自の「Observable Canvas」「Incident Canvas」では、観測情報と事件構造をデザイン思考ベースで可視化する仕組みが導入されている。
生成AIとディープフェイク:新たなFIMIのフェーズ
報告書はまた、生成AI(LLM、画像生成)とディープフェイクがFIMIにどのように組み込まれているかについても詳細に分析している。例として挙げられるのは以下のような構図である:
- ChatGPTなどを用いた政治的メッセージの量産
- Midjourney等を利用した偽画像の拡散
- 機械生成された文章による「擬似的な世論形成」
これに対し、物理的不整合や指紋分析、スペクトル的検出など複数のアプローチが提案されているが、攻撃の自動化と検出の人力依存という非対称性が依然として課題である。
分析を通じて見えてきた知見と提言
第5〜7章では、以下のような主要な論点が抽出されている:
- プロキシの利用と非対称戦:国家が関与を隠蔽するため、企業やインフルエンサーを媒介。
- マルチメディアによる説得性の増強:テキストと画像・映像を組み合わせることで偽情報の信頼性を高める。
- 効果的な対抗策の条件:迅速な対応、OSINT活用、事前啓発(プレバンキング)、共通言語による国際協調。
総括:偽情報研究における「構造的視座」の導入
本報告書は、FIMIという概念を通じて、「誰が、なぜ、どのように」情報を操作するのかを体系的に記述する枠組みを提示している。単なる偽情報のファクトチェックを超えて、「構造」と「意図」に着目するこのアプローチは、今後の実践や研究にとって有益な参照点となるだろう。
コメント