オランダ国際関係研究所Clingendaelが発表した本報告書「From Plausible Tomorrows to Prompt Action on AI」(2025年11月)は、AIが国家安全保障に及ぼす影響を検討した初の包括的な戦略的フォーサイトである。依頼主はAIVD(情報保安局)とRDI(デジタルインフラ庁)であり、目的はAI技術の発展がどのようにオランダの安全保障上の六つの利益(領土・国民・経済・環境・社会・国際秩序)を再構成するかを把握することにある。報告書は単なる技術リスクの列挙ではなく、複数の「あり得る未来(plausible tomorrows)」を描くことで政策的判断を促す構成をとる。
現状認識:AIをめぐる地政構造
分析の出発点として、Clingendaelは2025年時点のAIエコシステムを「安全保障上のベースライン」として整理している。中心となるのは三点である。
第一に、AIは米中両国による戦略的レースの主要舞台となっている。インフラ・人材・資金の集中により、両国はAI技術を安全保障と産業政策の双方で国家戦略化している。一方、EUは資本と計算資源の不足、規制上の制約により構造的に遅れている。
第二に、オープンソース化と自律的AI(agentic AI)の登場がリスク構造を複雑化させている。AIモデルへのアクセスが民主化することで、政府や企業だけでなく非国家主体も強力な情報操作・サイバー攻撃能力を獲得しつつある。
第三に、AI拡張の速度そのものが統治能力を上回っている。AIは今や狭義の技術ではなく、情報環境・労働市場・エネルギー需給・法制度を同時に変化させる「全領域型変数」となりつつある。この現状認識を踏まえ、ClingendaelはAIの安全保障リスクを「アクセスの度合い」と「社会的浸透度」という二つの不確実性から分析する枠組みを設定した。
三つの「あり得る未来」:AIが国家を揺るがす構造
1. オープンAIの拡散と非国家主体の台頭
DeepSeekによる高性能オープンモデルの公開以降、AIが広く普及した世界を想定する。国家と非国家主体の能力格差は急速に縮まり、ディープフェイクによる世論操作やAI制御ドローンによる攻撃が常態化する。ロッテルダム港への無人機攻撃という象徴的事件は、AIが既存の安全保障枠組みを超えて拡散することの脅威を示す。
この状況では、国家はAIによって防衛力を強化する一方で、社会全体が「真実の崩壊(truth decay)」にさらされる。AI生成情報が現実と区別できなくなり、民主主義の基盤である信頼が失われる。Clingendaelはこれを技術の民主化がもたらす安全保障パラドックスとして位置づける。
2. 自律AIの全面浸透と統治不全
次のシナリオは、agentic AIが政治・経済・社会に深く浸透した世界を描く。AIは自ら判断し、医療・司法・防衛などの意思決定を自動化する。国家は技術企業との連携なしに政策を実行できず、産業と安全保障が融合した「企業国家」的構造が形成される。
AIによる自動化は生産性を高めるが、ホワイトカラー職の急速な消失を招き、社会保障制度が逼迫する。公平性を欠いたAI判事や医療AIが生む制度的不信は、社会の分断を一層深める。報告書はこれを「AIの統治不全(governance gap)」と定義し、国家能力の低下が最大の脅威になるとする。
3. 米中依存とデジタル主権の喪失
第三のシナリオは、AI超大国が米国と中国に収束し、欧州がどちらかに依存する未来である。AI基盤・クラウド・チップを外部に握られたEUは、主権と意思決定の自律性を喪失する。AIの更新や安全基準はワシントンや北京で決まり、欧州は「デジタル植民地」と化す。
この状況では、AIによる情報統制が民主主義的統治を上書きし、「誰が真実を定義するか」という問題が安全保障の核心となる。Clingendaelは、ここで失われるのは単なる技術的自立ではなく、「社会が自らの物語を語る権利」──すなわちナラティブ主権(narrative sovereignty)だと指摘する。
政策提言:AIを公共財とみなす国家戦略
三つのシナリオはいずれも異なる形で国家の自律性を脅かす。報告書はこれに対し、AIを市場の私財ではなく公共財(public good)として扱うべきだと結論づける。そのための行動指針として七項目を挙げる。
- 二重用途AIの管理とライセンス制の導入:自律兵器や高性能ドローンを民生技術と切り離す枠組み。
- 安全なソフトウェア更新の制度化:独立監査によるベンダー更新の検証。
- 情報空間の防衛とAIリテラシー教育:DSA・AI法の厳格運用と、社会的耐性の向上。
- アルゴリズム偏向防止と人間監督の義務化:公共分野では人による最終判断を保証。
- 権利ベースのAI利用原則:AIによる判断ではなく、人による応答を受ける権利を法的に明確化。
- 国内計算基盤と深層技術産業への投資:AIファクトリー、半導体、ロボティクス、AgriTechなどへの集中支援。
- 首相府下にデジタル担当大臣を設置:省庁横断の統合戦略機能を持ち、AIを公共財として管理する。
これらの提言は単なる規制案ではなく、欧州がAI時代に自律的に生き残るための産業・安全保障複合戦略として設計されている。
意義と射程:戦略的想像力としてのフォーサイト
Clingendaelの報告書が特異なのは、AIリスクを列挙するのではなく、「どの未来に備えるか」という政策思考を制度化している点にある。三つの未来像はいずれも実在する兆候の延長に描かれ、現実の技術・政治動向を踏まえた構造的警鐘となっている。
結論として報告書は、AIの脅威を避ける方法を問うのではなく、AIが社会に不可避的に埋め込まれる前提で、自国の主権をどう再定義するかを問う。安全保障を「技術から守ること」ではなく、「技術を通じて守ること」として再構築する──それが本書の最も重要な視座である。


コメント