国連軍縮研究所が分析する2025年のサイバー脅威:情報操作とAI技術の融合が生む新たな不安定性

国連軍縮研究所が分析する2025年のサイバー脅威:情報操作とAI技術の融合が生む新たな不安定性 AI

 国連軍縮研究所(UNIDIR)Security and Technology Programmeが2026年2月に発表した報告書「Securing Cyberspace for Peace: Insights into Cyberthreats and International Security in 2025」は、2025年のグローバルなサイバー脅威環境を国際平和・安全保障の観点から包括的に分析した68ページの文書である。本報告書は、2024年のUNIDIR Cyber Stability Conferenceでの議論、各国政府やサイバーセキュリティ企業の公開報告、専門家インサイトに基づき、進化するサイバー脅威、脅威アクターの複雑化、AI・量子コンピューティングなど新興技術の影響という3つの軸でサイバー空間の現状を描き出している。

 本稿では、この報告書が提示する2025年のサイバー脅威の全体像を踏まえつつ、特にサイバー有害情報操作(cyber-enabled influence operations)とAI技術の融合が国際安全保障にもたらす影響に焦点を当てて紹介する。報告書が示すデータによれば、2025年の世界の重要インフラは420百万件以上のサイバー攻撃を受け、これは前年比30%増に相当する。サイバー犯罪による経済的損失は10兆ドルを超え、これは世界第3位の経済規模に匹敵する。このような大規模な破壊的活動の中で、情報操作は単なる偽情報の拡散を超え、選挙プロセスの妨害、社会的分断の助長、人道支援活動の阻害といった多様な戦略目標を達成する手段として洗練されている。

2025年サイバー脅威の規模:システミックな混乱へのエスカレーション

 報告書は冒頭で、2025年のサイバー攻撃が「targeted attacks」から「systemic disruptions」へと質的に変化したと指摘する。この変化を示す具体的データとして、以下が挙げられている。

 まず、重要インフラへの攻撃頻度である。2025年に世界の重要インフラが直面した420百万件以上のサイバー攻撃のうち、約40%が国家主導の作戦によるものであり、エネルギー、水道、医療、クラウドサービス、IT、教育、政府、輸送、金融、通信といった重要セクターを標的としていた。Microsoft Digital Defense Report 2024によれば、国家主導のサイバー作戦の標的セクター内訳は、IT部門24%、教育・研究21%、政府12%、シンクタンク・NGO5%、輸送5%、金融5%、製造業4%、通信4%、消費者小売5%、その他14%となっている。

 次に、ランサムウェアの急増である。2024年にランサムウェア攻撃は前年比275%増加し、調査対象組織の59%がランサムウェア被害を経験した。そのうち70%のケースでデータが暗号化され、組織は高額な復旧コストかランサム支払いという選択を迫られた。Double extortion(二重恐喝)戦術、つまりデータを暗号化すると同時に盗んだデータの公開を脅すという手法が増加し、組織は評判リスク、規制リスク、運用リスクの複合的圧力に直面した。セクター別では、ビジネスサービス24.1%、小売15.2%、製造10.5%がランサムウェアの主要標的となった。

 サプライチェーン攻撃も倍増した。2024年に704,102件の悪意あるパッケージが発見され、これは2019年の水準から劇的な増加を示している。攻撃者は信頼されたソフトウェアベンダーやクラウドサービスプロバイダーを侵害することで、単一の侵入点から数千の下流顧客に同時にアクセスする「attack one, compromise many」原則を活用した。特に懸念されるのは、正規のソフトウェアアップデートやパッチ配信プロセス自体が攻撃ベクターとして悪用されるケースで、これはセキュリティを維持するためのプロセスへの信頼を根底から揺るがす。

 脆弱性の悪用速度も加速している。報告書が示すデータによれば、2022年には脆弱性が報告されてからパッチがリリースされ、攻撃者がエクスプロイトを開発するまでの時間窓は14-30日であったが、2024年にはこれが24-72時間に短縮された。これはサイバー犯罪組織内での分業が高度化し、脆弱性ハンティング専門グループが公開パッチから迅速に脆弱性を特定し、ブラックマーケットで販売する体制が確立されたためである。

サイバー有害情報操作の進化:Hack-and-LeakからAI生成操作まで

 報告書では、サイバー技術を活用した情報操作が2025年にどのように洗練されたかを詳述している。

2024年「AI選挙年」の実態

 2024年は「AI選挙年」として注目された。世界人口の半数以上を占める60カ国以上で選挙が実施され、AI生成コンテンツによる民主的プロセスの妨害が懸念された。報告書は、AI生成の偽情報が選挙結果に関する虚偽の主張を拡散し、世論調査を操作し、中傷キャンペーンを展開する可能性を指摘する。

 ただし、2024年選挙サイクルにおけるAI生成コンテンツの直接的影響は当初の懸念ほど大きくなかったと専門家は評価している。規制措置、業界の自主規制、AI生成コンテンツに対する公衆の懐疑心の組み合わせが、その効果を軽減した可能性がある。しかし、AI生成の偽情報・誤情報は様々な地域の選挙で検出されており、今後より洗練された検出困難な情報操作への傾向を示している。

Hack-and-Leak戦術の展開

 2024年選挙サイクルで報告された顕著な手法がhack-and-leak作戦である。これは、政府機関、政党、メディア組織、公的人物へのサイバー侵入を実行し、盗んだデータを選択的にリークして公共の言説を形成する手法だ。報告書は、この作戦が「リークされた文書の信憑性」を悪用し、たとえ改変されたり文脈から切り離されていても、選挙妨害、政治家の信用失墜、公共政策への影響を狙うと説明する。

AI生成コンテンツの技術的進化

 生成AIのアクセス可能性の向上により、脅威アクターは偽情報キャンペーンの説得力を高めることができるようになった。報告書は、2025年に以下の技術が展開されたと記録する:

  • 超リアルなディープフェイク動画
  • 合成音声記録
  • 改変画像
  • 自動化されたフェイクニュース記事

 AI生成コンテンツは政治家になりすまし、虚偽の声明を捏造し、偽の言説を拡散するために使用された。技術はまた、外国アクターが現地言語で説得力のある言説を生成する能力を増幅し、偽情報キャンペーンを特定の文化的・政治的文脈に合わせてカスタマイズすることを可能にした。

 報告書は、これらの取り組みが最近の選挙結果を決定的に変えたという証拠はほとんどないと慎重に述べつつも、AIツールがより洗練されアクセス可能になるにつれて、偽情報における役割が拡大すると予想している。これにより検出と軽減がますます困難になる。

選挙インフラへのサイバー侵入

 投票インフラを標的とするサイバー侵入の試みも増加した。攻撃者は有権者登録データベース、デジタル投票システム、選挙管理委員会のウェブサイトに焦点を当てている。これらのインシデントは選挙の完全性を脅かすだけでなく、民主的プロセスの信用を失墜させる口実となり、選挙への公的信頼を損なう可能性がある。

 具体的なケーススタディとして、報告書は2024年4月のジョージア州(米国)の郡のコンピュータインフラへのサイバー攻撃を挙げている。この攻撃により州レベルの当局は当該郡のジョージア州全体の選挙システムへのアクセスを遮断した。データの流出の証拠はなかったが、この攻撃は地方の選挙インフラの脆弱性を浮き彫りにし、選挙の完全性に対するサイバー脅威の潜在的リスクを強調した。

ソーシャルメディアプラットフォームとアルゴリズム増幅

 ソーシャルメディアプラットフォームは多くのサイバー有害情報キャンペーンの主要なベクターであり続けた。脅威アクターはプラットフォームのアルゴリズムを悪用して分断的な言説を増幅し、ボットネットワークと組織的な偽情報キャンペーンを使用してオンライン言説を操作した。

 エンゲージメントを最大化するように設計されたアルゴリズムは、意図せずセンセーショナルで偏向したコンテンツを優先する可能性があり、偽情報と操作の肥沃な土壌を作り出す。ボットと偽アカウントの拡散は、ユーザーが正当な言説と組織的な影響工作を区別することをさらに困難にしている。

 報告書は、既存のアルゴリズムバイアスを活用することで、悪意あるアクターが誤解を招くコンテンツが最も影響を受けやすい対象オーディエンスに到達する確率を最大化し、意図的に偏向したコンテンツの政治的・社会的影響を最大化できると指摘する。特に性別と人種に関わる文脈において、一部のアルゴリズムシステムに組み込まれていると報告されているバイアスは、これらの課題を悪化させる可能性がある。

情報操作の社会的影響

 サイバー有害情報キャンペーンの社会的影響は、選挙政治だけでなく、公衆衛生、社会的安定性、さらには紛争のダイナミクスにも及ぶ。健康に関する誤情報は公衆衛生イニシアティブを妨げ、COVID-19パンデミックなどの危機を悪化させ、治療、ワクチン、政府の対応に関する虚偽の言説を拡散した。同様に、疎外されたコミュニティを標的とする偽情報キャンペーンは社会的不平等を深め、ヘイトスピーチ、暴力、社会的偏向を助長している。

 武力紛争の文脈では、サイバー有害情報操作は人道危機に関する報道を歪曲し、軍事行動に関する言説を操作し、国際機関への信頼を損なうために使用される可能性がある。大規模にデジタルコンテンツを捏造または選択的に改変する能力により、悪意あるアクターは混乱を引き起こし、攻撃を正当化し、検証された情報への公的信頼を侵食することが容易になり、危機対応と外交努力をさらに複雑にしている。

 報告書は、2023年のイスラエル・ハマス紛争におけるAI生成戦争画像の事例を挙げている。空襲、破壊された建物、紛争地帯を描いた架空のシーンを描写するAI生成画像が、ストック画像プラットフォームにアップロードされた後、複数の報道機関によって誤って使用された。これらの合成画像は生成AIツールによって作成されたもので、戦争ジャーナリズムの完全性に関する懸念を引き起こした。必ずしも偽情報として意図されたものではなかったが、それらの意図しない使用は事実に基づく戦争報道への公的信頼を損ない、様々なアクターが戦争報道の信頼性に疑問を呈し、破壊の規模を軽視することを可能にした。このインシデントは、AI生成コンテンツが、たとえ悪意を持って展開されていなくても、公的認識を歪め、検証された情報への信頼を侵食し、正確な危機報道を維持する努力を複雑にすることで、どのように影響工作を助長できるかを浮き彫りにした。

AI技術とサイバー攻撃の融合:パスワードスプレーから敵対的攻撃まで

 報告書では、AI技術が攻撃と防御の両面でサイバーセキュリティをどのように変容させているかをAI駆動型サイバー攻撃、AIシステムへの敵対的攻撃、AI駆動型サイバー防御の3つの側面から分析している。

AI駆動型サイバー攻撃の規模拡大

 2025年には、政府、重要インフラ事業者、産業、個人を標的とするAI駆動型サイバー攻撃が顕著に増加した。攻撃者はAIを運用実践に統合し、大規模なフィッシングキャンペーンの自動化、パスワードスプレー攻撃の加速、マルウェア能力の強化を実現した。

 Microsoftの報告によれば、パスワードスプレー攻撃は、システムへの不正アクセスを獲得しランサムウェアペイロードを配信するための最も強力な戦略の1つであり、2023年の月間約30億回の試行から2024年には月間300億回に増加した。この傾向は主にAI対応の自動化によって推進されている。

 パスワードスプレー攻撃とは、攻撃者が単一のアカウントに対して多数のパスワードを試すのではなく、多数のユーザー名に対して一般的に使用されるいくつかのパスワードを試すことでアクセスを試みる手法である。この方法は、複数回の誤ったログイン試行後に発生するアカウントロックアウトを回避し、脆弱なパスワードポリシーを悪用する効果的な手段となっている。

AI駆動型ソーシャルエンジニアリング

 2025年にはAI駆動型ソーシャルエンジニアリング戦術の広範な展開があり、サイバー攻撃の効果が大幅に増幅された。特にAI生成フィッシングメールはより高度になり、検出が困難で被害者により説得力のあるものとなった。

 フィッシングは新しい手法ではないが、これまで洗練された試みには時間、現地の文脈と言語の知識、社会的スキルが必要だった。最近、悪意あるアクターはAIを利用して高度にカスタマイズされたパーソナライズされたメールフィッシングメッセージを生成し始めた。成功したフィッシング攻撃により、悪意あるアクターは組織内の信頼された1つのメールアカウントに侵入し、そのアカウントを使用して同じ組織内の他のユーザーに有害なリンクと添付ファイルを含むメールを送信できる。多くのフィッシングメールが現在組織内部から送信されているため、複数のユーザーが正当で信頼されたソースから来るリンクをクリックすることでフィッシング攻撃の被害者となることが多く、成功したサイバー攻撃がデジタル環境全体でより速く広範囲に拡散する。

AIによるマルウェア開発の進化

 悪意あるアクターはまた、AIを使用してリアルタイムで検出を回避し、セキュリティ対策に適応できる高度なマルウェアバリアントを開発した。AIにより、攻撃者はポリモーフィックマルウェアの作成を自動化できる。これは従来のアンチウイルス防御をバイパスするためにコードを継続的に変更するマルウェアである。さらに、コード暗号化やパッキングなどのAI駆動型難読化技術により、悪意あるコードの分析と除去がより困難になる。

 難読化とは、攻撃者がアンチウイルスソフトウェアをバイパスし、アナリストによる悪意あるコードの検出や遅延を防ぐために使用する一般的な技術を指す。最も頻繁に使用される難読化技術には、コード暗号化(マルウェアのコードをスクランブルしてセキュリティツールから真の機能を隠す)とパッキング(マルウェアを別の形式に圧縮してターゲットシステムでアンパックされアクティブ化されるまで無害に見せる)が含まれる。

 最近の研究は、AI駆動型ツールが数千のマルウェアバリアントを生成できることを実証している。これは従来のセキュリティシステムを圧倒するのに十分である。一部のAI生成マルウェアは、防御的対応から学習し、検出されないままでいるために行動を変更することさえできる。AI支援マルウェア開発が進化し続けるにつれて、サイバーセキュリティ専門家にとって、洗練された脅威に対抗するためにAI駆動型防御を採用する必要性という新たな課題が生じる可能性がある。

AIシステムへの敵対的攻撃

 敵対的AI攻撃、つまり脅威アクターがAIシステムを操作してエラーを生成させる攻撃も、AIシステムがより大規模に展開され続けるにつれて、増大する懸念を引き起こしている。AI駆動型意思決定プロセスの脆弱性を悪用しようとするこれらの攻撃は、特に輸送や防衛などの重要な領域で深刻な結果をもたらす可能性がある。

 敵対的攻撃とは、悪意あるアクターが人工知能を騙して間違いを犯させるために使用する技術である。AIモデルは意思決定を行うためにデータのパターンに依存しているが、攻撃者はこれらのパターンを微妙な方法で操作してシステムを混乱させることができる。例えば、画像、テキスト、音声録音を、人間には正常に見えるがAIが誤って解釈する方法でわずかに変更する可能性がある。サイバーセキュリティにおいて、敵対的攻撃はAI駆動型セキュリティシステムをバイパスしたり、マルウェア検出を回避したり、顔認識ソフトウェアを欺くために使用できる。金融、防衛、医療などの高リスク分野でAIシステムが将来広く展開される場合、敵対的攻撃は国家安全保障と経済安定性に深刻なリスクをもたらし、個人をリスクにさらす可能性がある。このため、そのような操作に耐えられるAIモデルを開発することが極めて重要である。

AI駆動型サイバー防御の可能性

 AIはまた、サイバーセキュリティ防御を改善する可能性も秘めている。AI駆動型システムは既に、脅威分析、インシデント対応、監視プロセスを自動化することで、防御者のスキル、スピード、知識を向上させている。AI駆動型セキュリティ分析は、大規模なデータセットを分析して疑わしい活動を特定することで、以前は未知の脅威を検出するのにも役立つ。

 例えば、AIベースの防御は、ウクライナでの紛争中にサイバー攻撃を撃退する上で効果的であることが証明されており、以前は未知の悪意あるコードを事前に特定してブロックすることが、複数の重要セクターにわたる大規模な混乱を防ぐ上で極めて重要な役割を果たしたと報告されている。

 報告書は、AIがサイバー防御を強化する主要な方法として以下を列挙する:

  • 自動化された脅威分析: AIはリアルタイムで膨大な量のデータを処理し、サイバー脅威を示す可能性のあるパターンと異常を特定できる
  • 迅速なインシデント対応: AIは自動的に攻撃をブロックするアクションを実行でき、人間が問題に気づく前に被害を軽減する
  • 高度な脅威検出: AIはデータの奇妙なパターンを探すことで、これまで見たことのないサイバー脅威をセキュリティチームが発見するのを支援する
  • プロアクティブなマルウェア防御: AIシステムは、以前に見たことがなくても実行前に悪意あるコードを特定してブロックできる
  • 紛争地帯でのサイバー防御の強化: AIベースの防御は、武力紛争の文脈でサイバー攻撃に対抗するために展開され、重要セクター全体にわたる大規模な混乱を防ぐことに成功している

 これらの進歩は、AIがクラウドベースの分析と個々のデバイスからの脅威インテリジェンスと組み合わせられた場合、最終的に一部のサイバー防御者に有利にバランスを傾ける可能性があることを示唆している。ただし、サイバーセキュリティにおけるAIの展開には、膨大なデータセットや計算能力を含む、重要なリソース、エネルギー、インフラストラクチャが必要である。これにより、これらの防御措置へのアクセスが一握りの十分なリソースを持つ組織に制限され、サイバーセキュリティ環境における既存の不平等が悪化する可能性がある。このサイバーセキュリティギャップは、サイバーセキュリティ能力における公平性に関する懸念を引き起こし、時間の経過とともに、小規模な組織や一部の開発途上国を洗練されたサイバー脅威に対してますます脆弱にする可能性がある。

 一方、自動化された防御への過度の依存は、AIベースのセキュリティシステム自体を標的とする敵対的サイバー攻撃の場合に組織を脆弱にする可能性がある。脅威アクターは、AI意思決定モデルを操作する技術を開発していると報告されており、機械学習アルゴリズムに排他的に依存するセキュリティアプリケーションにとって重大なリスクを生み出している。さらに、AIアルゴリズムの不透明性は、敵対的AI攻撃の検出と軽減を複雑にする可能性があり、一部のアクターは、特に輸送や防衛などのハイステークスドメインでAIシステムを標的とするサイバー攻撃を禁止する国際規範的枠組みを求めている。これらの分野では、AIの改ざんが人命を犠牲にする可能性がある。

国連プロセスにおける議論と対応枠組み

 報告書は、これらの脅威に対する国際社会の対応として、国連のOpen-ended Working Group(OEWG)on ICT securityでの議論を詳述している。

サイバー有害情報操作への対応

 サイバー有害情報操作によってもたらされるエスカレートするリスクを認識し、国連加盟国は民主的プロセスと情報エコシステムの完全性を保護するための集団行動の緊急の必要性を強調している。OEWGは、悪意あるICT活動、特に選挙プロセスへの信頼を損なう活動が、国際平和と安全保障にとって懸念事項であることを強調している。多くの国家と国際機関は、サイバー脅威と影響工作の収束を強調し、これらのキャンペーンが国内の安定性を混乱させるだけでなく、地政学的緊張を悪化させ、統治への公的信頼を侵食する可能性があると警告している。

 これらの課題に対応するため、サイバー有害情報操作によってもたらされる脅威を軽減することを目的としたいくつかの措置が検討可能である。選挙セキュリティの強化が主要な焦点となっており、デジタル選挙インフラのサイバーセキュリティ防御の改善、サイバー攻撃に対する回復力の向上、hack-and-leak偽情報キャンペーンへの対抗に重点が置かれている。デジタルリテラシーと公的認識の促進も重要な優先事項として特定されており、個人が操作的なコンテンツやアルゴリズム的に増幅された偽情報を認識し抵抗するために必要なスキルを身につけることが求められている。

 さらに、アルゴリズムバイアスへの対処には、アルゴリズムをトレーニングするための代表的なデータセットの改善、バイアスのあるコードを特定して修正するためのシステムの監査、政策立案者へのジェンダー感作の提供、ソーシャルメディアアルゴリズムの開発、展開、使用を導くグッドプラクティスを抽出するためのマルチステークホルダー協力の奨励が必要である。最後に、AI生成コンテンツに関するより大きな透明性の促進、規制枠組み、官民パートナーシップ、強化されたコンテンツスキャニングを通じて、欺瞞的な言説の拡散を抑制するために不可欠であると認識されている。

実施における課題

 しかし、効果的な軽減措置の実施には重大な課題が残っている。生成AIツールの急速な進歩と、情報規制に関する国家政策の相違が、規制と執行の取り組みを複雑にしている。最近の傾向が浮き彫りにしているように、脅威アクターは戦術を洗練し続けている一方で、検出と対応メカニズムはペースを保つのに苦労している。さらに、デジタルプラットフォームの分散的な性質とサイバー有害偽情報キャンペーンのグローバルなリーチにより、アクターに責任を負わせることが困難になっている。

 2024年の「AI選挙年」は、恐れられていたような偽情報の広範な影響を見なかったかもしれないが、現れている傾向は、次の影響工作の波がさらに洗練され、欺瞞的で、対抗するのが困難になる可能性があることを示唆している。敵対者が方法を洗練させるにつれて、サイバー有害情報操作は、もはやメディア規制や選挙監視の課題だけではなく、サイバーセキュリティ専門家にとっても重要な懸念事項となる可能性がある。これらの最近の発展はまた、民主的プロセス、公的信頼、国際安定性の完全性を維持しながら、サイバー有害影響キャンペーンに対する回復力を構築するために、政府、技術企業、市民社会が協力することの重要性を強調している。

今後の展望:脅威の複雑化と対応の緊急性

 報告書は結論部分で、2025年のサイバー脅威環境が示す深刻な課題を総括している。サイバー攻撃の規模、複雑性、影響の増大は、それらがもはや孤立した技術的事象ではなく、国境やドメインを越えて連鎖的影響を生み出す能力を持つシステミックな脅威であることを浮き彫りにしている。

 特に情報操作の文脈では、AI技術との融合が新たな次元の脅威を生み出している。パスワードスプレー攻撃の月間300億回への急増、AI生成フィッシングメールの説得力の向上、ソーシャルメディアアルゴリズムを通じた偽情報の戦略的増幅という3つの要素が組み合わさることで、従来の防御メカニズムでは対処困難な複合的脅威が形成されている。

 報告書が強調する重要な洞察は、サイバー脅威が技術的課題であると同時に、社会的・政治的課題でもあるという点である。選挙への信頼の侵食、公衆衛生危機における誤情報の拡散、武力紛争における人道報道の歪曲といった事例は、サイバー空間の安定性が民主的統治、公衆の福祉、国際平和の基盤そのものに直結していることを示している。

 UNIDIRは、国連の責任ある国家行動枠組み(United Nations Framework of Responsible State Behaviour in Cyberspace)の運用化を支援する文脈で本報告書を位置づけている。2025年に設立された国連のICT分野における発展に関するグローバルメカニズムの運用化が進む中、本報告書は外交官と政策立案者が進化するサイバー脅威に関する認識を深め、協調的な国際対応を支援することを目指している。

 報告書が提示するデータと分析は、サイバー空間の安定性維持が単なる技術的最適化の問題ではなく、国際協力、規範の強化、能力構築への持続的投資を必要とする複合的課題であることを明確にしている。特に情報操作とAI技術の融合という領域では、技術的対策、法的枠組み、社会的レジリエンスの構築という3つの層での同時的取り組みが不可欠となる。

コメント

タイトルとURLをコピーしました