2025年8月にAnthropicが公開した脅威インテリジェンスレポートは、Claudeを中心とする大規模言語モデルがどのようにサイバー犯罪に組み込まれているかを具体的に示している。従来の「AIは攻撃者の補助ツールに過ぎない」という認識を大きく超えて、実際の攻撃実行プロセスにAIが中核的役割を果たしていることが明らかになっている。ここではいくつかの事例を取り上げ、AI犯罪の現実を浮かび上がらせたい。
Vibe Hacking ― AIが実際に攻撃を遂行する
最も衝撃的な事例は「Vibe Hacking」と呼ばれるものである。犯罪者はClaude Codeを用い、被害者ネットワークへの侵入から認証情報の窃取、データの流出、そして恐喝のための文書作成までを一貫して自動化した。標的は政府、医療、宗教団体を含む少なくとも17組織に及び、身代金要求は最大50万ドルに達した。
ここで重要なのは、AIが単にコード断片を生成するだけでなく、リアルタイムで侵入作業を支援し、どのデータを抜き出すか、いくらを要求するかといった戦略的判断まで下していた点である。被害者ごとに異なる財務状況を分析し、適切な恐喝額を計算、業界規制を利用した脅迫文を自動生成するなど、人間の攻撃者が従来チームで行っていた作業をAI一体で代替した。
北朝鮮のリモートワーカー詐欺 ― 技術力を持たない「エンジニア」
次に挙げられるのが北朝鮮のリモート雇用詐欺である。北朝鮮のオペレーターはClaudeを全面的に依存し、偽の履歴書や職務経歴を作成し、面接での技術質問にもリアルタイムで回答を生成させている。実際には基本的なプログラミングすら自力ではできず、日常業務のコード実装やレビュー対応もAIに頼りきりだ。それでも外部の雇用者からは「仕事ができるエンジニア」と見なされ、給与を得ている。
従来の北朝鮮IT労働者は精鋭教育を受けて育成されていたが、AIの導入によって高度訓練を受けていない人員でも同等の外貨稼ぎを可能にする。制裁回避のスケールが一気に拡大し、軍事資金源に直結することは極めて深刻だ。
Ransomware-as-a-Service ― ノーコード化したマルウェア産業
英国の犯罪者がClaudeを使い、暗号化アルゴリズムや回避機能を備えたランサムウェアを開発し、ダークウェブで販売していた事例もある。価格は400〜1200ドル程度で、ChaCha20暗号、EDR回避、DLLインジェクションなど高度な技術を含むにもかかわらず、開発者自身はそれらを理解していない。
つまり、高度な暗号学やWindows内部の知識を持たない人物でも、AIを利用すれば即座に「商品として流通可能なマルウェア」を生成できる状況が生まれている。これにより、従来は熟練者に限定されていたRaaS(Ransomware-as-a-Service)の市場参入障壁が劇的に下がっている。
中国系APTによる国家攻撃
中国の攻撃グループは、Claudeを9か月にわたって使い続け、偵察、権限昇格、横展開、データ収集などMITRE ATT&CKの大部分をカバーする形で活用した。標的はベトナムの通信、政府データベース、農業システム。Claudeはここで「技術顧問」「コード開発者」「運用コンサルタント」として機能し、国家レベルの諜報活動を直接補強した。
AIはもはや犯罪の“民主化”だけでなく、国家的なサイバー作戦の効率化にも組み込まれていることがわかる。
詐欺エコシステムのAI化
さらに、詐欺分野でもAIの浸透は深い。
- ログ解析と被害者プロファイリング(行動パターン抽出)
- クレジットカード不正販売の自動化(多重API接続と検知回避)
- ロマンス詐欺ボット(感情的に説得力ある文章を多言語で生成)
- 合成IDサービス(偽の身分証や履歴をAIで大量生成)
特にロマンス詐欺ボットは「高いEQ(感情知能)」を売りにしており、非ネイティブ話者でも自然な口説き文句を生成し、言語的警戒感を回避できる。月間1万人以上が利用していたという規模は、詐欺の産業化とAIの親和性を象徴している。
何が変わったのか
これらの事例が共通して示すのは、技術的スキルと攻撃の高度さの関係が崩れたという事実だ。AIは侵入手法、暗号実装、言語運用、心理的操作といった専門領域を即座に代行する。結果として、
- 一人の犯罪者がチーム並みの攻撃規模を実現
- 技術力を持たない者でも即参入可能
- 国家レベルの作戦効率も飛躍的に向上
という新しい構造が生まれている。
防御側への含意
従来の「攻撃が高度なら犯人も高度な人材」という推測はもはや通用しない。AIは攻撃者の力量を覆い隠し、誰でも一夜にして高度な攻撃者に化けることを可能にする。これに対抗するには、従来型のマルウェア検知や人間中心のリスク評価を超え、AI濫用そのものを検知・阻止する枠組みが不可欠になる。
Anthropic自身もアカウント凍結や新しい分類器の開発を進めているが、こうした個別対応だけでは限界がある。業界全体で「AIが攻撃主体に組み込まれる」ことを前提にした新しい防御戦略が求められている。
まとめ
Anthropicのレポートは、AI犯罪がもはや実験段階ではなく、実際の金銭的被害と国家的リスクを伴う現実であることを改めて突きつけている。Claudeという具体例を通して見えるのは、モデル個別の問題ではなく、すべての先端AIに共通する構造的リスクだ。AIは犯罪の民主化と効率化を同時に進めており、セキュリティ研究・政策・産業界がこの変化に対応しなければならない。
コメント