2025年9月、Ethical AI Alliance(EAIA) は政策ブリーフ「Filling the Accountability Gap: Towards a Global Monitoring & Reporting Mechanism for AI Harms」を発表した。この文書の中心的な問題意識は、AIガバナンスにおける「被害の扱い」である。国連総会はこれまでに複数のAI関連決議(78/265、79/1、79/325)を採択し、科学パネルやグローバル・ダイアログの設置を決めている。だが、そこには決定的な欠落がある。AIが現に引き起こしている被害をどう監視し、誰に説明責任を取らせるのかという仕組みが存在しないのである。
EAIAは、この欠落を「アカウンタビリティ・ギャップ」と呼び、国連の既存制度を応用して埋めることを提案する。それがAI被害のMRM(Monitoring & Reporting Mechanism)である。
国連MRMの応用という発想
MRMはもともと武力紛争下で子どもに対する重大な人権侵害を監視するために設けられた仕組みだ。現地からの報告を収集し、国連が独立検証を行い、定期的に安保理に報告する。これにより加害主体を国際的に名指しする効果を持ってきた。
EAIAのブリーフは、この仕組みをAIに応用すべきだと主張する。つまり、AIによる被害を国際的に監視し、定期的に報告する仕組みを制度として設けることで、抽象的な原則宣言を超えて実効的な説明責任を実現しようというのだ。
AI Harm Mapが示す可能性
提案の根拠のひとつが、市民社会が既に試みている「AI Harm Map」である。これは検証済みのAI被害事例を収集・分類し、地図上に可視化したものだ。
分類はCSETのハーム分類に基づき、「身体の安全」「人権侵害」「環境」「偽情報」「インフラ」「金銭的損失」といったカテゴリで整理される。情報源は国際報道、国際機関の文書、NGO報告、学術研究などで、信頼性が重視されている。
事例としては、次のようなものがある。
- 戦場の誤爆リスク:イスラエルがガザで使用したとされる「Lavender」システムは90%の精度をうたうが、残りの10%は民間人誤爆につながる可能性を含む。
- 監視による人権侵害:新疆では顔認識が住民統制に利用され、ミャンマーでは監視カメラ網が活動家の命を脅かしている。
- 環境負荷:大規模AIの学習を支えるデータセンターは水資源と電力を消費し、CO₂排出を増加させている。
- ディスインフォメーション:AI生成コンテンツの拡散が社会的分断と民主主義への信頼失墜を招いている。
これらは「リスク」ではなく「現実に発生した被害」である点が重要だ。AI Harm Mapは、こうした被害を体系的に記録・可視化することの可能性を実証している。
武力紛争という空白を埋める
EAIAのブリーフが特に問題視するのは、国連決議79/325が軍事領域を対象外とした点だ。だが、現実に最も深刻な被害が生じているのは紛争現場である。AIによるターゲティングやプロファイリングは国際人道法の適用を困難にし、国家が民間企業に依存することで責任の所在があいまいになっている。
EAIAは、こうした「法のグレーゾーン」を放置すれば被害は拡大し、記録もされないままになると警告する。AI被害MRMはこの空白を埋め、軍事領域でも説明責任を取り戻す仕組みとなることが期待されている。
偽情報を「被害」として扱う
このブリーフで注目すべきもう一つの点は、偽情報を明確に「被害」として位置づけていることだ。従来の議論では偽情報は「リスク」や「脅威」とされるにとどまっていた。EAIAは、これを身体的被害や環境被害と同列に扱い、検証可能な被害として記録することを提案する。
社会不安や民主主義の弱体化を引き起こす偽情報を「被害」として制度的に監視することは、偽情報研究にとっても重要な転換点である。
2026年のパイロット構想
EAIAの提案は理念にとどまらない。ブリーフは2026年に小規模なタスクフォースを設立し、パイロット版MRMを走らせるべきだと提案する。ここで被害の収集・検証の方法を試し、信頼性の基準や現地組織との連携体制を整える。最初から安保理決議に組み込むのではなく、軽量パイロットとして実行可能性を確認しながら制度化を進める現実的な戦略が示されている。
結論──証拠に基づくAIガバナンスへ
EAIAの政策ブリーフは、国連のAI議論に欠けていた視点を補っている。理念的な原則宣言に終始するのではなく、検証済みの被害を記録し、国際制度に組み込むことを求めているのだ。
紛争、監視、人権侵害、環境負荷、偽情報──多様な被害を一つのMRMに束ね、責任主体を可視化する。その挑戦は、AIガバナンスを「理念」から「証拠」に基づく仕組みへと転換させる可能性を持つ。もし2026年のパイロットが実現すれば、AI被害は初めて体系的に記録され、説明責任を問うための国際的な道具が生まれることになるだろう。
コメント