2025年6月に公開された『The California Report on Frontier AI Policy』は、米国カリフォルニア州政府の依頼に基づき、スタンフォード大学、カーネギー国際平和基金、UCバークレーの研究者によって共同執筆された報告書である。LLMを中心としたfoundation model、さらにそのなかでも最も能力の高いfrontier modelに特化し、州としていかなる政策枠組が望ましいかを構造的に提案している。
この文書の特徴は、政策提言でありながら特定の法案への支持や反対を述べるものではなく、あくまで「エビデンスに基づく政策立案のための基盤整備」という点に主眼が置かれていることにある。現行制度の限界を踏まえ、将来のAIリスクに備えるための制度的原則を提示するという点において、国際的にも参照価値の高い報告である。
「信頼せよ、しかし検証せよ」というガバナンスの原則
報告書の冒頭では、AIの持つ潜在的利益とリスクを並列的に評価し、「信頼せよ、しかし検証せよ(trust but verify)」というスローガンの下、次の8つの原則が提起される。
- 利益とリスクの均衡を前提とした介入設計
- 観察された被害に限定しない、予測を含む証拠利用
- 初期設計が後のパス依存性を形成するという認識
- 業界の専門性と規制による検証の並立
- 透明性がアカウンタビリティと競争を促す
- 内部告発と第三者評価による補完的透明化
- 展開後の実害把握のための報告制度(adverse event reporting)
- 量的閾値設定の柔軟性と適応性の担保
これらの原則はいずれも、AIを他のテクノロジーと同様に「規制対象」として捉えるのではなく、学術的知見・制度史・リスク科学など多元的な根拠に基づいてアプローチすべきことを強調する。
歴史的事例から引き出される「政策の窓」の重要性
第2章では、AIガバナンスに対して応用可能な歴史的アナロジーが精緻に整理されている。
- インターネット初期設計の例:セキュリティ設計の欠如が後年の重大な損失(GDPの0.9〜4.1%の経済損失)を生んだ事実に照らし、frontier AIにおいても初期の制度設計が不可逆的な影響を与えうると警告する。
- 消費財(煙草)の透明性欠如:企業が内部リスク情報を秘匿した結果、規制が遅れ、被害が拡大。情報の非対称性が訴訟や制度不信を招いた事例として紹介される。
- エネルギー企業と気候モデル:温暖化に関する正確な社内シミュレーションを隠蔽した事例を通じ、第三者評価とモデル公開の必要性が説かれる。
さらに座席ベルトや殺虫剤規制など、「利益を損なわずに安全性を向上させた制度設計」の実例も簡潔に取り上げられており、規制がイノベーションと対立しない可能性を示唆している。
透明性:目的と実効性に基づく設計
第3章では、foundation modelにおける情報の非対称性と、その打開策としての透明性確保が扱われる。単なる「情報開示」ではなく、それが行動可能(actionable)で、目的に即した(purposeful)ものであるべきだという立場から、具体的な指針が提示されている。
特に注目されるのは、以下の観点である。
- トレーニングデータの取得方法や安全性評価のプロセスにおける情報開示水準の著しい低さ(2024年透明性インデックスでは下位企業のスコアが10〜30%台に留まる)
- オープンモデル開発者の方が透明性が高いという傾向
- 第三者評価者への安全なアクセス保証(safe harbor)と、研究妨害的な利用規約の問題
- 内部告発者の法的保護制度の必要性と、他分野の法制度との整合性検討
adverse event reporting制度の制度設計
AI技術の配備後における実害や事故を把握するための制度として、第4章ではadverse event reporting(有害事象報告)の仕組みが検討されている。
ここでは既存の航空・医療・サイバーセキュリティ領域の報告制度との比較が行われ、AI特有の要請として次が挙げられている。
- モデル利用による事故や誤動作を、企業と利用者の両方から収集する必要性
- 国際標準と整合的な分類体系(リスクカテゴリ、報告形式、共有先)
- 初期は報告対象を狭く定義し、制度への負担を抑えつつ徐々に拡大する設計
- 国家安全保障リスクとの接続(報告情報を共有すべき組織の選定)
この制度設計は、AIガバナンスの欠落を補うエビデンス基盤として位置づけられている。
閾値設計:FLOP依存への懐疑と複数指標型スコーピング
第5章では、どのモデルに規制を適用するかを決めるスコーピング設計が議論される。従来の「FLOP(浮動小数点演算数)」をベースとした閾値設計は、計測のしやすさや時点性(事前予測可能性)で利点がある一方、実際の能力リスクや社会的影響とは乖離する懸念が指摘される。
報告書では、次の4つの分類軸を明示し、それらを組み合わせた複合的な閾値設計が必要だとする。
- 開発者情報(規模・体制)
- コスト情報(FLOPや訓練費用)
- 能力指標(ベンチマーク結果など)
- 社会的影響(利用者数、利用領域)
これらを組み合わせることで、リスクが高いが企業規模は小さい開発者を見落とすような事態を回避し、制度的適正化が図られるべきとされる。
評価と含意:規制の予見性とエビデンス環境の再設計
本報告書の特徴は、AIガバナンスにおける「政策の窓」の短期性と「制度インフラの遅れ」を前提に、漸進的かつ柔軟な制度設計を志向している点にある。透明性や第三者評価、報告制度など、いずれもエビデンス環境を厚くするための基盤整備であり、立法的拘束力を伴わなくとも市場のインセンティブ構造を変える「制度的メッセージ」の役割を果たす。
また、報告書の執筆にOpenAI、Anthropic、Googleらのモデル評価文書を活用している点からも、ガバナンス枠組に関与する主体としての企業の役割(責任と能力の両面)を前提として設計されている。将来的なAGIリスクの議論を含みつつも、当面の制度設計に必要な現実的提案として、政策担当者や制度設計関係者にとって有用な枠組となりうる。今後、欧州AI法や日本のAI新法との比較検討においても、本報告書は重要な参照点となるだろう。
コメント