AI

AI

International AI Safety Report 2026:汎用AIによる情報操作・サイバー攻撃の実証的評価

Yoshua Bengio議長、30カ国超100人以上の専門家によるInternational AI Safety Report 2026を分析。76,977人実験でAIが12ポイントの意見変化を誘発、DARPA競技で77%の脆弱性自動特定、実攻撃で80-90%自動化を達成。情報操作とサイバー攻撃におけるAI能力の実証的評価を詳述。
AI

英国議会が整理したAIコンテンツラベリングの現状:技術標準・規制・プラットフォーム対応の国際比較

英国下院図書館が2026年1月発行のAIコンテンツラベリング報告書(全41ページ)を分析。C2PA・IPTC・SynthIDの技術標準比較、英国の政策不在とEU AI Act第50条の対照、Meta・TikTok・YouTube等8社のプラットフォーム対応、5カ国5,000人超の実証研究による効果検証を整理。
AI

WEF Global Risks Report 2026:偽情報リスクが第2位に急浮上——ニュース信頼40%、deepfakes選挙介入、AIとの相互強化

WEF Global Risks Report 2026が1,300人超の専門家調査で偽情報・誤情報を前年第10位から第2位に位置づけ。ニュース信頼度が40%に低下、米国でソーシャルメディアが主要ニュースソース化、2024年選挙でのdeepfakes影響、10年後にAI悪影響が第5位へ急上昇し偽情報と相互強化する構造を詳述。
AI

AI searchという「統治の継ぎ目」――配置が変える規制の入口

AI Forensics(2025)『From “Googling” to “Asking ChatGPT”: Governing AI Search』を解説。Copilot/Gemini/ChatGPTの配置差でDSAとAI Actの適用がずれ、合成回答が責任・透明性・集中の論点を再配置する。
AI

オンライン安全法の実装が生んだ行動の再配線――Ofcom「Online Nation Report 2025」が捉えた検索・年齢確認・潜在的被害

英国規制当局Ofcomの年次報告「Online Nation Report 2025」を精読し、生成AI検索によるクリック低下、年齢確認導入後のトラフィック再編、成人が遭遇する潜在的被害の頻度と影響の非対称性を、調査設計と実測データに即して分析する。
AI

Responsible AI の地殻変動──All Tech Is Human『Responsible AI Impact Report 2025』が描く社会構造の変化

All Tech Is Human『Responsible AI Impact Report 2025』を分析。空港顔認証、AI生成ニュース、nudify被害、音声クローン詐欺、データセンターの電力政治、モデルのバックドア化など具体事例を通じ、評価・監査・Public AI へ至る制度変化を描く。
AI

AI基盤の非対称性──世界銀行『Digital Progress and Trends Report 2025』が描く四層構造と国際格差

世界銀行『Digital Progress and Trends Report 2025』を基に、AI基盤を構成する4C(Connectivity・Compute・Context・Competency)の国際的偏在を分析。small AI の位置づけ、データ・制度・人材の構造差、ハイパースケール化する計算資源、AIリスクとしての誤情報の扱いを実証的に整理する。
AI

分断と孤独が拡がる社会──APA『Stress in America 2025』にみる情報環境ストレス

APA『Stress in America 2025』は、社会的分断・孤独・情報不安が人々の心身に及ぼす影響を実証。信頼とつながりの再構築の必要性を示す。
AI

2024 JournalismAI Innovation Challenge – AIを制度に変える、小さなニュースルームの設計力 –

LSE・Polisの2024年報告。22か国35組織がAI導入で編集制度を再構成。Vera FilesのRAG検索SEEK、Raseef22の匿名SRHRボット、CCIJのElectionWatch、Full Factの公開閾値決定など、小規模メディアの制度設計を描く。
AI

オランダ安全保障のためのAIフォーサイト

Clingendael研究所報告書(2025年11月)。AIが国家安全保障をどう再編するかを三つの未来シナリオで分析。AI民主化、agentic AI、デジタル主権喪失の構造と政策対応を論じる。