広告収益がデジタル偽情報を支えている——国連が示すAdTech・AIと情報エコシステムの構造的関係

広告収益がデジタル偽情報を支えている——国連が示すAdTech・AIと情報エコシステムの構造的関係 プラットフォーム

 国連広報局(Department of Global Communications)の情報インテグリティチームと英国の業界団体Conscious Advertising Network(CAN、200超の組織が参加するアドバタイジング改革ネットワーク)が共同執筆した政策文書「Strengthening Information Integrity: Issue Brief 2 — Advertising, Artificial Intelligence and the Global Information Crisis」(2026年4月)は、デジタル広告の資金フローが偽情報・ヘイトスピーチ・AI生成有害コンテンツの増殖を構造的に支える仕組みを解析し、広告主と政策立案者に向けた具体的勧告を提示するものである。本稿はシリーズ第2弾として、2024年6月に国連事務総長が発表した「UN Global Principles for Information Integrity」の5つの柱を分析軸に採用する。

 なお著者の一方であるCANは広告業界の利益代表団体であり、提言の方向性にその立場が反映されている点は読者として留意する必要がある。

デジタル広告エコシステムの構造——アテンション・スケール・不透明性

 本稿が情報インテグリティ問題への切り口として広告を選ぶ理由は明確である。デジタル広告は情報エコシステムの支配的な資金調達モデルであり、オンラインで何が生産・流通・増幅されるかを規定する財務的インセンティブそのものだからである。

 デジタル広告の技術基盤であるAdTechは、広告主から最終的な掲載先に至るまで複数の仲介層を経由する。具体的には、デマンドサイドプラットフォーム(DSP)、アドエクスチェンジ、サプライサイドプラットフォーム(SSP)、データ管理プラットフォーム(DMP)、広告検証サービスが連なり、各段階で手数料が引き抜かれてプラットフォームや中間業者に分配される。コンテンツ制作者やパブリッシャーに渡る収益は相対的に少ない。

 このエコシステムを機能させる特性として、本文書は「アテンション」「スケール」「不透明性」の三要素を挙げる。

 アテンションについては、ユーザーがデジタルデバイスを見る時間が長いほどプラットフォームの広告収益が増加するという構造が基本にある。プラットフォームはエンゲージメントを最大化するため、ユーザーの関心・人間関係・行動・消費習慣に関する膨大なデータを収集し、アルゴリズムで滞在時間を最長化する。この「アテンション・エコノミー」モデルは現在、AIアシスタントやチャットボットを通じてさらに拡張・再構築されつつある。

 スケールについては数値が事態の深刻さを示している。2025年の世界の広告支出は推定1.14兆ドルに達した。Googleの2024年収益3,500億ドルのうち広告が75%を占め、Metaの2025年収益1,626億ドルにおける広告比率は98.6%に上る。主要テクノロジー企業の事業モデルは広告なしには成立しない。

 不透明性は広告主にとっても深刻な問題である。業界分析によれば、プログラマティック広告取引の16〜17%が不正として検知されており、全世界の広告インプレッションの約8.5%が無効トラフィック(invalid traffic)に相当する。独立した分析では、透明性確保の実践により広告投資対効果(ROAS)が2桁パーセントの改善をもたらすことが示されている。AIのサプライチェーンへのさらなる統合はこの不透明性を深める方向に作用するとされる。

 不透明性の帰結は情報エコシステムに直接跳ね返る。広告主による実効的な監視がない状態では、収益は質や正確性を問わず「最もユーザーを引きつけるコンテンツ」に流れる。独立ジャーナリズムは偏向的な偽情報やAI生成コンテンツとの資金獲得競争に晒され、構造的に不利な立場に置かれる。

インセンティブ構造が生む偽情報の循環

 アテンション・スケール・不透明性の三特性は、プラットフォームにとってスクリーンタイムと収益の最大化を優先させるインセンティブとして機能する。大手プラットフォームが自社のアテンション収益化を「トピック非選別(topic agnostic)」と表現することがあるが、本文書はこれを実態を隠蔽する言い方として批判する。強い感情反応を引き起こしたり分極化を促すコンテンツは高いエンゲージメントを生む。AIレコメンデーションアルゴリズムはその正確性・信頼性・安全性とは無関係にこうしたコンテンツを増幅するよう設計されており、プラットフォームはその実践を継続するインセンティブを持つ。

 実証的証拠はプラットフォームが違法コンテンツや自社基準に違反するコンテンツのモデレーションに繰り返し失敗していることを示しており、一部のケースでは収益維持がユーザー安全より優先されている。結果として、過激なコンテンツへの高エンゲージメントが増幅を呼び、増幅が収益を生み、収益がさらなる需要を創出するという自己強化サイクルが形成される。

 子どもや若者への影響は特に深刻である。AIが生成した未成年者を描写する性的画像の増殖から、自傷関連コンテンツへユーザーを誘導するアルゴリズムまで、暴露リスクは多層的である。

ガバナンスの空白と規制の断片化

 広告におけるAI技術のガバナンス・規制環境は採用速度に追いついていない。安全設計(safety-by-design)が前提として組み込まれないまま技術が普及し、リスクはユーザーと社会に転嫁され、AIアクターが利益を得る構造となっている。

 規制は管轄ごとに断片化しており、エコシステムの個別要素に対処するパッチワーク状の措置群で構成される。AI生成コンテンツの法定ラベリングを義務付ける立法を導入した国はあるものの、広告ビジネスモデルが生むアテンション・スケール・不透明性の三特性という中心的課題に正面から向き合ったものは現時点で存在しない。

 業界の自主規制も限界がある。広告詐欺、ブランドセーフティ、透明性、サプライチェーン追跡可能性、サステナビリティに関する任意基準が策定されてきたが、採用率の低さとアカウンタビリティメカニズムの不備により実効性は制限されている。エージェンティックAIを活用したメディアバイイング(自律的な広告枠購入)に関する新たな業界標準も出現しつつあるが、AIエージェントが利用するデータの質の低さ、短期的な企業意思決定、意思決定の不透明性、既存のメディアバイイング慣行に存在する抜け穴など、リスク要因の扱いは初期段階に留まっている。

 地理的不平等も構造的問題として指摘される。大手テクノロジー企業は英語以外の言語でのコンテンツモデレーションへの投資を一貫して不十分にしてきた。リソースの乏しい地域では広告検証インフラや関連法的枠組みも不足しており、政策立案者や市民社会の介入手段が限られる。その結果、低所得市場が他地域では展開リスクが高いとみなされるAIシステムの試験場になる可能性がある。

広告業界のAI採用と効果への反証

 広告業界はAIを急速に導入しており、その影響はスキル、効率性、雇用、社会全体に及ぶ。英国の広告実践者協会(Institute of Practitioners in Advertising)が2025年に実施したセンサスでは、クリエイティブエージェンシーの従業員数が前年比14%減少しており、その一因が直接AIに帰属された。

 2025年の広告エグゼクティブ調査では、83%の企業がクリエイティブプロセスにAIを導入済みと回答しており、2024年の60%から大幅に上昇した。生成AIおよびエージェンティックツールの普及は、広告で収益化される新たなデジタル空間、新たな広告技術製品、新たな市場参加者を生み出している。

 ただし、AI採用の高さとは裏腹に、多くの新しいAI応用は初期テスト段階に留まる。AIを活用したパーソナライズド・ターゲット広告が優れた成果をもたらすという想定に反証する証拠が蓄積されつつある。ある広告効果研究では、リニアテレビが最も高い投資対効果をもたらし、ペイドソーシャルメディアへの多額投資は逓減する収益を示した。ニュース・コミュニティコンテンツ・リニアテレビへの投資がより確実な効果をもたらす可能性が示唆されている。

 AIチャットや他のAIサーフェスにおける広告の効果研究は現時点で限定的である。AIサーフェスに対するユーザーの信頼は低く、誤り・回答バイアス・社会的懸念を理由に広告効果でも低位に位置する可能性が高い。

情報インテグリティへの5大リスク——UN原則の対照分析

 本文書は「UN Global Principles for Information Integrity」の5つの柱と、それぞれに対応する広告業界リスクを以下のように対照させる。

UN原則の柱広告業界リスク
社会的信頼とレジリエンス投資ギャップ
健全なインセンティブブランドセーフティ
公衆の能力強化情報インフラ不安定性
独立・自由・多元的メディアオープンウェブの崩壊とメディア選択の消失
透明性と研究システム的不透明性

社会的信頼とレジリエンス——投資ギャップ

 テクノロジー企業は生成AIから収益化可能なビジネスモデルをまだ確立していない。巨大な資本流入にもかかわらず収益ギャップが存在し、製品開発の加速と収益化圧力が高まっている。一部のAIツールには依存性・操作性・有害性が指摘される設計特性が組み込まれており、広告主はそうした環境に広告を配置することで意図の有無にかかわらずこれらの設計選択の資金提供者となっている。

 IMFのデータは大規模な抗議活動後にGDPが約1.5%低迷し続けることを示しており、強固な制度が回復に不可欠であることも示されている。偽情報の増幅と信頼の低下によって弱体化した情報エコシステムは社会不安の条件を加速させ、その頻度を高め、回復を遅延させる。広告に依存するビジネスが繁栄できる安定した社会の前提条件として、情報インテグリティへの投資は道徳的要請であると同時に商業的合理性を持つとされる。

ブランドセーフティ——AIの限界と逆機能

 広告業界におけるAI活用は複数の形態をとる。自然言語処理(NLP)や画像認識を用いたコンテンツスキャンによるブランドセーフティ確保、生成AIによる動画・画像広告制作、AIが生成したコンテンツに隣接した広告配置(AIサーフェス)、そして超パーソナライズドクリエイティブ生成・行動予測ターゲティング・エージェンティックAIによる自律的なメディアバイイングがある。

 ブランドセーフティはAIのパフォーマンスが初期の主張に届いていない領域の一つである。AIツールは微妙なニュアンス、皮肉、高リスクなAI生成コンテンツを見落とし、偏向的・ブランド毀損的な環境への広告配置を引き起こす。プラットフォームが提供するブランドセーフティツールは、プラットフォーム自身の収益最適化アルゴリズムと根本的に対立している。エンゲージメントを最大化するアルゴリズムは論争的・扇情的なAI生成コンテンツを優先し、ブランドセーフティAIはこれと直接的な緊張関係に立つ。広告収益が高リスクコンテンツのビジネスモデルを資金的に支える一方、独立ジャーナリズムや質の高いメディアは比較的資金不足の状態に置かれている。

情報インフラ不安定性——依存の集中と投機バブル

 AI開発への資本流入は多くのアナリストが投機的バブルと表現するペースで進んでおり、バリュエーションは実証された収益性からかけ離れつつある。情報エコシステムと広告業界は、物理的に脆弱で環境負荷が高く、少数の支配的テクノロジー企業に重大な依存関係を集中させるAIインフラの上に再構築されている。代替手段や適切なセーフガードが整備される前に重要な情報インフラへのAI統合が進むことで、逆行困難な構造的依存が生まれ、個別市場と世界経済の安定を損ないうる。米国だけで世界のデータセンターの約45%を占め、欧州が追加で15%を担うことが、世界の大半を少数の支配的アクターが管理するインフラへの依存に晒している。

オープンウェブの崩壊とメディア多元性の消失——Channel3Nowが示した構造的害悪

 従来型メディアからデジタルプラットフォームへの広告収益シフトは独立・公共利益ジャーナリズムの財務的持続可能性を既に大きく損なっているが、AI検索サマリーと生成AIツールの普及がパブリッシャーへのさらなる圧力となっている。従来の検索はユーザーがウェブサイトをクリックしてコンテンツをスクロールすることで広告が表示されるという経路だったが、生成AIツールとAI駆動型検索サマリーの多くはサマリー生成元のページを経由せず、パブリッシャーやコンテンツ制作者に対価を支払わない。Candr Media GroupはAI検索機能により独立出版社アライアンス加盟メンバーの3分の1が翌年内に閉鎖に追い込まれる可能性を警告し、英国のデイリー・メール・グループは自社サイトへの訪問数が89%減少する見通しを示した。

 多くのローカルニュース媒体が運営継続不能に陥り「ニュース砂漠」が生まれており、空白はAI生成記事・質の低下したジャーナリズムコンテンツ・ニュースを模倣したコンテンツで埋められる。広告主の54%が生成AIによって全体的なメディア品質が低下したと認識しているという調査結果が示されている。

 この文脈で本文書が示す具体的事例が、AIが生成した「広告収益目的サイト」Channel3Nowである。このサイトは2024年英国サウスポート襲撃事件の実行犯を誤って亡命希望者と断定する偽情報を流布し、その情報は急速に拡散してその後の広範な暴動に先行した。英国議会の調査はこの暴動が部分的にアルゴリズムレコメンデーションシステムによって増幅された偽情報によって引き起こされたと結論付け、ソーシャルメディア企業の対応の不均一さを批判した。低コストで制作されるAI生成コンテンツがプログラマティック広告から収益を得る構造は、こうした有害連鎖の直接的な経済的基盤を提供している。

システム的不透明性——エージェンティックバイイングと追跡不能な資金フロー

 AIが自律的に広告枠を購入・最適化するエージェンティックメディアバイイングは、コンテンツ配信の意思決定から人間の判断を排除する。アルゴリズムがミリ秒単位でインベントリを入札する際、どの組織がいかなるコンテンツに資金提供し、なぜユーザーがそれを目にするのかをトレースすることが困難になる。複数の自律システムが相互作用する環境では不透明性は累乗し、偽情報やスキャムがエコシステムを通じて伝播する経路はほぼ追跡不能となる。

 プラットフォームのアドライブラリは透明性提供手段として意図されているが、厳密な研究には不十分であり、情報インテグリティを損ない有害な広告の特定を遅延させる盲点を生んでいる。Metaは自社プラットフォーム上の詐欺広告が歴史的に収益の3〜4%を占めてきたことを公式に認めたが、独立調査はその数値が最大10%に達する可能性を示しており、Meta自身の内部文書はプラットフォームが毎日推定150億件の「高リスク」詐欺広告にユーザーを晒していることを示唆している。同社は2024年に55%の広告主の本人確認を実施し、2025年には70%に達する見通しを示した。

 金融セクターではデジタルシステムがマイクロ取引をすべて精度高く追跡している。デジタル広告における同等水準の透明性実現に必要な技術的インフラはすでに存在する。欠如しているのは、その基準を適用する規制上・商業上のインセンティブである。

広告主・政策立案者への提言

 本文書は資本市場がすでに情報インテグリティを企業開示とリスク評価における評判上のものではなく実質的な要因として扱い始めていることを指摘する。プラットフォームのアカウンタビリティと情報インテグリティを扱う株主決議が存在感を高めており、情報リスクの財務的含意への投資家の注目を反映している。複数の法域で事業を展開する広告主とプラットフォームにとって、AIの責任ある展開と情報インテグリティへの配慮は、任意の考慮事項からコンプライアンス要件へとシフトしつつある。

 広告主向けの主要勧告は以下の三領域に整理される。

 透明な人権尊重型広告の組み込みとしては、AIおよびAdTech企業に対してAdTechサプライチェーンのエンドツーエンドの検証を可能にする透明性基準(オブジェクトレベルの透明性を含む)の採用を要求すること、エージェンティックAI企業に対してメディアバイイングの意思決定を透明かつ監査可能にすることを求めること、第三者独立監査の実施を義務付けることが挙げられる。AI生成・AI促進のマネタイズドアウトプットについては、そのアウトプット自体(テキスト・画像・音声・動画を問わず)、ランキングや要約生成に有料コンテンツが影響を与えたかどうか、広告が配信された時点でのコンテキストスナップショット(隣接するAI生成コンテンツを含む)の完全な開示を求める必要がある。

 情報インテグリティを支えるメディアへの広告配置としては、パブリックジャーナリズムや独立検証方式を採用するAIシステムを含む、情報インテグリティ上のセーフガードが実証されたメディア・プラットフォームを優先すること、リスクを呈する掲載先(広告収益目的サイト、未検証の生成AIインターフェース、詐欺パターンが記録されたプログラマティック配信)を排除すること、特に途上国を含む各地のジャーナリズムと制作者支援のための専用資金を標準的なメディアバイイングとは別に設立することが求められる。

 情報インテグリティを強化する政策の支持としては、アルゴリズムシステムのバイアス・差別についての独立した検証、制作者・パブリッシャーへの適切な対価支払いの確保、AI生成メディアの開示と機械可読ラベリング規格の義務化、AI各社による環境影響データの開示義務化、AIツールを情報インテグリティを維持しながら活用するための労働者トレーニングプログラムへの投資が含まれる。

 政策立案者に対しては、UN Global Principles for Information Integrityに沿ったガバナンス・政策の整合、デジタル広告サプライチェーン全体における執行可能なオブジェクトレベルの透明性基準の制定、大規模AdTechシステムと広告文脈で使用される生成AIモデルへの独立した第三者アルゴリズム影響評価の義務付け、AIサーフェス上の公開・検索可能なアドライブラリの整備が求められる。

 本文書が示す具体的な規範的文書の一つが「ベレン宣言(Belém Declaration on Information Integrity on Climate Change)」である。ブラジル政府・国連・UNESCOが共同主導するマルチステークホルダー連合の成果として、COP30においてCOP成果文書「Mutirão Decision」に情報インテグリティが史上初めて正式に組み込まれた。20か国以上が当初署名したこの宣言は、民間セクターに対し国連ビジネスと人権指導原則(2011年)に即した情報インテグリティへのコミットメントと透明かつ人権尊重型の広告慣行を明示的に求めている。

3Rフレームワークによる実装

 本文書は広告業界がこれらの分析を実際に運用するための枠組みとして、国連の3Rアプローチ(Research・Risk・Response)を提示する。このフレームワークはシリーズ第1号と共通の構造を持ち、マルチステークホルダー連合を基盤としてリスクの特定・管理・評価を行う循環モデルである。

 Research(調査・研究)はブランドセーフティを超える範囲を対象とし、AIが情報インテグリティに与える影響を商業的メカニズムに加えて市民社会パートナーの専門知識を活用したマルチステークホルダー的アプローチで監視・管理することを要求する。広告コミュニティが監視すべきリスクの領域は同心円状に構造化されており、中心から順に、商業的リスク(廃棄・詐欺・効果)、法的リスク(知的財産等)、ブランドセーフティ・評判リスク(隣接・評判)、運営上のリスク(AIインフラ等)が位置付けられる。

 Risk(リスク評価)については、情報インテグリティリスクの管理は取締役会またはC-suiteレベルの監督を必要とし、該当する企業責任・デューデリジェンスの枠組みと並行して実施されるべきとされる。リスクが顕在化する前に問題のある慣行を予防的に特定する姿勢が求められ、リスク評価と所見の公開開示、市民社会との直接的な関与が集合的な証拠基盤を強化する。

 Response(対応)はリスク管理のライフサイクルアプローチ、すなわち予防・保護・緩和・回復を包含する。広告主の支出の配分先と方法をマルチステークホルダー分析によって情報インテグリティを実証可能な形で守るツールとプラットフォームに向ける決定がこれに含まれる。

 本文書全体を通じて本稿が確認するのは、広告の資金フローが偽情報エコシステムの維持と崩壊の双方に直接的な影響力を持つという命題である。「どこに広告を出すか」という決定は単なる予算配分の問題ではなく、アルゴリズムが何を増幅し、独立ジャーナリズムが生き残れるかどうか、AIが生成した有害コンテンツに収益の流れが向かうかどうかを規定する構造的選択である。本文書はその選択の主体として広告主に規範的責任を帰属させ、同時に市場の透明化と規制整備を通じてその選択が実行可能になるための政策環境の整備を政府に求める。技術的インフラはすでに存在しており、3Rフレームワークの実装を阻んでいるのは能力の欠如ではなく商業的・規制的インセンティブの不整合である——本文書が繰り返し強調するのはこの点である。

コメント

  1. Elias Fridley より:

    It’s hard to find knowledgeable people on this topic, but you sound like you know what you’re talking about! Thanks

タイトルとURLをコピーしました