Science Feedbackが主導し、スペインのNewtral、スロバキアのDemagog SK、チェコのPravda、Check First、バルセロナ自治大学(UOC)が参加するSIMODSコンソーシアムが、欧州の主要6プラットフォームにおける偽情報の蔓延状況を測定した第2次報告書「Measuring the State of Online Disinformation in Europe on Very Large Online Platforms」を2026年3月に公表した。SIMODSはStructural Indicators to Monitor Online Disinformation Scientifically(科学的手法によるオンライン偽情報のモニタリング指標)の略称で、欧州メディア情報基金(EMIF)の資金援助を受けて実施されている。EMIFはカルースト・グルベンキアン財団と欧州大学院研究所が共同で運営する独立資金機関であり、報告書はその立場を注記している。Science Feedbackは国際ファクトチェックネットワーク(IFCN)認定の非営利ファクトチェック組織で、測定手法は政策立案機関への働きかけを主目的とするアドボカシー文書ではなく、欧州デジタルメディア観測所(EDMO)が策定した構造指標の枠組みに準拠した学術的性格を持つ。
本報告書の核心的な価値は単一の数値にではなく、2025年春に実施された第1波との比較が初めて可能になったという点にある。2波の結果が一貫しているという事実そのものが、測定されている現象がプラットフォーム設計の構造的特徴であることを裏付ける。さらにタイミングとして、2025年7月に欧州委員会がCode of Conduct on Disinformationを正式にデジタルサービス法(DSA)の枠組みに統合して以来、これらの指標は規制遵守の公式ベンチマークとして機能する法的根拠を初めて持つことになった。
方法論:330万件・ビュー加重サンプリング
データ収集の基本設計は第1波から一貫している。Facebook・Instagram・LinkedIn・TikTok・X/Twitter・YouTubeの6プラットフォームを対象に、フランス・ポーランド・スロバキア・スペインの4カ国で2025年10月の1カ月間にわたってデータを収集し、最終的に約330万件の投稿(総ビュー数180億)からなるコーパスを構築した。分析対象トピックはロシア・ウクライナ戦争、気候変動、健康、移民、国内政治の5分野である。
キーワード設計において報告書が採用した三分類が方法論上の重要な工夫だ。第一に「中立的キーワード」(Zelensky、migrants、Covid-19など)は主流メディアでも日常的に用いられる語で、データセットに信頼性の高いコンテンツを含める役割を担う。第二に「曖昧なキーワード」(vaccine side effects、geoengineering、laboratories in Ukraineなど)は誤情報ナラティブでも科学・ジャーナリズムの文脈でも使用されうる語だ。第三に「誤情報関連キーワード」(climate scam、Ukrainian Nazi、remigrationなど)は主に虚偽・誤解を招く主張で使われる語である。各言語につき約100語を選定し、中立語と(曖昧語+誤情報語)を均等に配分することで、サンプルが偽情報に過度に偏らないよう設計している。
収集した330万件から、500件/プラットフォーム/言語のランダムサンプルを抽出してファクトチェッカーが注釈付けをおこなった。このサンプリングにおいて「ビュー数による加重」が採用されたことは方法論上きわめて重要だ。100万ビューの動画は1万ビューの動画の100倍の確率でサンプルに入る設計であり、これにより注釈対象サンプルはユーザーが実際に目にしたコンテンツの分布を反映する。プラットフォームの検索アルゴリズムが低信頼性コンテンツを意図的に下位ランキングしている場合でも、実際に大量再生された偽情報投稿はサンプルに高確率で含まれる。
注釈は1名のファクトチェッカーが全500件を担当し、別のファクトチェッカーがそのうちランダムな100件を独立にレビューする二重アノテーション体制をとる。アノテーター間の一致率は85%で、主な不一致は「信頼できる(Credible)」と「検証不可(Unverifiable)」の間に生じた。推定値の不確実性はブートストラッピング法(1,000回反復)で定量化し、すべての数値に95%信頼区間が付与されている。
DSA第40条12項に基づくプラットフォームへのデータアクセス要請については、6プラットフォームのうちLinkedInのみが要求どおりのランダムサンプルを提供した。TikTokとYouTubeはAPIアクセスを認めたが、プラットフォーム側が生成したランダムサンプルの提供ではなく、キーワードベースのクエリに限定された。FacebookとInstagramのMetaプラットフォームはMeta Content Libraryを通じた手動収集に、X/TwitterはApifyを介したスクレイピングに頼らざるをえなかった。X/Twitterは2025年1月にDSA第34条の要件を満たさないとして申請を却下し、その後の異議申し立てにも2026年2月時点で回答がない。研究者が求めるデータはすべて公開情報であり、プラットフォームが設けている障壁に技術的な正当化はないと報告書は明言している。
蔓延率:TikTok25%・YouTube12%に上昇
プラットフォーム別の誤情報蔓延率(信頼区間付き)は以下のとおりである。TikTokが最高の25%[22.6%, 27.5%]で第1波の約20%から上昇し、Facebookが15%[13.2%, 16.8%]、YouTubeが12%[10.6%, 13.9%]で第1波の約8.5%から上昇、X/Twitterが11%[9.0%, 12.2%]、Instagramが8%[6.5%, 9.2%]、LinkedInが最低の1%[0.5%, 1.5%]という序列は第1波と一致した。
蔓延率の算出式は(誤情報投稿数)÷(誤情報+信頼できる投稿+検証不可投稿)×100であり、娯楽・スポーツ等の無関係コンテンツは分母から除外されている。この定義は「ユーザーが公共的テーマを調べる際に遭遇する情報空間において誤情報がどの程度の割合を占めるか」を測る指標であり、プラットフォーム全体の全投稿に占める誤情報の比率ではない点に留意が必要だ。
さらに「問題のあるコンテンツ」(誤情報+ヘイトスピーチ等の虐待的コンテンツ+誤解を招くがアウトライトな虚偽を含まないボーダーラインコンテンツ)の合算指標では数値がより大きく跳ね上がる。TikTokは43%[40.6%, 45.9%]、FacebookとX/Twitterはそれぞれ34%と32%(両者の信頼区間は重なるため統計的に差がない)、YouTubeが27%、Instagramが16%、LinkedInが4%となる。この指標では、TikTok・X/Twitter・YouTubeの3プラットフォームにおいて問題のあるコンテンツが信頼できるコンテンツを上回っており、第1波ではX/Twitterのみがこの状況にあったのと比較して悪化している。
トピック分布では健康関連誤情報が全誤情報投稿の43%を占めて最大カテゴリーを形成し、ロシア・ウクライナ戦争が23%、国内政治が12%、移民が7.7%、気候変動が6.4%と続く。この分布は第1波と整合的だ。
LLMによるナラティブクラスタリングが健康誤情報の具体的内容を明らかにしている。最頻出のナラティブは「主要疾患は食事・自然療法・民間療法で治療できる」で、「レモンが体を解毒する」「精油はがんを治すことが証明されている」などの主張がこれに分類される。第2位は「現代医学は不要または有害だ」で、「医療判断の大多数は誤りだ」「薬の長期使用は問題を解決するのではなく追加の健康問題を引き起こす」といった主張が含まれる。第3位は「ワクチンは広く安全でなく・未検証であり・腐敗した製薬複合体によって推進されている」というナラティブで、「ワクチン接種を受けた子どもは神経発達障害の発生率が高い」「mRNAワクチンは遺伝子治療だ」「COVID-19ワクチンはがん発生率の増加と関連している」などの主張が含まれる。
ウクライナ戦争関連では「ウクライナは外国勢力によって支配された腐敗した傀儡国家だ」が最頻出で、「Zelenskyは毎月5,000万ドルをサウジアラビアの銀行に送金している」といった主張が典型例として挙げられる。移民関連では「グレート・リプレイスメント」ナラティブ——「移民は先住民人口を置き換え国民的アイデンティティを破壊する組織的な陰謀だ」——が最頻出だ。気候変動関連では「人為的気候変動とCO₂の役割は大幅に誇張または無関係だ」「ジオエンジニアリングは人々を害するために天候を意図的に操作する秘密の政府プログラムだ」「グリーンディールなどの環境政策は財産を掌握し市民を貧しくするための意図的な計画だ」という三つのクラスターが概ね等頻度で現れる。
国別では差異が見られ、フランスではTikTokの蔓延率が約39%と突出して高く、X/TwitterとFacebookが約21%で続く。スロバキアではTikTok・Facebook・YouTubeが17〜25%の範囲に集中する。ポーランドとスペインではプラットフォーム間の差が相対的に小さい。
ミスインフォメーション・プレミアム:X/Twitterで4倍→10倍に急騰
「ミスインフォメーション・プレミアム」は報告書が提案する第2の構造指標で、低信頼性アカウントと高信頼性アカウントの「1投稿1,000フォロワー当たりエンゲージメント数」の比として定義される。フォロワー数で正規化することで、オーディエンスの規模が異なるアカウント間を公平に比較する。エンゲージメントはコメント・シェア・いいねの合算値で算出した。
高信頼性アカウントと低信頼性アカウントのリストは二つのアプローチで独立に作成し、結果の頑健性を確認している。一つはコーパス収集期間中のビュー数上位50アカウントをファクトチェッカーが分類するトップ50アプローチ、もう一つはコンソーシアムのファクトチェッカーが業務経験から提供する既知の高・低信頼性ソースリストだ。両アプローチから得られた結果は整合的だったため、リストを統合して分析に用いた。なお低信頼性アカウントは過去に2件以上の誤情報投稿が確認されたアカウント、高信頼性アカウントは95%以上の投稿が信頼性の高い情報源と判定されたアカウントと定義される。
プレミアム比はプラットフォームによって顕著に異なる(図2.9)。YouTubeでは低信頼性アカウントが高信頼性アカウントの約11倍のエンゲージメントを1,000フォロワー当たりで獲得しており、第1波の約8.5倍から悪化した。X/Twitterは約10倍で、第1波の約4倍から急激に上昇している。Facebookは約9倍、Instagramは約4倍、TikTokは約2倍だ。LinkedInのみが統計的に有意な差を示さず、プレミアムは実質1倍にとどまっている。
この差がフォロワー数の規模の違いによる人工産物ではないことを確認するため、報告書はフォロワー数の四分位数ごとに高信頼性・低信頼性アカウントを層別化したロバストネステストを実施している。TikTokでは第4四分位(最大規模アカウント)のみでプレミアムが有意であることが確認されたが、他プラットフォームでは層別後もプレミアムが概ね維持された。TikTokのプレミアムが他と比較して低い(約2倍)のはこの構造によると説明されている。
ビューベースのプレミアム(ビュー数/投稿/1,000フォロワーの比)がデータ取得可能なTikTok・YouTube・X/Twitterで確認されており、YouTubeで低信頼性が高信頼性の約5倍のビューを得る結果が示されている。インタラクションベースの11倍との乖離は、ビューからエンゲージメントへのコンバージョン率が低信頼性コンテンツで高い可能性を示唆する。
収益化:YouTubeで低信頼性チャンネルの81%が収益化
収益化指標の測定は最も深刻なデータ不透明性の問題に直面している。報告書が2026年1月12日にDSA第40条4項に基づいてすべての6プラットフォームに提出したデータアクセス要請——アカウント別の広告収益額と特定コンテンツの収益貢献状況という二点——は、報告書執筆時点でいずれのプラットフォームからも回答を受けていない。この不透明性は4プラットフォームについては収益化状況の推定を実質不可能にしており、分析できたのはYouTubeとFacebookの2プラットフォームのみだ。
YouTubeについてはチャンネルのYouTube Partner Program参加状況が公開情報から間接的に推定可能で、Facebookについては動画コンテンツの収益化を認めたパートナーの公開リストが活用された。いずれも「プラットフォームが定める最低条件(投稿数・ビュー数・視聴時間など)を満たす収益化適格アカウント」のみを対象に分析している。
結果は次のとおりだ。YouTubeでは収益化適格な低信頼性チャンネル103本のうち83本(81%)が収益化されており、高信頼性チャンネルの90%と大きな差がない。Facebookでは収益化適格な低信頼性アカウント51件のうち11件(22%)が収益化されており、高信頼性の51%との差は大きいが、5件に1件以上の低信頼性アカウントが広告収益を得ていることになる。いずれのプラットフォームでも、繰り返し誤情報を拡散しているアカウントの収益化排除を謳う非収益化ポリシーは意図どおりに機能していないと報告書は結論づける。これらの結果は第1波と整合的であり、構造的特徴としての再現性が確認されたとしている。
なお、複数のプラットフォームが2025年初頭に非収益化関連の自主的コミットメントの一部を撤回したことが報告書の背景として記されているが、報告書は撤回の前後を問わずポリシーの実効性を問うており、自主規制の形式的な存否を問題にしているのではない。
AI生成偽情報:TikTok24%・ラベルなし83%
AI生成コンテンツの追跡は第2波で初めて導入された新指標だ。具体的にはファクトチェッカーが偽情報と判定した各投稿について、AI生成の画像または動画を含むかどうかと、プラットフォームまたはコンテンツ作成者がAI生成であることを可視的にラベル付けしているかどうかを追加で判定した。テキストのみの偽情報はAI生成の識別が目視では困難なため、分析は画像・動画コンテンツに限定しているが、分母は各プラットフォームの全誤情報投稿数としている。
プラットフォーム別のAI生成偽情報の割合では、動画専用プラットフォームであるTikTokが24%[21.2%, 27.4%]、YouTubeが19%[15.6%, 22.8%]と最高値を示し、Facebookが7%、X/Twitterが4.4%、Instagramが2.6%と続く。LinkedInはサンプル内でゼロだった。動画専用プラットフォームで割合が高い理由の一部はフォーマットの特性によると報告書は説明しているが、それを考慮しても数値は顕著だ。サンプル内のAI生成偽情報が蓄積したビュー数は約3,400万で、そのうちTikTokが69%を占め、YouTubeが23%だった。
ラベル付与の状況は深刻だ。AI生成であると識別された全偽情報投稿のうち、何らかのラベルが付与されていたのは16.5%にすぎず、残る83.5%はラベルなしで流通している。プラットフォーム別の内訳では、TikTokが14%と最高で、Facebookが1.8%、YouTubeが0.9%と極めて低い。X/Twitter・Instagram・LinkedInのサンプル内ではラベルが一切確認されなかった。
各プラットフォームのAI生成コンテンツポリシーの差異も記録されている。TikTokはクリエイターに対してリアルな映像・音声・動画を含むAI生成コンテンツへのラベル付けを義務付け、そのラベルを動画上に直接表示するよう規定している点で最も明示的なポリシーを持つ。MetaはAI Infoラベルの仕組みを持つが、投稿の追加メニューを操作しない限りフィード上では表示されず、多くのユーザーが目にしない設計だ。YouTubeはラベルを動画プレーヤーではなく説明欄に表示する。X/TwitterとLinkedInはAI生成コンテンツに特化したポリシーを持たず、欺瞞的コンテンツを禁じる一般的な真正性ポリシーの範囲内で対応する。
健康誤情報がAI生成偽情報の中で最大カテゴリーを形成しており、YouTubeで61%、TikTokで57%を占める。報告書が具体的事例として記録しているのが「Dr. Isabela Navarro」と名乗るAIアバターを主役にしたYouTubeチャンネルだ。白衣を着て偽の学位証書を背景に登場するこのアバターは「蜂蜜が人間のテストステロン値を増加させる」などの主張を展開している。ラットでの研究はあるものの人間での確認はされていないこの主張を、チャンネルはAI生成であることを示すラベルなしで配信し、27,800人のチャンネル登録者を持ち、この動画は61,700回再生された。チャンネルは収益化されており、同一の架空医師が登場するAI生成動画のみを投稿し続けている。
オーディエンス成長とDSAへの提言
オーディエンス成長指標は、第1波で特定した高・低信頼性アカウントの月次フォロワー成長率を第2波まで追跡することで構築された。大半のプラットフォームではLinkedIn(月約2%)・Instagram(月約3%)・YouTube(月約1.5%)・Facebook(いずれも統計的有意差なし)と、高信頼性・低信頼性アカウント間に有意差がなかった。例外はX/Twitterで、低信頼性アカウントの月次成長率は約1.4%と、高信頼性アカウントの0.4%の約3.5倍だった。TikTokは逆の傾向を示し、高信頼性が月4.3%に対して低信頼性は1.6%にとどまった。
報告書の提言は欧州委員会・DSA執行機関、プラットフォーム、研究資金提供者の三者に向けて構造化されている。欧州委員会に対しては、DSA第40条に基づくデータアクセス不履行を二次的問題ではなく執行優先事項として扱うこと、SIMODSが開発した指標を正式なDSA監査・コンプライアンス評価のベンチマークとして採用すること、収益化状況をDSA第40条の義務としてアカウントレベルで開示することの義務化、そしてAI生成コンテンツの表示に関して全プラットフォームに適用される統一・強制的なラベリング基準の策定を求めている。プラットフォームに対しては、ミスインフォメーション・プレミアムを生み出す推薦・増幅システムの監査と改善、非収益化ポリシーの実効性確保、体系的なAIラベリングの実施、研究コミュニティへの標準化データセット提供を求める。研究資金提供者には、SIMODSの指標枠組みに基づく欧州オンライン偽情報の恒久的・独立的モニタリングパネルの設立を訴えている。
報告書は、2波の測定が示した最大の発見は「測定が構造的特徴を捉えており、一時的なノイズではない」という事実そのものだと強調している。プラットフォームが2025年初頭に自主的なファクトチェックプログラムの縮小・停止やコンテンツモデレーション関連スタッフの削減といった措置をとる一方で、DSAが独立した測定に規制的な役割を与えたことで、SIMODS指標は初めて法的執行力の根拠として機能する位置に置かれた。6プラットフォームのうち5が研究者のデータアクセスに実質的に応じていないという事実と、収益化の不透明性と、AI生成偽情報のほぼ全量がラベルなしで流通しているという現状を、報告書は「あとは政治的・規制的な意志があるかどうかだ」という言葉で締めくくっている。

コメント