偽情報はどのように「規制」されているのか──DSAの実効性と構造的ジレンマ

偽情報はどのように「規制」されているのか──DSAの実効性と構造的ジレンマ 論文紹介

 欧州連合(EU)において2024年2月から全面適用となった「デジタルサービス法(Digital Services Act, DSA)」は、オンラインプラットフォームに対する新たな責任の枠組みとして大きな注目を集めている。中でも、偽情報(disinformation)への対応において、DSAが主要な法的基盤となりつつある現状には、立法的にも実務的にも多くの含意がある。

 本稿で紹介するのは、アムステルダム大学情報法研究所(IViR)所属の法学者らによる論文「The Regulation of Disinformation Under the Digital Services Act」(Media and Communication, 2025年5月)である。DSAがどのように偽情報の規制に関与しているのか、そしてそれがEUの基本権(特に表現の自由)といかに緊張関係にあるのかを精緻に分析した内容となっている。

明示されない「偽情報」:DSAの構造的な曖昧さ

 まず最初に指摘されるのは、DSAの条文中に「disinformation」という用語が一度も登場しないという事実である。偽情報はあくまで「Recital(前文)」において言及されるにとどまり、法的拘束力を持つ本文中には明記されていない。

 にもかかわらず、欧州委員会はDSAを「偽情報から欧州市民を守るための主要なEU法」と位置づけ、実際にXやMeta、TikTokなどに対して、偽情報対策の不備を理由とした情報提供要求や正式調査を行っている。このギャップは、法的確実性と表現の自由の保護の観点から重大な意味を持つ。

加盟国法との連動:違法コンテンツとしての偽情報

 DSAは「違法コンテンツ」を広く定義しており、EUまたは加盟国の法令に違反するすべての情報が対象となる。その結果、たとえばマルタやキプロスなどで施行されている「虚偽情報の拡散」を刑事罰とする国内法が適用される場合、当該情報はDSA上の「違法コンテンツ」として削除の対象となる。

 このような加盟国ごとの定義のばらつきは、プラットフォームにとって極めて対応の難しい環境を作り出す一方で、EU域内の表現の自由の水準が一様でなくなるという問題をもたらしている。

DSAの二面性:削除と保護の両立

 DSAは、偽情報の削除を可能にする規定を備えつつ、その削除が恣意的に行われないよう、ユーザー保護のための制度も同時に整備している。

 具体的には、プラットフォームが自身の利用規約に基づいてコンテンツを制限する際には、EU基本権憲章の表現の自由(第11条)に「十分配慮」しなければならない(第14条)。また、削除時の理由説明の義務(第17条)や、内部苦情処理制度・裁判外紛争処理制度(第20〜21条)なども明記されている。

 これらの条項は、偽情報とされたコンテンツが実際には合法な情報であった場合のユーザー保護を担保するための手段とされているが、実務面では自動化された短文による通知が多く、透明性の確保には課題が残るとされる。

VLOPsとリスク評価:制度的中核としての「システミックリスク」枠組み

 DSAの特徴的な枠組みとして、ユーザー数が月間4500万人を超える「非常に大規模なオンラインプラットフォーム(VLOPs)」に対しては、「システミックリスクの評価と緩和」(第34〜35条)が義務づけられている。

 ここで注目すべきは、偽情報がリスク要素として明記されていないにもかかわらず、前文において「公衆衛生」「選挙プロセス」「市民的対話」への悪影響の原因として偽情報が例示されており、事実上はリスク評価の対象とされている点である。

 2024年の欧州議会選挙を前に、欧州委員会は選挙関連のリスク緩和に関するガイドラインを発表し、ファクトチェック表示、アルゴリズムによる表示抑制、広告利用の制限などを「ベストプラクティス」として推奨。これらは形式上は勧告にとどまるが、VLOPsが従わない場合には「同等の効果を立証せよ」という圧力がかけられる。

実質的な削除の場となる「2022行動規範」

 DSA本文には偽情報削除の義務規定はないにもかかわらず、実際の削除措置の多くは2022年改定の「偽情報に関する行動規範(Code of Practice)」に基づいて行われている。

 この規範は2025年7月からDSAに正式に組み込まれ、VLOPsの「リスク緩和策」の一環として位置づけられる。報告された事例では、TikTokがEU選挙前に25万件以上の動画を削除、YouTubeも1.9万件超の削除を行っており、実質的にはこの規範が偽情報規制の中核となっている。

 このような「自発的措置」がDSAの執行の一部として制度化される構造は、規制の透明性や説明責任に対して懸念を残す。

表現の自由と規制権限:CSOからの批判とECHRとの整合性

 欧州委員会が偽情報対策を理由にプラットフォームへ警告文や調査開始を行っていることについて、市民社会団体からは強い懸念が表明されている。具体的には:

  • 「削除の迅速化を事実上強制している」
  • 「DSAの文言以上の権限行使」
  • 「政治的にセンシティブな時期に圧力をかけている」

といった批判が相次いでおり、DSAの運用が欧州人権条約(ECHR)第10条が保障する表現の自由に違反しうるという指摘もなされている。

 特に、行政機関からの警告や情報要求が、内容規制の「圧力」として機能し、実質的な言論萎縮を引き起こす可能性について、欧州人権裁判所の判例(Karastelev v. Russia, 2020など)と照らしあわせて検討されている。


まとめ:偽情報対策の名の下に、何が行われているのか

 この論文は、DSAが偽情報に関してどのような実効性を持ちうるのかを評価するだけでなく、形式的には明示されていない規制が実質的には行われている現状、そしてそれが法的・民主的にどれほど問題含みであるかを浮かび上がらせている。

 特に、削除と自由の「両立」を謳いながらも、削除措置の実態がガイドラインや規範に依存しており、明確な法的制約がない中で行政当局の裁量が広がっているという現状は、今後の制度運用にとって大きな論点となるだろう。

 偽情報規制と表現の自由の交差点に立つDSAの構造を理解するうえで、本論文はきわめて重要な出発点を提供している。

コメント

タイトルとURLをコピーしました