欧州視聴覚オブザーバトリー:違法コンテンツと偽情報への規制執行の全体像

欧州視聴覚オブザーバトリー:違法コンテンツと偽情報への規制執行の全体像 偽情報対策全般

 欧州評議会の欧州視聴覚オブザーバトリーは、Institute of European Media Lawとの共同作業により2026年2月、「Enforcing rules on illegal content and disinformation online」を発行した。IRIS-6シリーズとして刊行された本報告書は155ページに及び、Irène Bouhadana、Mark D. Cole、Roderick Flynn、William Gilles、Giovanni de Gregorio、Mariette Jones、Mehmet Bedii Kaya、Dariia Opryshko、Roxana Radu、Clara Rauchegger、Sandra Schmitz-Berndt、Krzysztof Wojciechowskiの12名の専門家が執筆を担当した。編集監修はMaja Cappelloが務め、欧州におけるオンラインコンテンツ規制執行の現状を包括的に分析している。

報告書の目的と問題設定

 報告書は違法コンテンツと有害コンテンツの法的区別を明確化することから始まる。違法コンテンツは既存の法定規定に違反する素材を指し、その違法性は法令または判例法によって明確に定義される。これに対して有害コンテンツは違法ではないものの個人または社会に有害とみなされる素材を包含し、偽情報、健康関連誤情報、民主的プロセスを損なうコンテンツなどが含まれる。報告書が特に注目するのはインターネットの構造的変化である。Web 1.0の一方向コミュニケーションからWeb 2.0の双方向参加型空間への移行は、一般ユーザーをコンテンツ制作者へと変容させた。しかし、この参加型インフラは少数の大規模オンラインプラットフォームによって支配されるに至った。プラットフォームはアルゴリズム的キュレーションを通じてコンテンツの可視性を形成し、受動的仲介者から能動的ゲートキーパーへと役割を変化させている。この変化はWeb 2.0下で確立された責任モデルを試練にさらし、透明性、説明責任、デジタル領域における基本権保護について新たな問題を提起する。

欧州法的枠組みの二層構造

 報告書は欧州評議会とEUという二層の法的枠組みを詳述する。欧州評議会レベルでは、欧州人権条約第10条が表現の自由を保障し、欧州人権裁判所の判例法理がその解釈を形成してきた。Delfi AS v. Estonia判決は、インターネットが「表現の自由行使のための前例のないプラットフォーム」であると認定する一方、プラットフォーム事業者の責任範囲を示した。Sanchez v. France判決は、インターネットが「政治的問題および一般的関心事項に関する活動と議論への参加に不可欠なツール」となったことを確認した。欧州評議会は各種勧告とPACE決議を通じ、基本権フレームワーク内での執行措置の条件を設定している。EU法体系では、一次法として欧州連合基本権憲章が表現の自由と情報の自由を保障し、二次法としてデジタルサービス法が中核的役割を果たす。DSAは違法コンテンツの定義、削除命令メカニズム、透明性義務、Digital Services Coordinatorによる監督体制を確立した。特に超大規模オンラインプラットフォーム及び超大規模オンライン検索エンジンに対しては、システミックリスク評価義務、外部監査要件、危機対応メカニズムが課される。Common Foreign and Security Policy下では、FIMI対策として専門ツールが開発されている。FIMI-ISAC、Rapid Response System、統合政治危機対応メカニズムが、国家主導型偽情報キャンペーンの検知と対処を支援する。European Digital Media ObservatoryはEuropean University Institute主導のコンソーシアムにより管理され、European Fact-Checking Standards Networkとともにファクトチェック能力の制度化を推進している。

偽情報対策の執行実態

 EUレベルでの偽情報対策は2015年、欧州理事会がロシアによるクリミア違法併合後に「ロシアの継続的な偽情報キャンペーンに挑戦する必要性」を強調したことに始まる。当初の政策措置はハイブリッド脅威に焦点を当てていたが、その後「検証可能に虚偽または誤解を招く情報であり、経済的利益のためまたは意図的に公衆を欺くために作成、提示、流布され、公共の害を引き起こす可能性のあるもの」という偽情報の定義へと範囲を拡大した。2018年4月、欧州委員会はオンライン偽情報への対処に関するコミュニケーションを発表し、オンラインプラットフォームと広告主のためのCode of Practice on Disinformationの開発を支援した。EU Code of Practice on Disinformationは2018年10月に公表され、業界関係者が偽情報と戦うための自主規制基準に自発的に合意した最初の例となった。2020年9月の最初の実施評価で複数の欠点が特定され、2022年6月16日に強化版が提供された。2025年2月13日、欧州委員会とEuropean Board for Digital ServicesはこれをDSA枠組みに統合し、Code of Conduct on Disinformationとなった。この統合により、Code of Conduct on Disinformationは超大規模オンラインプラットフォーム及び超大規模オンライン検索エンジンの偽情報リスクに関するDSA遵守を評価する関連ベンチマークとして機能する。コミットメントは、広告掲載、政治広告、ユーザーの整合性、ユーザーのエンパワーメント、研究コミュニティのエンパワーメント、ファクトチェックコミュニティのエンパワーメント、透明性センターの設立、常設タスクフォースの設立、コードの監視に関してグループ化されている。

 ルーマニアは2024年大統領選挙無効化という劇的事例を提供した。Roxana Raduの分析によれば、ルーマニアはFacebook、WhatsApp、YouTube、TikTokへの依存度が非常に高く、欧州で最も低いデジタルリテラシー率を持つ国の一つである。偽情報の拡散はCovid-19パンデミック中に最初のピークを迎え、2024年の大統領選挙無効化に至るまで世論形成に影響を与え続けた。国内法的枠組みはAutoritatea Națională pentru Administrare și Reglementare în ComunicațiiがDigital Services Coordinatorとして機能し、Consiliul Național al Audiovizualuluiが視聴覚規制を担当する。しかし欧州委員会の2025年評価では、CNAは「特にデジタルサービス法の実施を考慮すると、その任務を果たすための十分なスタッフと技術リソースを欠いている」と指摘されている。デジタルリテラシープログラム、独立したファクトチェック、公共研究と地域ジャーナリズムへの資金提供は優先されず、社会的レジリエンスは未発達のままであり、偽情報の供給と需要の両方がほぼ対処されていない状態が続いた。

 フランスはWilliam GillesとIrène Bouhadanaが分析するように、憲法判例に基づく規制枠組みを構築している。Autorité de régulation de la communication audiovisuelle et numériqueが視聴覚・デジタルコミュニケーション規制機関として機能し、選挙期間中の偽情報対策では特別措置が発動される。フランスはService de vigilance et de protection contre les ingérences numériques étrangèresを設置し、外国デジタル干渉からの監視と保護を専門的に担当させている。Loi pour la confiance dans l’économie numériqueとメディア関連法制が、プラットフォーム規制の法的基盤を提供する。

 ウクライナはDariia Opryshkoが詳述するように、戦時下という特殊状況で新メディア法を導入した。戦争の文脈における外国偽情報干渉への対処として、ウクライナは外国オンラインプラットフォームへの影響力行使メカニズムの不在に直面し、ウェブサイトとオンラインプラットフォームの大規模遮断に訴えた。National Security and Defense Councilが遮断決定を主導し、National Cybersecurity Coordination CentreとNational Centre for Operational and Technical Management of Telecommunication Networksが技術的実施を担う。新メディア法は偽情報に関する具体的規定を導入したが、国家安全保障上の必要性と表現の自由のバランスが継続的課題となっている。

テロリストコンテンツ対策

 Terrorist Content Online Regulationは削除命令メカニズムを中核とし、権限ある当局がホスティングプロバイダーに対してテロリストコンテンツの削除またはアクセス無効化を命じる権限を付与する。この削除命令は全EU加盟国において有効であり、国境を越えた執行を可能にする。TCORはテロリストコンテンツを「暴力的なテロ行為の実行または寄与を扇動する、またはそのような行為の実行を促進するために、テロリスト集団の活動を促進する」素材と定義し、権限ある当局が発出する削除命令に対してホスティングプロバイダーは1時間以内に対応する義務を負う。この1時間という厳格な期限は、テロリストコンテンツの迅速な拡散を防ぐために設定されている。違反した場合、プロバイダーは前年度の全世界売上高の最大4%の罰金を科される可能性がある。

 ドイツはSandra Schmitz-Berndtが分析するように、Netzwerkdurchsetzungsgesetzの原則がDSAに影響を与えた先駆的事例を提供する。NetzDGは既に「違法コンテンツ」を構成する刑事犯罪のリストを提供し、ソーシャルネットワーク事業者に対して苦情処理の効果的かつ透明な手続を維持する義務を課していた。NetzDGは年間200万人以上のドイツユーザーを持つソーシャルネットワークに適用され、明白に違法なコンテンツについては通報後24時間以内、その他の違法コンテンツについては7日以内の削除または遮断を義務付けた。現在はDigitale-Dienste-Gesetzに移行したが、NetzDGの執行経験はEU全体の規制設計に教訓を提供した。2023年10月のハマステロ攻撃後、ドイツ当局はテロリストコンテンツ対策を強化し、Federal Police OfficeとFederal Network Agencyが協調して削除要請を発出した。

 トルコはMehmet Bedii Kayaが概説するように、欧州評議会加盟国かつEU候補国として包括的規制インフラを発展させてきた。Information and Communication Technologies Authorityがプラットフォーム規制を統括し、物理的領域とデジタル領域の双方において公共秩序維持を目指す広範な権限を有する。テロリストコンテンツに関する具体的規定は刑法典とインターネット法に盛り込まれ、アクセス遮断措置が頻繁に活用される。トルコの執行実態は、国家安全保障目的とデジタル権利保護の緊張関係を鮮明に示している。

名誉毀損・憎悪・暴力扇動スピーチ対策

 アイルランドはRoderick Flynnが詳述するように、新設メディア規制機関Coimisiún na Meánを中心とした体制を構築した。CnaMはDSAの国内実施を監督し、Online Safety Codeの策定と執行を担当する。Online Safety Codeは名誉毀損的、憎悪的、暴力扇動的スピーチに関する具体的規定を含み、プラットフォーム事業者に対してコンテンツモデレーション手続の透明性と効果性を求める。アイルランドのアプローチは、自主規制と法的義務の組み合わせを特徴とし、段階的執行モデルを採用している。CnaMは違反事業者に対して最初は勧告を発出し、遵守されない場合には段階的に制裁を強化する権限を有する。この段階的アプローチは、事業者に自主的な改善機会を提供しつつ、最終的には強制力を行使できる柔軟性を持つ。

 オーストリアはClara Raucheggerが分析するように、Communication Platforms Actとそれに続くCJEU判例法を通じて注目すべき展開を見せた。Google Ireland v. KommAustria判決はCJEUによるDSA解釈に影響を与え、プラットフォームに対する削除命令の範囲と制約を明確化した。この判決は、加盟国当局が発出する削除命令の域外適用に一定の制限を設け、プラットフォーム事業者の権利とコンテンツ削除の必要性のバランスを図る基準を示した。オーストリアの枠組みはサイバーハラスメントと画像ベース性的虐待への適用において実践的経験を蓄積しており、被害者保護とプラットフォーム責任の調整メカニズムを発展させている。Digital Services Coordinator法は監督体制を整備し、Koordinator für digitale Diensteが執行を統括する。

 イタリアはGiovanni de Gregorioが説明するように、Codice Penaleに基づく司法執行メカニズムを維持している。刑法典は名誉毀損、憎悪扇動、暴力扇動に関する詳細な規定を含み、伝統的司法手続を通じた執行が中心となる。Autorità per le Garanzie nelle Comunicazioniが通信規制機関として機能し、DSA実施の調整を担当するが、司法当局との役割分担が課題として残る。イタリアの事例は、既存刑事法体系とDSAによる新規制枠組みの統合における困難を示している。

未成年保護と有害コンテンツ規制

 違法ではないが特定グループに有害なコンテンツの規制は、特に未成年者保護の文脈で重要性を増している。ポーランドはKrzysztof Wojciechowskiが詳細に分析するように、放送法における未成年保護規定と最近の改革を経験した。Krajowa Rada Radiofonii i Telewizjiが放送・テレビ評議会として伝統的規制を担当してきたが、オンライン環境への適用には立法的・司法的困難が伴った。ポルノコンテンツへのアクセス規制に関する新イニシアティブは、年齢認証技術の導入とプライバシー保護のバランスを模索している。Naukowa i Akademicka Sieć Komputerowa – Państwowy Instytut Badawczyが技術的実施を支援するが、実効性確保には課題が残る。

 英国はMariette Jonesが提示するように、Online Safety Actを2023年9月に成立させ、民間企業に第三者作成コンテンツの積極的監視、評価、削除を義務付けた。同法は強化された年齢認証を含む未成年保護措置を規定し、オンラインギャンブル規制も組み込んでいる。Ofcomが規制機関として広範な執行権限を有し、コード策定と遵守監視を実施する。英国のアプローチは、有害コンテンツの類型化とリスクベース規制を特徴とし、プラットフォームの規模と機能に応じた段階的義務を課している。Category 1サービスには最も厳格な義務が課され、Category 2Aサービスには中程度の義務、その他のサービスには基本的義務のみが適用される。この分類システムは、プラットフォームの影響力と資源に応じた比例的な規制を実現することを目指している。

比較分析:執行メカニズムの多様性

 報告書はMark D. ColeとSandra Schmitz-Berndtによる比較分析を提供する。削除命令の運用実態は国別に顕著な差異を示す。ドイツとフランスは行政機関による迅速な削除命令を重視するのに対し、イタリアは司法判断を経た削除を原則とする。この違いは表現の自由保護に関する各国の憲法的伝統を反映している。ドイツのNetzDG経験は行政的アプローチの実効性を示したが、イタリアの司法中心モデルは手続的保障を重視する。アクセス遮断措置の法的根拠も多様であり、ウクライナとトルコは国家安全保障を主要根拠とするが、アイルランドとオーストリアは個人の権利保護を重視する。ウクライナの戦時下における大規模遮断は緊急時の措置として理解されるが、平時における同様の措置は比例性原則の観点から問題視される。プラットフォーム透明性義務の履行状況については、DSAが統一基準を設定したにもかかわらず、報告内容と公開範囲に実質的相違が継続している。超大規模プラットフォームは詳細な透明性報告を提供する一方、小規模事業者は最低限の義務履行にとどまる傾向がある。DSAによる法調和効果は認められるものの、国内法執行の伝統、司法制度の特性、規制機関の能力が持続的相違を生み出している。報告書は、この多様性が必ずしも問題ではなく、各国の法的・文化的文脈に適合した執行を可能にする側面も持つと指摘している。

結論

 報告書は表現の自由と違法コンテンツ規制の緊張関係が、欧州の法的・政治的文脈において継続的調整を要する本質的課題であることを示した。DSAは重要な調和ステップを提供したが、国内実施における多様性は今後も維持される。欧州のオンラインコンテンツ規制執行の現在地は、統一的法枠組みと多元的執行実態の共存として特徴づけられる。報告書が提示する8カ国の事例は、この共存が実践においてどのように機能しているかを具体的に示している。今後の課題は、この調和と多様性のバランスをいかに維持しつつ、デジタル空間における基本権保護を強化していくかである。

コメント

タイトルとURLをコピーしました