DSAは機能しているか:HateAidによる5大プラットフォーム違法コンテンツ報告システムの実証調査

DSAは機能しているか:HateAidによる5大プラットフォーム違法コンテンツ報告システムの実証調査 偽情報対策全般

 デジタル空間における人権侵害被害者の法的支援・カウンセリング・政策提言を行うドイツの非営利組織HateAid gGmbHは2025年12月、EUデジタルサービス法(DSA)のユーザー権利が実際にどの程度機能しているかを実証的に検証した報告書「Rights without reach: The DSA put to the test」を公開した。DSAが正式に施行された2024年2月以降、ユーザーによる違法コンテンツ報告、プラットフォームへの内部苦情申立て、EU認定裁判外紛争解決機関への申立てという三層構造の救済システムが実際にどう運用されているかを、法的専門家によるレビューを経た301件の違法コンテンツ報告・134件の内部苦情・50件の裁判外紛争解決手続という規模で体系的に記録した。対象プラットフォームはFacebook、Instagram、TikTok、YouTube、Xの5つ。調査期間は2024年4月から2025年7月で、データ確定は2025年10月16日時点。資金はMercator Foundationが提供した。


調査設計と方法論

 本調査の方法論上の特徴は、サンプルの法的品質管理にある。報告対象として選定されたコンテンツはすべて弁護士によるレビューを経て「DSAの下で違法コンテンツを構成する可能性が高い」と判定されたものに限定された。具体的な違法類型は、憎悪の扇動、反憲法的シンボル、犯罪行為の扇動または承認、侮辱・名誉毀損・中傷であり、各案件に対して正式な法的評価書を含む詳細な記録が作成された。この「ダブルチェック原則」により、削除されなかった案件を「プラットフォームの不作為」として純粋に解釈できる設計になっている。サンプルはHateAidのカウンセリングサービスを通じて把握した被害事例と手動スクリーニングによって選定されており、被害実態に即した選定プロセスと言える。

 裁判外紛争解決機関については、2024年10月時点でEU認定済みかつドイツ語または英語での手続が可能という条件を満たす4機関を選定した。User Rights GmbH(ドイツ)、Appeals Centre Europe(アイルランド)、ADROIT(マルタ)、RTR(オーストリア)である。ただしAppeals Centre Europeは審査範囲が利用規約違反に限定され違法性の検討を行わないため、実質的な分析の中心はUser Rights GmbH・ADROIT・RTRの3機関となっている。報告書は「結果は代表性を持たないが、DSA義務の実施における構造的欠陥への定性的洞察を提供する」と自ら位置づけている。


違法コンテンツは削除されたか:プラットフォーム別の実態

 全プラットフォーム合算で見ると、単純な報告のみで削除された違法コンテンツは2024年に44%、2025年に47%にとどまる。内部苦情の成功率は2024年の24%から2025年の7.2%へと71%超の下落を記録した。裁判外紛争解決を経て削除に至ったのは対象案件の34%であり、全救済手段を尽くした後でも削除されたのは報告コンテンツ全体の57%に過ぎない。

プラットフォーム別のデータは以下のとおりだ。

プラットフォーム2024年報告後削除率2025年報告後削除率2024年内部苦情成功率2025年内部苦情成功率
Facebook65%41%37.5%6%
Instagram29%40%33%0%
YouTube38%28%
TikTok26%46%19%0%
X67%67%18%21%

 MetaのプラットフォームであるFacebookとInstagramの2025年における急落は、単なる運用の変動ではなく方針転換との直接的関係が示唆される。報告書が記録した具体的事例を見ると、「緑の党員が全員すぐに死ぬか殺されることが私の最大の願いだ」という投稿は2024年にFacebookで報告後削除されたが、「ゴミ…野郎を精神病棟に放り込んで朽ちさせろ」という類似の投稿は2025年の報告・苦情後も削除されなかった。この変化は、Zuckerbergが2025年2月に発表した内部ガイドライン改訂(政治的・宗教的コンテンツの扱いを緩和)が実施された時期と一致している。報告書はMetaが「方針変更は違法コンテンツの取り扱いを変えるものではない」という立場を維持しつつ、実態として削除率が大幅に下落していることを文書化した。

 YouTubeはすべてのプラットフォームの中で最低の削除率を記録した。報告されたコンテンツのうち2024年に38%、2025年には28%しか削除されず、さらに重要な問題として受領は確認しながら最終決定を通知しなかったケースが2024年に48%、2025年に34%に達した。これはDSA第16条第5・6項が定める「遅滞なく決定を通知する」義務への抵触を強く示唆する。YouTubeはまた、報告受理後に電子メールで追加情報を要求するケースが多く、その情報が報告フォームにすでに記載されていた場合でも、返信がなければ処理が大幅に遅延した。ある案件では最初の報告から最終決定まで23日を要した。

 Xは全プラットフォームで最高の削除率を示した。単純報告後の削除率は2024・2025年ともに約67%で安定しており、内部苦情の成功率も2024年18%・2025年21%と微増している。ただし処理速度の極端な速さ(報告の99%が24時間以内、70%が1時間以内)については、自動処理の可能性という別の問題を提起する(後述)。


報告チャンネルの設計的障壁

 DSA第16条はすべての仲介プラットフォームに「アクセスしやすく、ユーザーフレンドリーな」違法コンテンツ報告チャンネルの提供を義務付けている。しかし報告書は、調査対象のいずれのプラットフォームもこの要件を十分に満たしていないと結論づけた。

 中核的な問題は報告チャンネルの構造的な不透明さにある。すべてのプラットフォームは、利用規約違反の報告チャンネルとDSA第16条に基づく違法コンテンツの報告チャンネルを明確に区別しているが、この区別はユーザーには見えない形で設計されている。報告画面に最初に現れるカテゴリは「いじめや嫌がらせ」「暴力・ヘイト・搾取」など法的な語感を持つ名称が並ぶが、これらはすべて利用規約違反チャンネルへの導線であり、DSA義務は生じない。「違法コンテンツとして報告」というオプションは長いリストの末尾に現れる。

 この設計の帰結がクリック数の格差だ。Facebookで脅迫的投稿を報告する場合、利用規約違反としての報告に要するクリック数は5回であるのに対し、DSA違法コンテンツとしての報告には最低15回のクリックが必要だ。報告書はこれを「ダークパターン」と分類し、DSA第25条が明示的に禁止する不正操作的設計であると指摘する。DSA第25条第3項は「ユーザーがすでに下した決定を再び問い直すよう求めること」をダークパターンの例示として列挙しており、YouTubeが「本当に法律違反として報告したいですか」と複数回確認を求める設計はまさにこれに該当する。

 手続きの複雑さはさらに増幅される要素を含む。複数のプラットフォームが違法コンテンツ報告フォームで本名の提供を必須要件としているが、DSA第16条はユーザーに氏名・電子メールアドレスを「提供する選択肢を与える」ことは義務付けているものの、それを必須とすることは要求していない(欧州データ保護委員会の2025年9月ガイドラインも同趣旨)。FacebookとInstagramとYouTubeが本名の入力を求める設計を維持しているのは、特にデジタル暴力の被害者にとって報告を躊躇させる効果を持つ。XはさらにコンテンツがどのEU加盟国またはEU全体の法律に違反するかを選択させる設計を採用している。

 これらの障壁が生む心理的効果は定量化されている。das NETTZが2025年に実施したユーザー調査では、DSA違法コンテンツ報告チャンネルを通じて提出された報告の27%が途中で離脱した。離脱理由として最も多く挙げられたのは「選択肢に圧倒された」「次に何をすればよいかわからなかった」という認知的過負荷だ。


内部苦情手続の機能不全

 DSA第20条はプラットフォームに、報告への対応決定に対する内部苦情手続の提供を義務付けている。報告書が記録した問題の多くは、苦情手続の存在それ自体の不在または隠蔽、そして苦情プロセスにおける情報の不完全性に集中している。

 参照番号の欠如は実務上の深刻な障害だ。TikTokは受領確認をアプリ内通知のみで送付し電子メールでは送らない。参照番号も含まれないため、複数の報告を並行して提出した場合、どの通知がどの報告に対応するのか追跡が事実上不可能だ。Xの確認通知は受領直後に送られるが完全に汎用的な文面で参照番号も詳細も含まない。複数件を報告したユーザーは案件を区別できない。DSA第6条第1項のもとでプラットフォームの責任を問うためには「通知が行われたこと」の証明が必要だが、参照番号のない汎用確認文では裁判所や監督機関への証拠として機能しない。FacebookとInstagramはこの点で対照的であり、電子メールで受領確認と決定通知を送付し、各報告に個別の参照番号を付与し、入力情報のコピーを添付している。

 苦情手続の対象範囲にも欠落がある。YouTubeはビデオの報告については内部苦情手続を提供しているが、コメントの報告については苦情手続が存在せず、その旨の情報提供もない。XはDSA対応の違法コンテンツ報告に対しては内部苦情を受け付けているが、利用規約違反として報告された場合の否定的決定に対しては苦情を認めていない。Recital 58は両チャンネルを通じた苦情の可能性を明示的に求めており、Xの設計は明確にこれに反する。

 証拠保全機能の欠如も実務的な障壁として記録された。TikTokはコメントの投稿日時を「2週間前」のような相対的表示でしか示さず、絶対的な日時情報を得る手段がない。YouTubeとInstagramも同様に相対表示を採用しており、法的手続に必要な完全な記録の作成が困難だ。Facebookのデスクトップ版とXは、法的に有効なスクリーンショットを撮影できる形で正確な日時を表示しており、対照的な設計となっている。


裁判外紛争解決の実態

 DSA第21条が設計した裁判外紛争解決(OADR)は、裁判手続の低コスト・迅速な代替手段として構想された。HateAidは2024年10月から2025年7月にかけて4機関に50件の手続を申立て、その機能を体系的に検証した。

 結果は機関間の格差が極めて大きかった。50件中25件(50%)は提出から少なくとも90日が経過した時点でも決定が下されていなかった。7件は180日を超えても決定なしの状態が続いており、DSA第21条第4項への違反可能性を示している。特に深刻なのはADROIT(マルタ)で、HateAidが提出した11件のすべてで決定が出なかった。RTR(オーストリア)も14件中13件が未決定のまま90日を超えた。

 決定が下りた案件の内訳は、拒否1件、進行中に削除済みとして解決4件(16%)、違法性を認定しプラットフォームに削除要求80%という構成だ。この削除要求に対してプラットフォームが実際に削除を実施したのは約65%のケース。プラットフォームによるOADRの決定実施は任意であり、強制力がない構造が数字に現れている。削除が行われても確認がなく手動でチェックしなければならないケースが複数あり、少なくとも2件では決定通知から1カ月以上後にようやく削除が実行された。

 機関間の質の差は明確だ。User Rights GmbH(ドイツ)は、決定を下した全案件で違法性を認定し、詳細かつ透明性のある理由を付し、通常3週間以内にプラットフォームへの実施を達成した。同機関で手続が行われたコンテンツの73%が削除に至っている。一方ADROITとRTRは、問い合わせに対して進捗情報を提供するケースはあったが、ADROITでは10カ月以上経過しても決定が出ないケースが複数記録された。

 このデータの文脈で重要なのは、XへのDSA執行に対する政治的介入の記録だ。報告書は脚注で明示しているが、2025年1月から準備が進められていたXへの制裁金が、米国との関税交渉の結果を待つという理由で延期された。報告書は「DSA執行が外部的な考慮に依存することへの警告」として、これを明示的に問題視している。


モデレーションシステムの技術的問題

 DSA第16条第6項は自動手段による決定にその旨を表示することを義務付け、第20条第6項は内部苦情手続における完全自動意思決定を全面的に禁止している。調査のデータはこれらの規定への広範な違反を示唆する。

 TikTokの処理時間パターンは特に顕著だ。2024年において、処理された全報告の62%と提出された全苦情の76%がちょうど30分で処理された。さらに処理時間が変動した案件でも、1時間30分、1日7時間30分といった30分の整数倍という規則的なパターンが観察された。2025年にはこのパターンの頻度が36%に低下したが消滅はしていない。TikTokの最新の透明性レポートでは、違法コンテンツの報告はまずコミュニティガイドライン違反の可能性を自動チェックし、違反なしと判定された場合のみ人間のモデレーターが法的違反を確認するとされているが、この手順が2回目以降のクリックを経た30分処理の正当化にはならない、と報告書は指摘する。

 Xも同様に疑念を持たれる処理速度を記録した。提出された報告の30%が10分未満、9%が5分未満、1分以内の案件も両プロジェクト年で各1件記録された。Xの透明性レポートはすべての報告と苦情が「人間の監視によってレビューされる」と述べているが、数分での処理がどのようなプロセスを意味するのかは不明のままだ。

 アルゴスピーク問題はモデレーションシステムの構造的盲点を示す。アルゴスピークとは、非ローマ字・絵文字・コード語を使用して自動フィルターを回避する言語的偽装技法で、人間の読者には内容が容易に理解できる。TikTokにおけるアルゴスピークを用いた明らかに違法なコンテンツの報告について、2024年には全案件の71%で少なくとも3カ月間決定が下されなかった。決定が出た少数の案件でも「明らかな侮辱や扇動的コンテンツが違法と分類されなかった」例が複数記録された。報告書が掲載している具体例には、差別的・人種差別的な言語表現が含まれており、これらが組織的なヘイトキャンペーンにおいてどのように機能するかを示している。


デジタルサービス調整機関への苦情と制度の限界

 DSA第53条はユーザーおよび組織・団体に対し、DSA違反についてプラットフォームを各国のデジタルサービス調整機関(DSC)に苦情申立てする権利を与え、意見陳述と手続進捗通知を受ける権利を保障する。HateAidはプロジェクト期間中に合計7件の苦情を申立てた(大半はドイツのDSCである連邦ネットワーク庁:BNetzA宛て)。

 結果は制度的限界を浮き彫りにした。苦情の処理には多くの場合数カ月を要し、手続がどの段階にあるか、監督手続が開始されたかどうかが伝えられないケースが繰り返された。複数の案件で申立てから6〜7カ月後にアイルランドDSCへの転送を通知されており、BNetzAが「手続は完了したと思われる」として明示的な継続要求がなければ処理を終了するという対応を繰り返した事実も記録されている。BNetzAは増員後も全部門合計で24名の職員しか抱えておらず、この人員規模が対応能力の実態的上限を形成している。

 2025年8月にはわずかな前進が記録された。アイルランドDSCが、BNetzAからHateAidのMeta対するDSA第16条に基づく苦情申立てが欧州委員会の進行中の手続に組み込まれたと通知したのだ。Trusted Flaggers(信頼できる通報者)の認定プロセスも別途問題を示した。HateAidが2025年6月に認定を取得するまでの期間は8カ月を超えており、必須要件と補足的要件の区別が不明確なまま大量の文書提出が求められた。BNetzAは「特別な専門知識と能力」の要件を「少なくとも第一次国家司法試験を修了した者が各報告を直接作成するか承認すること」と解釈したが、これはプラットフォーム内で法的訓練を受けていないモデレーターがグローバルな影響を持つ削除判断を行っているという現実と著しく乖離している。


報告書が提言する制度改善

 報告書が提示する改善提言は、立法的明確化・執行の強化・手続インフラの整備という三つの軸で構成される。

 第一に匿名報告の明文化だ。現行のDSA第16条第2項およびRecital 50・53の文言は解釈の余地を残しており、複数のプラットフォームが実名提供を必須とする根拠として援用している。欧州データ保護委員会は2025年9月のガイドラインですでにこれを否定しているが、立法文言を通じた明確化が必要だとする。

 第二に救済情報の通知義務だ。利用規約違反チャンネルを通じて報告した場合や偽情報を報告した場合にも、内部苦情手続や裁判外紛争解決の権利について通知を受ける仕組みが現在存在しない。すべての決定通知において救済経路の情報提供を義務付けることが提言される。

 第三に裁判外紛争解決体制の標準化だ。DSA第45条に基づく行動規範の策定(独立性・中立性・意思決定の透明性に関する基準の設定)と、欧州委員会によるDSA第21条ガイドラインの発行の両方が必要とされる。行動規範は任意参加に留まるのに対し、ガイドラインはすべての機関に一律に適用される法的明確性を持つという点でより実効的だ。

 第四にTrusted Flagger認定基準のEU統一化だ。現状の専門性要件の解釈が各国DSCによって異なることが、市民社会組織の認定へのアクセスを不必要に妨げている。法的資格要件に依存せず、テーマ別専門性(反ユダヤ主義・ストーキング等)を持つ非法律系組織も認定対象とすべきと提言する。

 第五にDSC苦情の追跡可能システムの創設だ。DSA第53条に基づき監督機関に申立てた苦情の進捗をユーザーと市民社会組織が信頼できる形で追跡できる仕組みが欠如しており、これがアカウンタビリティと組織の活動証明の両面に支障をきたしている。報告書は、透明で検証可能かつ適切に支援された市民社会・監督機関・プラットフォームの協働なしにはDSAの約束が実現しないという結論で締めくくられている。

コメント

タイトルとURLをコピーしました