「透明性」を演出するAPI──TikTokが提供するResearch APIの構造的問題

「透明性」を演出するAPI──TikTokが提供するResearch APIの構造的問題 偽情報対策全般

 2023年に欧州で発効したデジタルサービス法(DSA)は、非常に大きな影響力を持つオンラインプラットフォーム(VLOP)に対し、公共的監視のための「データアクセス」を保証するよう義務づけている。その象徴的な施策の一つが、研究者に向けた公式APIの整備である。

 TikTokもこの制度に応じて、2023年7月に欧州域内でResearch APIの公開範囲を拡大した。これにより、研究者はプラットフォーム上のコンテンツに対して、より直接的な分析や監査を行えるようになる──はずだった。

 だが、AI Forensicsによる詳細な検証レポート「TIKTOK’S RESEARCH API: PROBLEMS WITHOUT EXPLANATIONS」(2025年6月公開)は、この「透明性」が制度的には確かに保証されたように見えても、実際の運用レベルでは不透明な排除や制限が多数存在し、APIの利用だけでは真の監査が不可能であることを示している。


「見えている」はずの動画が見えない:APIの欠落

 AI Forensicsの実験は、ユーザーから提供された約26万件のTikTok動画URL(データドネーション)を基に、公式Research APIを通じてメタデータを取得しようとするものだ。そのうち約7万件の動画(27%)がAPIからは取得不能だった。

 このうち36%は実際に削除済み・非公開化されていたが、残りの62.7%はTikTok上で公開状態にもかかわらず、APIでは取得できなかった。つまり、研究者が正規の手続きを踏んでも、実際には“見えていない”コンテンツが大量に存在する。

 さらに問題なのは、APIがこうした欠落に対して明示的なエラーメッセージや理由説明を返さないことである。これにより、取得できない動画が「削除済み」なのか「対象外に選別された」のかさえも判断できない。


排除される3つのカテゴリ:制度外の“検閲”

 取得不能だった動画には、共通した特徴がある。レポートは次の3つのカテゴリに属する動画が、一貫してAPIから除外されていることを確認している:

  1. TikTokの公式動画
    たとえばTikTok CEOが米議会での禁止法案に対して発表した声明動画(約3千万再生)は、公開動画にもかかわらずAPIでは取得できなかった。
  2. 一部アカウントの投稿
    公開アカウントであっても、特定の発信者(例:@lexfridman、@asktheredditなど)の全動画が取得できないケースが多発。公式には「カナダ拠点のアカウントは除外」とされているが、地域情報が一致しない事例も多く、TikTokがどのように国籍や地域を判断しているかが不明
  3. 広告コンテンツ
    「スポンサー動画」ラベルのついた投稿は、アカウント名を偽装していたり、著作権保護された音源を使用している場合が多く、動画自体はTikTok上で再生可能にもかかわらず、APIでは不可視とされていた。

 特に最後の広告動画の除外は深刻だ。TikTokの広告ライブラリ自体がすでに不完全であることが知られており、Research APIからも広告が除外されることで、プラットフォーム上の広告透明性は制度上も技術上も保証されないという構造が明らかになった。


APIは「壊れる」──技術的にも脆弱な透明性

 レポートはさらに、TikTokのAPIが技術的にも欠陥を抱えていることを実験的に示している。

 たとえば、APIでは複数IDをまとめて取得する「バッチクエリ」が利用可能だが、非公開動画を1件でも含むと、他の公開動画の情報まで取得できなくなるという不具合がある。これは単なる実装ミスというより、透明性が保証されていないAPI設計の根本的問題を示している。

 また、1日あたりのクエリ数制限(1000件)により、再試行や検証も時間がかかり、研究者がAPIの信頼性を自力で確認するためには数十日単位の時間と労力が必要となる。


スクレイピングの“正当化”:非公式手段が透明性を担保する皮肉

 こうした制限や不透明性に対し、AI Forensicsはスクレイピングを用いて公開状態の動画を直接検証している。結果として、APIでは取得不能だった動画の多くが、実際にはTikTok上で誰でもアクセス可能な公開コンテンツであることが確認された

 この事実は、Research APIという“正規の窓口”だけでは、プラットフォームの実態を把握できないことを意味している。研究者が情報の正確性を担保するためには、プラットフォームの規約上グレーな手法であるスクレイピングに頼らざるを得ない構造が存在している。

 レポートは、スクレイピングを「研究者の権利」であり、制度的に保護されるべき透明性確保の手段として明確に位置づけている。さらに、欧州委員会自身がこうした非公式手段を用いた監査を制度化すべきと提案するに至っている。


形式的透明性の罠と、研究者の監視義務

 結論として、このレポートは、TikTokが提示するResearch APIという「透明性の制度的インターフェース」が、実際には技術的制約と意図的な選別によって中身を欠いており、研究者がプラットフォームの言う「透明性」を鵜呑みにすべきではないことを、実験を通じて実証している。

 表向きには制度に従ってAPIを整備しつつ、裏では説明責任のない排除が行われている。この二重構造を監視・検証するのは、研究者に課せられた責務であると同時に、制度にとって不可欠な防波堤でもある

 APIが「見せかけの窓」にすぎないなら、研究者は壁そのものに穴をあける道を模索せざるを得ない。

コメント

タイトルとURLをコピーしました