Simon ClarkとStephan Lewandowsky(英国ブリストル大学心理科学部)による研究「The continued influence of AI-generated deepfake videos despite transparency warnings」は、2025年12月にSpringer Natureが発行する査読誌Communications Psychologyに掲載された。AI生成ディープフェイク動画が、それが偽物であると明示的に警告された後でも、視聴者の判断に影響を与え続けるかを検証した3つの事前登録実験を報告している。2024年8月に施行された欧州連合人工知能法(EU AI Act)をはじめ、世界各国で進むAI規制は「透明性」(AI生成コンテンツであることの表示義務)を中心に据えているが、本研究はその有効性に根本的な疑問を投げかける実証データを提供している。
問題設定と先行研究の限界
2022年3月、ロシアによるウクライナ侵攻の数週間後、ウクライナのゼレンスキー大統領が国民に降伏を呼びかける動画がオンラインで拡散された。この動画は完全に捏造されたディープフェイクであり、品質が低かったため大きな影響は生じなかったが、高品質なディープフェイクが登場した場合の潜在的脅威を示す「ニアミス」事例として認識された。ディープフェイク技術の進化により、誰かが実際には行っていない行動や発言をしているように見える、極めてリアルな動画の制作が容易になっている。
ディープフェイクが社会に及ぼす脅威は二つの経路で生じる。第一に、人々が動画を偽物と見抜けず、その内容に影響される経路。第二に、動画が明確に偽物と特定され警告されている場合でも、その内容が影響を及ぼす経路である。既存研究の大半は第一の経路に焦点を当ててきた。ディープフェイク検出能力は動画の品質や文脈によって大きく変動し、特にスマートフォンの小画面では検出精度が落ち、人々は自分の検出能力を過大評価する傾向があり、動画の内容に同意する場合は偽物と気づきにくい。
本研究が検証するのは第二の経路、すなわち既に偽物と特定され警告された後のディープフェイク動画の影響である。規範的には、人々は偽物と知っている動画の内容を割り引いて評価すべきだが、誤情報研究の知見は懐疑的な見方を示唆している。人々は虚偽と知りながら訂正された情報に影響され続け、警告やファクトチェックタグは虚偽情報への信念を部分的にしか減少させない。
ディープフェイク動画への警告に関する既存の心理学研究は限定的で、結果も混在している。しかし、これらの研究には重大な方法論的限界がある。影響測定がないか、動画の「信頼性」という主観的評価のみで内容に基づく判断を直接測定していない。多くが既にネット上に公開されている風刺的ディープフェイク動画を使用しており、参加者が事前に知っている可能性や、風刺動画への反応が深刻な場面に一般化できるか不明である。たった一つの研究のみが本物の動画と比較し、真のコントロール条件(情報がない状態)を持つ研究は皆無で、警告の効果の大きさを正確に測定できていない。
本研究の独自性と方法論的進展
本研究は先行研究の限界を克服するため、以下の5つの重要な点で前進している。第一に、実験専用に2つの新しいディープフェイク動画を制作し、参加者の事前知識による汚染を完全に排除した。第二に、同じ脚本と背景を用いた本物の動画も制作し、純粋に本物と偽物の効果を比較可能にした。第三に、背景音で重要な内容を聞こえなくした真のコントロール条件を追加し、情報がない状態との比較と警告効果の正確な測定を可能にした。第四に、「有罪と思うか」という具体的判断を測定し、実際の意思決定への影響を捉えた。第五に、判断理由を自由記述で回答させ、参加者の思考プロセスを理解した。さらに、政治的文脈(地方政府職員の賄賂)と非政治的文脈(インフルエンサーの道徳的過ち)という2種類の動画を用い、結果の一般化可能性を確認した。
透明性が影響を無効化できるかという問いは時宜を得ている。EU人工知能法第50条は「ディープフェイクを構成する画像、音声、動画コンテンツを生成または操作するAIシステムの展開者は、そのコンテンツが人工的に生成または操作されたことを開示しなければならない」と規定している。透明性重視の背景には、それによって人々が必要に応じて情報を無視できるという暗黙の前提がある。3つの実験はすべてOpen Science Framework(osf.io/sjw9h)で事前登録された。
実験1:警告を信じても影響は残る
実験1は2022年11月24-25日に実施され、米国から175名が参加した(年齢20-76歳、平均41.68歳)。CloudResearch MTurk Toolkitを通じて募集され、8分間の質問票完了に対し1.25ドルが支払われた。
実験は被験者間デザインで、コントロール条件(n=100)と偽物特定警告条件(n=75)の2条件のみのシンプルな設計である。参加者はまず架空の地方政府職員John Carterについて簡単に紹介され、その後60秒の動画を視聴した。動画では彼がバーで密かに撮影され、賄賂を受け取ったと認める犯罪を告白しているように見える。コントロール条件では、本物の動画に背景音を加えて有罪を示す発言内容を聞こえなくしたバージョンが使用された。偽物特定警告条件では、DeepFaceLabソフトウェアを用いて俳優の顔を別の俳優の顔に入れ替えたディープフェイク動画が使用され、視聴前に「警告:この動画はディープフェイク動画として特定され、フラグが立てられていることを認識すべきである」という特定警告が表示された。
動画視聴後、参加者は7段階リッカート尺度(-3=絶対にそう思わない、+3=絶対にそう思う)で「John Carterは犯罪を犯したと思うか」(罪の認識)と「動画はディープフェイクだと思うか」(偽物の認識)を評価した。中間点は「判断不可能」とラベル付けされた。
罪の認識の平均値は、偽物特定警告条件で0.87(「たぶんそう思う」に近い)、コントロール条件で-0.40(「判断不可能」に近い)であり、統計的に有意な差が認められた(t(134.17)=6.16, p<.001, d=0.96)。質的データの分析では、偽物特定警告条件の75名のうち53.3%(40名)が動画の内容に完全にまたは部分的に基づいてJohn Carterが有罪だと信じた。これに対し、コントロール条件では100名中12.0%(12名)のみが同様の判断をした。偽物特定警告条件で警告を理由に無罪または判断不可能と答えた参加者はわずか13.3%(10名)であった。
最も重要な発見は条件付き分析から得られた。特定警告を受け、その後動画が偽物だと信じていると明言した52名のサブセットにおいて、罪の認識の平均値(0.87)は依然としてコントロール条件(-0.40)より有意に高かった(t(84.74)=5.50, p<.001, d=0.97)。質的データによれば、警告を信じたにもかかわらず、このサブセットの53.8%(28名)が動画の内容に依拠してJohn Carterが有罪だと結論づけた。偽物の認識については、偽物特定警告条件の75名のうち69.3%(52名)が動画はディープフェイクだと信じたが、これら52名のうち警告を理由として言及したのは42.3%(22名)のみで、61.5%(32名)は動画自体の何らかの側面(視覚的欠陥など)に言及した。この発見は、人々が「見ることは信じること」というヒューリスティックを採用し、警告への信頼が限定的であることを示唆している。
実験2:警告タイプの体系的比較
実験2は2023年4月13-14日に実施され、米国から275名が参加した(年齢19-70歳、平均36.66歳)。実験2は2(本物・偽物動画)×3(警告なし・一般警告・特定警告)の被験者間要因計画にコントロール条件を加えた7条件である。一般警告は「警告:ディープフェイク動画の存在に注意してください」というテキストで、特定警告は実験1と同じ文言である。
罪の認識について、動画変数と警告変数の両方で有意な主効果が認められたが、交互作用は有意でなかった。偽物特定警告条件の平均値(0.62)はコントロール条件(-0.29)より有意に高く、実験1の結果を再現した。偽物一般警告条件と偽物特定警告条件の間に有意差はなかった。しかし、偽物・警告なし条件の平均値(2.14、「おそらくそう思う」)は偽物一般警告条件(0.73)より有意に高く(t(61.30)=4.22, p<.001, d=0.95)、一般警告が罪の認識を減少させることが示された。質的データでは、本物・警告なし条件の89.7%(39名中35名)が動画に基づいてJohn Carterを有罪と判断したのに対し、偽物一般警告条件では62.5%(40名中25名)、偽物特定警告条件では47.1%(34名中16名)が動画に基づいて有罪と判断した。
偽物の認識について、偽物特定警告条件の平均値(1.88、「おそらくそう思う」)は偽物一般警告条件(0.18)より有意に高かった(t(71.67)=4.81, p<.001, d=1.12)。重要なことに、偽物一般警告と偽物・警告なし条件の間には有意差がなく、一般警告は動画がディープフェイクだという信念に影響しなかった。それにもかかわらず、一般警告は罪の認識を減少させた。これは「一般化された不確実性」の現象を示唆している。また、本物特定警告条件の平均値(0.97)は本物一般警告条件(-0.18)より有意に高く、本物の動画でも特定警告によってディープフェイクだと信じられることが示された。これは「嘘つきの配当」と呼ばれる現象を実証している。
条件付き分析では、警告(一般または特定)を受けて動画が偽物だと信じた47名のサブセットにおいて、罪の認識の平均値(0.43)は依然としてコントロール条件(-0.29)より有意に高く(t(77.52)=2.13, p=.036, d=0.44)、警告を信じたにもかかわらず44.7%(21名)が動画の内容に依拠してJohn Carterが有罪だと結論づけた。
実験3:生成AI動画による検証
実験3は2024年9月30日に実施され、英国からProlificを通じて223名が募集された(年齢19-58歳、平均30.54歳)。実験3は2(本物・偽物動画)×2(警告なし・特定警告)のデザインで、実験1・2とは異なる動画が使用された。架空のビーガンソーシャルメディアインフルエンサーAmelia Palmerが、フォロワーに対して肉を食べたという道徳的過ちを告白する2分間の動画である。偽物の動画は、同じ俳優が無関係な話をする3分間の動画1本のみを学習した生成AI技術を用いて一から作成された。この動画は、政治的文脈ではなく非政治的文脈、深刻な犯罪ではなく些細な道徳的過ち、年配の男性ではなく若い女性という、実験1・2とは対照的なシナリオを提供する。
罪の認識について、警告変数の有意な主効果が認められた(F(1,219)=14.26, p<.001)。偽物特定警告条件の平均値(1.04)はゼロより大きく、本物・警告なし条件(2.00)より低かった(t(88.65)=2.74, p=.007, d=0.53)。質的データでは、本物・警告なし条件の83.3%(60名中50名)、偽物・警告なし条件の87.5%(56名中49名)が動画に基づいてAmelia Palmerが有罪だと信じたが、偽物特定警告条件では56.0%(50名中28名)に減少した。
条件付き分析では、特定警告を受けて動画が偽物だと信じた30名のサブセットにおいて、罪の認識の平均値(0.67)はゼロより大きく、警告を信じたにもかかわらず50.0%(15名)が動画の内容に依拠してAmelia Palmerが有罪だと結論づけた。実験3の結果は、動画のスタイルと内容、制作技術(顔交換対生成AI)が大きく異なるにもかかわらず、実験2と実質的に同一のパターンを示した。この一貫性は、発見の頑健性と一般化可能性を示している。
研究の限界
著者らは心理学実験に共通する限界として、要求特性と架空のシナリオの問題を認めている。しかし、質的データは参加者の推論が実験目的の予測に基づいているという示唆を提供しなかった。また、操作チェックにより、警告を信じた参加者のサブセットでも動画の内容に影響されたことが示された。架空のシナリオについては、人々が映画の架空のキャラクターについて道徳的判断を下すように、参加者も動画の架空の性質に関係なく内容に基づいて有罪を評価した。
本研究は、架空のキャラクターが架空のディープフェイク動画に登場する「入れ子構造の虚構」を伴い、著者らはこれが参加者が動画を証拠としてどう解釈するかに曖昧さを導入した可能性があると認めている。ディープフェイク動画の影響が、非証明的情報への純粋な感受性ではなく、課題の認識論的構造への不注意を部分的に反映している可能性を排除できない。これら2つの代替解釈を区別することは、将来の研究の重要な方向性である。ただし、質的データは参加者の自由記述説明がシナリオ内の証拠とその信頼性に直接関与しており、入れ子構造の虚構についての不確実性を示唆するものはなかったことを示している。
政策的含意と今後の課題
本研究の発見は、立法者、政策立案者、ソーシャルメディアプラットフォームとオンラインニュースの規制者に対する含意を持つ。悪意のあるディープフェイク動画の影響が、それが偽物だと述べる事前警告によって完全には無効化されなかったことが示された。参加者のJohn Carterの公職適性についての信念は、警告にもかかわらずディープフェイク動画によって影響された。これは、AIのリスクを軽減する中心として透明性が見なされている規制者の現在の焦点を損なうものである。本研究の結果は、オンラインで公開されたディープフェイク動画を特定し、フラグを立てることだけでは不十分であることを示している。ディープフェイクコンテンツの削除または禁止などのさらなる措置が検討されるべきである。
一般警告は、参加者が動画をディープフェイクだと確信していない場合でも、動画内容の解釈を変化させた。これは「一般化された不確実性」と呼ばれる現象で説明される。教育的警告がソーシャルメディアニュース全般への冷笑主義と不信に寄与し、動画コンテンツ全般への信頼低下を招く可能性がある。道徳哲学者は、ディープフェイク動画への認識を、現実の証拠としての動画の信頼性に対する認識論的脅威と描写している。これは法廷での動画証拠の使用に明白なリスクを提示する。動画の真正性についての一般化された冷笑主義を助長しないため、著者らはディープフェイク動画についての一般警告の使用を完全に避けることを提案している。
特定警告は本物の動画を偽物だと信じさせる効果も持った。これは悪意のある行為者が「嘘つきの配当」を利用できることを示している。すなわち、不都合な動画が実際には本物であるにもかかわらず、ディープフェイクだと主張することである。したがって、動画をそのようにラベル付けする前に、それが確かにディープフェイクであることを確信することが重要である。
この研究の価値を理解するために
本研究の発見を適切に位置づける上で、重要な文脈がある。「虚偽と知っていても影響を受ける」という基本的な心理学的原理は、実は1970年代から研究されてきた現象である。例えば、裁判官が「この証拠は無視してください」と指示しても、陪審員は完全には無視できないことが知られている。訂正された情報でも影響が残る継続的影響効果、知識があっても繰り返し聞くと信じてしまう虚偽効果など、関連する心理学的現象は十分に確立されている。最近の研究でも、警告はマイクロターゲティングされた政治メッセージの説得力に有意な効果を持たず、大規模言語モデルが生成した道徳的アドバイスに従う程度にほとんど効果がなかったことが報告されている。AI生成であることを示すラベルはそのコンテンツへの信念を減少させたが、それに関与する可能性にはほとんど効果がなかった。
では、本研究の価値はどこにあるのか。第一に、テキストベースの誤情報ではなく、AI生成動画という新しいメディアでも同じ心理学的原理が作用することを厳密な実験デザインで実証した点である。動画の「見れば分かる」という直感的信頼性でさえ、この認知的脆弱性を防げないことが示された。第二に、2024年8月にEU人工知能法が施行され、「透明性」を中心とした規制が世界的に展開されている、まさにこのタイミングで「透明性だけでは不十分」という具体的な証拠を提供した点である。第三に、既存のディープフェイク研究が持つ方法論的限界を克服し、政策立案者が引用できる質の高いエビデンスを提供した点である。
つまり、本研究は基礎心理学的には画期的な発見ではないが、新しい技術的脅威に対して、必要なタイミングで、必要な証拠を、厳密に提供した研究として評価されるべきである。既知の心理学的原理をディープフェイクという具体的文脈で実証することで、抽象的な理論を直接的に政策議論に接続可能な形で提示している。ディープフェイク技術が進化し続け、EU AI法をはじめとする規制枠組みが実装される現在、このような応用研究の政策的価値は極めて高い。透明性が万能薬ではないという証拠は、より包括的なディープフェイク対策の議論を促進する上で不可欠な貢献となる。


コメント