生成AIが描く「敵の顔」──CSOH報告書が明らかにしたインドの反ムスリム視覚ヘイト

生成AIが描く「敵の顔」──CSOH報告書が明らかにしたインドの反ムスリム視覚ヘイト ヘイトスピーチ

 米ワシントンD.C.に拠点を置く研究機関Center for the Study of Organized Hate(CSOH)が2025年に公表した報告書「AI-Generated Imagery and the New Frontier of Islamophobia in India」は、インドのソーシャルメディアにおいて拡散しているAI生成の反ムスリム・ヘイト画像を大規模に調査したものだ。調査対象は2023年5月から2025年5月にかけてX、Instagram、Facebookに投稿された1,326件の画像や動画、発信アカウントは297にのぼる。分析は国連の定義するヘイトスピーチ基準に従って行われ、エンゲージメント総数は2,730万を超えたという。

 報告書の中心は、生成AIがヘイトに使われるときの「4つの典型的ナラティブ」の解明である。すなわち、①陰謀論的物語、②非人間化、③ムスリム女性の性的対象化、④暴力の美化である。以下、その具体例を紹介する。


事件を宗教対立へとすり替える

 生成AIの使い方で最も目立つのは、本来は宗教とは関係のない事件を「ムスリムの犯行」に変えてしまうやり方だ。

  • 西ベンガル州の殺人事件では、容疑者にイスラームの頭帽をかぶせる加工が行われ、「イスラーム的暴力」として再解釈された。実際の捜査では宗教的動機は確認されていないにもかかわらず、SNSでは宗教対立の証拠として扱われた。
  • ナヴサーリーの駐車場トラブルは、近隣の揉め事にすぎなかった。しかしAIによって「石を持つムスリム群衆」の画像が作られ、地域暴動=宗教暴動として拡散した。事実に即さない「可視化」が、虚構の物語を補強していく。

陰謀論に“証拠”を与えるAI生成物

 従来から極右言説で語られてきた「ジハード陰謀論」は、生成AIによってさらに説得力を帯びる。

  • 「ラブ・ジハード」
    ムスリム男性がヒンドゥー女性を欺き改宗や結婚に誘い込むという言説は、現実の根拠が乏しい。だがAI生成物では、祭礼の場でヒンドゥー女性がムスリム群衆に取り囲まれる光景が繰り返し描かれる。こうした画像は「女性は常に狙われている」という印象を視覚的に刷り込む。
  • 「人口ジハード」
    ムスリムが大量の子どもをもうけ、人口で多数派を脅かすという物語も古くからある。これもAIで、妊婦や多数の子どもに囲まれた女性の生成画像が繰り返し拡散された。統計的には既に否定されている言説だが、感情に訴える画像は容易に広まる。
  • 「レイル・ジハード」
    鉄道事故を「ムスリムの破壊工作」と見せるために、線路に岩を置く人物や、斧を構えて列車をにらむ男の画像が合成された。現実の事故映像ではなく、検証困難な合成画像が「自明の証拠」として拡散する。

非人間化の記号

 報告書は、ムスリムを動物に見立てる表現がAIで再生産されていることを指摘する。

  • 蛇のモチーフが代表的だ。頭帽をかぶった蛇は、欺瞞・毒性・駆除対象という三つの意味を同時に含み、見た瞬間に「敵視すべき存在」と理解させる。
  • 家畜への残虐行為を誇張した画像もある。イスラームの宗教的屠殺を、血にまみれた刃物や苦しむ動物で描き、「野蛮な宗教」とする。

 こうしたイメージは論理ではなく感覚で敵意を煽る。


ムスリム女性の性的対象化

 最も多く確認されたカテゴリーは、女性を性的に対象化する生成物だった。

  • アバヤやヒジャブ姿の女性が、ヒンドゥー男性の「戦利品」のように描かれる。女性本人の同意も主体性も欠いたまま、宗教的記号とミソジニーが結びつく。
  • 報告書は、GitHub上で発生した「Sulli Deals」や「Bulli Bai」といった女性オークション事件を引き合いに出し、AIによる量産がその延長線上にあると述べる。

 この種の画像は、イスラモフォビアと女性蔑視の二つを同時に拡大させる危険を持つ。


暴力を美化するアニメ調の表現

 さらに深刻なのは、過去の宗教的暴力を「美学化」する生成物だ。

  • 1992年のバブリー・マスジド破壊は、柔らかなジブリ風アニメ調で描き直される。残虐さはノスタルジーに変換され、暴力は英雄的行為として再演される。
  • また、過去の虐殺がコミカルなキャラクター(野菜のカリフラワーなど)で描かれ、犠牲の重みが嘲笑に変わるケースも確認された。

 美しい絵柄やユーモアがモデレーションの回避にもつながり、受け手の心理的抵抗を下げる。


極右メディアによる拡散の回路

 個人アカウントにとどまらず、既存の極右系メディアもAI生成物を利用している。

  • OpIndiaは、強制改宗や拉致といった物語を合成画像付きで記事化。編集幹部の個人アカウントも動員し、大規模な拡散を実現した。
  • Sudarshan Newsは鉄道事故を「レイル・ジハード」と断定し、斧を持つムスリムの合成サムネイルを利用した。
  • RSS系のPanchjanyaは、モスク屋上で投石する姿をAIで作り、「反逆の証拠写真」として扱った。

 こうして制作と報道と拡散が循環し、生成物は単なるデマではなく政治的言説の一部として機能する。


まとめ

 この報告書は、生成AIが反ムスリムの物語を視覚的に強化する仕組みを、具体例とともに示している。事件の宗教化、陰謀論の“証拠化”、女性の対象化、暴力の美化──いずれもテキストだけでは説得力を持たなかった物語に「リアルな証拠」を与えてしまう。しかもそれは検証しづらく、反証しても拡散の勢いに追いつかない。

 「蛇の頭帽」「線路に斧の男」「ジブリ風のマスジド破壊」といった印象的なイメージは、一度流布されると消すことが難しい。報告書は、このような生成AIによる視覚的ヘイトが、インドにおける少数派の安全や社会的信頼を深刻に揺るがしていると結論づけている。

コメント

タイトルとURLをコピーしました