生成AIの登場で、ニュースや記事が「安く」「大量に」生み出されるようになった。問題は、その質の低さだけではない。もしこの「AIスロップ」が政治的操作に使われたらどうなるのか──これを著者たちは「slopaganda」と呼ぶ。本稿で紹介する論文「Slopaganda: The interaction between propaganda and generative AI」(2025)は、この新しい脅威を論じている。
SlopとSlopagandaの違い
論文の出発点は「slop」と「slopaganda」の区別にある。
- slop:生成AIが吐き出す不要で質の低いコンテンツ。現状ではビジネス上のコスト削減が主目的。
- slopaganda:そのslopが政治的意図と結びつき、人々の態度や信念を操作するために拡散される現象。
つまりslopそのものは無害に見える。しかしそれが政治的に利用されたとき、既存のプロパガンダよりもはるかに巧妙で広範囲に影響する危険がある、と著者らは警告する。
News Corp Australia──すでに量産されている「slop」
まず著者らが引いた例は、オーストラリアの大手メディア企業News Corp Australiaである。ここはルパート・マードック傘下の巨大ニュース企業で、新聞やニュースサイトを多数抱えている。その同社がすでに毎週3000本の地域ニュース記事を生成AIで生産している。
記事の内容は「地元で新しいカフェが開店した」「道路工事が始まった」といった小規模なニュースが中心だ。誤りが含まれることもあり、深掘りも検証もない。つまり質の低いslopだ。だが問題は、これらが「地域ニュース」という形式で流れている点にある。地域紙や地元ニュースは全国紙やテレビよりも信頼されやすい。もしこうしたAI生成記事に政治的メッセージが紛れ込めば、slopは一気にslopagandaへと変わる。
Sinclair Broadcasting──「地元の声」の皮をかぶった一斉操作
次に論文が取り上げるのは、米国の放送大手Sinclair Broadcastingの事件だ。2018年、全米各地のローカル局が「偏ったニュースが広がっており、民主主義に危険だ。我々は真実を伝える」という趣旨の同じ文章を一斉に読み上げた。
各局のキャスターは地域の顔として信頼されていた。だが実際には中央の本社から同じ台本が送りつけられており、改変の余地はなかった。スポーツメディア「Deadspin」がこの映像を編集し公開すると、数十人のキャスターがまるでロボットのように同じ言葉を繰り返す姿が可視化され、強烈な違和感を与えた。
このときは人間による操作だったが、もし生成AIが使われれば、地域ごとに言い回しや事例を少しずつ変え、「地元独自のニュース」のように見せかけられる。これはslopagandaの未来図そのものだ。
BannonとBreitbart──情報洪水戦略
米政界の戦略家スティーブ・バノンは、自らの戦術を「flood the zone with shit(情報で区域を糞まみれにする)」と呼んだ。彼が創設したBreitbart Newsでは「Black Crime」というカテゴリーを設け、黒人による犯罪ばかりを取り上げる記事を洪水のように配信した。
読者は繰り返し目にすることで「黒人=犯罪」という連想を自然に形成してしまう。これ自体はAI以前の戦略だが、もし生成AIで無限に記事を量産すれば、洪水の規模と速度は桁違いになる。
YouTube推薦アルゴリズム──計算機プロパガンダの基盤
研究者がロボットを使ってYouTube検索を繰り返したところ、特定のキーワードでは陰謀論的動画が高頻度で推薦されることが確認された。たとえば「Jordan Peterson」「Ben Shapiro」といった右派インフルエンサー関連の検索では、半分近くが陰謀論に導かれたという。
これは生成AIではなく「計算機プロパガンダ」の事例だが、同じ構造にAIが加われば「陰謀論を無限に供給する仕組み」が完成する。
一回的なAI偽情報──トランプ、マスク、豪州町長
最近は生成AIを用いた一回的な偽情報も目立っている。
- 2024年の米大統領選では、トランプがTaylor Swiftが自分を支持しているかのようなAI生成画像を投稿した。
- エロン・マスクは、カマラ・ハリスの偽音声を拡散した。
- オーストラリアの地方町長はChatGPTに存在しない犯罪歴を生成され、名誉毀損訴訟を準備した。
論文はこれらを「slopaganda」とは区別する。一回的な偽情報に過ぎないが、大量生成・拡散されればslopagandaに変わる可能性がある、と警告している。
認知科学が示す危険性
こうした事例が効力を持つ理由を論文は認知科学で説明している。
- 人は脅威的な情報に注意を向けやすい(注意経済)。
- ネガティブな情報は記憶に残りやすい(ネガティビティ・バイアス)。
- 自分の信念に沿う情報を受け入れやすい(確認バイアス)。
AIはこれらの弱点を突き、個人に合わせて自動生成する。訂正があっても痕跡は記憶に残り、態度形成を左右する。
提案される対策
論文は対策を三つの方向から検討する。
- 心理的介入:プレバンク(事前警告)、ナッジ(正確性や社会規範を意識させる)、ゲームを使ったリテラシー教育。
- 技術的介入:自動と人間のハイブリッドによるコンテンツモデレーション、SNSで多様な情報源をつなぐ仕組み。
- 政治経済的介入:大手プラットフォームや富裕層の影響力を制限するため、グローバル富裕税のような再分配策。
最後の提案は現実性に乏しいが、問題を社会構造レベルで捉えようとしている点に特徴がある。
まとめ
論文の具体例は、slop、従来型のプロパガンダ、情報洪水戦略、計算機プロパガンダ、そして一回的なAI偽情報と多様だ。つまり「slopagandaそのもの」が既に定着しているわけではない。しかし要素はすでに揃っており、結合すれば現実化する。著者たちが提案する「slopaganda」という言葉は、この危険な組み合わせを可視化するためのラベルだと位置づけられる。
コメント