英国Alan Turing Institute内のCentre for Emerging Technology and Security(CETaS)が2026年2月に発表した研究報告「Adding Fuel to the Fire: AI Information Threats and Crisis Events」は、テロ攻撃・暴動・国際紛争などの危機事象においてAI技術が情報脅威をどのように悪化させるかを体系的に分析した。Sam Stockwell、Ardi Janjeva、Broderick McDonaldの3名が執筆し、政府7名・産業界6名・市民社会12名の計25名の専門家インタビューと、英国政府の危機対応を模したテーブルトップ演習を実施した。研究は2024年7月から2026年1月までの15件以上の危機事象を検証し、AI情報脅威を「コンテンツ生成」「拡散」「ユーザーエンゲージメント」の3段階に分類した分類体系を提示している。
研究の直接的契機は2024年7月の英国サウスポート事件だった。3名の児童殺害事件の後、容疑者がイスラム系移民だとする虚偽情報がソーシャルメディアで拡散し、全国規模の暴動に発展した。AI生成の外国人排斥的音楽・画像が拡散され、宗教施設への攻撃、警察官負傷、少数派住民の恐怖をもたらした。報告書はこの事象を起点に、5つの研究問いを設定した。(1)AI情報脅威が暴力扇動と民主的不安定化に果たす役割、(2)敵対的AI利用と民主的表現の自由との相互作用、(3)AI技術と他技術の相乗効果、(4)AI技術による対抗措置の有効性、(5)社会的レジリエンス強化に必要な制度的変革である。
研究方法は3層構造を取る。文献レビューは2024-2026年初頭の危機事象を対象とし、25名の専門家インタビューは政府・産業・市民社会の横断的視点を確保し、20名が参加したテーブルトップ演習は英国政府が大規模安全保障事案においてAI情報脅威にどう対応するかをシミュレートした。研究の限界として、AIサイバー攻撃・エージェントAIミスアライメント・生物学的脅威は対象外とし、危機対応は高度に予測不可能であるため提言は最悪ケースシナリオを想定したものと明記している。
AI情報脅威の3段階分類体系
報告書はAI情報脅威を情報ライフサイクルの3段階に分類した。第一段階「生成」は、危機事象の現場からの証拠を捏造し現実を歪め暴力を促進するためにAI技術が有害コンテンツを作成する段階である。第二段階「拡散」は、危機後に虚偽ナラティブを蒔き公共言説を形成するためにAI技術がコンテンツをキュレート・増幅する段階である。第三段階「エンゲージメント」は、AI技術が誤解を招く情報の説得力と共鳴を高め、危機後に特定のイデオロギー的動機に向けてオフライン行動を形成する段階である。
生成段階の脅威は「欺瞞的・扇動的AI生成コンテンツ」の単一カテゴリー、拡散段階は「ソーシャルボットネットワーク」「AI駆動ニュース集約サイト」の2カテゴリー、エンゲージメント段階は「AIチャットボット」「AIデータポイズニング攻撃」の2カテゴリーに細分化される。報告書は2024年7月以降の15件以上の事象でこれら5つの脅威タイプを確認した。事象には英国サウスポート暴動、イスラエル-イラン紛争、インド-パキスタン紛争、米国ロサンゼルス・ポートランド抗議活動、ベネズエラへの米軍介入、オーストラリアのボンダイビーチテロ攻撃、Charlie Kirk暗殺事件が含まれる。
分類体系の特徴は、従来の偽情報研究が主に選挙文脈を対象としていたのに対し、危機事象という高度に不確実で感情的な状況に焦点を当てた点にある。危機事象は事実確定に時間を要し、オンライン推測が公衆の認識を急速に形成する。一部のケースでは、同一アイデンティティを共有する集団がオンライン上のヘイト・ハラスメント・虐待を、事象の加害者と関連があると認識される他者に向ける。別のケースでは、オンライン・オフライン環境の結節点が扇動的デジタルコンテンツを通じて架橋され、ユーザーが責任があると見なされる者に対する現実世界の暴力行為を呼びかける。
コンテンツ生成脅威の実例と影響
AI技術を利用した有害・誤解を招くコンテンツ生成は、調査した危機事象で最も一般的なAI利用形態だった。合成コンテンツは3つの動機カテゴリーに分類される。第一に、事象現場からのものと偽って誰が関与し何が起き何故起きたかについて虚偽ナラティブや推測を拡散する合成コンテンツ、第二に事象に関連する特定人口集団に対する現実世界の暴力を促進する合成コンテンツ、第三に法執行官の追加配備など特定の政治的動機を進めるために情報を偽造する合成コンテンツである。
サウスポート事件では、最初の24時間でAI生成の外国人排斥的音楽、イスラム系男性を英国女性への脅威として描く風刺画、暴力を扇動する武器の視覚表現が拡散された。元兵士がFacebookに反イスラムAI生成投稿を行ったとして2024年11月に収監された。2025年6月のイスラエル-イラン紛争では、AI生成画像が両国の軍事力を誇張し公共ナラティブを形成しようとした。これにはイスラエル都市に落下するイランミサイルの偽画像、先進的イスラエル航空機を破壊する偽画像、イスラエル軍によるイランのエヴィン刑務所爆破のAI編集動画が含まれた。後者は実際の攻撃が重大な付随的損害をもたらし民間人死亡につながったにもかかわらずクリーンな精密攻撃を描写しており、人権侵害の信頼できる主張から注意をそらすか信用を損なうよう設計された可能性がある。イランの最高指導者とイスラエル外相の両方が誤解を招くAI生成・編集画像を投稿した。
2025年9月のCharlie Kirk暗殺事件では、生成AIハルシネーションが意図しない結果をもたらした。FBI捜査における「関心人物」を示す不鮮明画像がAIアップスケーリングツールで「高品質」版に変換されたが、多くのケースでツールは誤った推論を行い、容疑者の顔の構造やシャツなど重要詳細を変更する未確認詳細を追加した。容疑者に関する誤解を招く詳細は法執行作業を複雑にし、AIが作り出した類似性に基づき公衆が誤認した無関係個人の標的化につながる可能性がある。
報告書はバイラルAI生成コンテンツの影響を4つのテーマで分析した。第一に、高レベルユーザーエンゲージメントは公衆を欺き事象についての公式ナラティブを歪曲するリスクがある。サウスポート事象では、暴力的ナラティブを含む外国人排斥的生成AI素材を共有するアカウントが伝統的写真や動画を含むものより不釣り合いに高い閲覧数を受け取った。ポートランドでの州兵「攻撃」のAI生成クリップは4,000万回以上の閲覧に達した。イスラエル-イラン紛争では、2つのAI生成動画が1週間でイランに関する最も視聴されたTikTokトップ15に入り、別の3つが複数プラットフォームで合計1億回以上の閲覧を集積した。
第二に、感情を揺さぶる扇動的素材は恐怖や怒りを利用し現実世界の危害に急速に転換できる。2023年のSadiq Khan市長のディープフェイク音声クリップ拡散後、極右集団がオフライン行動を正当化し、120件以上の逮捕と9名の警察官負傷につながった。イスラエル-イラン紛争では、現実的だが偽の動画が特定都市でミサイル攻撃が起きていると示唆し、空爆の最中に安全地帯に関する情報にアクセスしようとするパニック状態の民間人にとってより大きな不確実性を加えた。Grokチャットボットがこれら動画の一部を本物と主張したことで、どの地域が実際に攻撃されているかについての水が濁った。
第三に、誤解を招く合成メディアは法執行およびより広範な危機対応努力を複雑にする。Charlie Kirk銃撃後、FBIの元マグショット写真を「強化」するためAIアップスケーリングツールを使用した自警団ユーザーは、個人の外見について混乱を拡散し、無関係の人物が暴力的に標的にされるか実際の容疑者から注意が逸らされるリスクを増大させた。AI生成コンテンツは他の形態の偽情報よりも反駁や分析が難しいことが多いため、展開中の危機への制度的対応を遅らせ、脅威アクターに重要な優位性を提供するリスクがある。
第四に、AI生成偽情報は最近の危機事象から「証拠」を偽造し政治的議題を強化し特定のオフライン行動を正当化するのを助けた。トランプ大統領支持者はAIツールを使用して、大統領がポートランドで大規模暴動と暴力に対処するため連邦軍を配備する「選択肢がなかった」という主張を強化しようとした。米兵士に嫌がらせをする偽抗議者の合成クリップは、政府が武装対応を開始し平和的抗議者に対する暴力を正当化する閾値を下げるリスクがある歪曲された現実を作り出した。
コンテンツ拡散脅威のメカニズム
AI技術によるコンテンツ生成を超えて、オンライン情報エコシステムへのAI技術の浸透は、コンテンツがユーザーにどのように拡散されるかに影響を与える。ソーシャルボットは人間の行動を模倣し疑いを持たないユーザーと相互作用しながら素材を共有し態度を形成しようとする自動化アカウントの使用を含む。CETaSの以前の研究は、これらボットアカウントのネットワークが2024年の様々な選挙キャンペーンで敵対的外国国家によって利用され、有権者を特定の望ましい政治候補者や政策立場に「ナッジ」したことを示した。それ以来、これら作戦は選挙サイクルだけでなく大規模危機事象後にも観察されている。
サウスポート事件とリバプールFCパレード事件の後、疑わしいボットネットワークが両シナリオで明白な容疑者について根拠のない噂と有害なナラティブを増幅していることが確認された。サウスポート文脈内の特定のボットアカウントは、コンテンツを拡散したタイミングのためロシア資金提供グループにリンクしている可能性があると英国対テロ警察が主張した。リバプールパレード容疑者が移民または庇護希望者だと主張する推測の40%は、エンゲージメントを活用して収益を得ることに関心があるように見える不正アカウントから来た。別の懸念すべき発展として、「DOGEai」のようなエージェントボットはCharlie Kirk銃撃後に陰謀論と扇動的発言を拡散していた。
危機事象の揮発性と急速に展開する性質は、事実がまだ確立されておらず誤情報が流通している間、ユーザーが何が起きているかを理解しようとするため、これらを特に高リスクな文脈にする。生成AIツールが現在ボットアカウント機能のカスタマイズを可能にしより真正に見せること、およびエージェントAIの台頭を考えると、ボット検出ツールへのより大きな研究と投資が重要になる。
AIシステムの増殖がシステミックリスクを提起するもう1つの領域はニュースコンテンツの生産と拡散である。増加する割合の人々が現在ソーシャルメディアチャネルを通じてニュースを受け取るため、特定のターゲット聴衆に信頼できる声として現れることができるアクターの数が増加している。サウスポート事件の余波は例証的ケースである。ソーシャルメディア上の様々な政治的インフルエンサーによって急速に流通した容疑者の虚偽名は、元々「Channel3Now」というウェブサイトによって公開されたように見える。このサイトは、受動的収入を求めるユーザーのためにAIを使用してコンテンツを生成するとマーケティングするインターネットサービスプロバイダーを使用して設立された。サイトが公開した記事の一部も、より信頼できるように見せるためにAIを使用して再パッケージ化された。
この証拠は、最小限の人間編集監視を伴うAI生成偽情報が、デジタル広告ネットワークを通じて収益化され、サウスポート事件後の公共言説に分裂的虚偽を注入する役割を果たしたことを示唆する。センセーショナリズムとバイラリティのために最適化され事実の正確性ではなくトレンドトピックに基づいてコンテンツを生成するAIツールは、必要な努力に比して過大な影響を持つ可能性がある。NewsGuardの進行中のAI生成ニュースウェブサイト追跡プロジェクトは、2,089のそのようなサイトを16言語にまたがり、ほとんどまたは全く人間監視なしで運営されていることを確認した。これらウェブサイトは、政治指導者に関する虚偽主張、決して起きなかった捏造事象、歴史的事象をちょうど起きたかのように再構成することを含む記事を生産している。Charlie Kirk銃撃の余波、TikTokアカウントは急増する検索関心と金銭的機会を利用することを期待して事象に関する大量の合成コンテンツを大量生産し始めた。
ユーザーエンゲージメント段階の脅威
著名なソーシャルメディアプラットフォームへのAIチャットボットの統合は、ユーザーが危機事象後の第一の手段としてこれらシステムと関与する増加傾向をもたらした。世界最大のソーシャルメディアプラットフォームは現在自身の権利においてもAIモデル開発者である。これはMetaのAIツールのソーシャルメディアおよびメッセージングアプリケーションへの統合、およびGrokのXとTelegramへの統合によって証明されている。一部のケースでは、この発展は、明示的政治的議題を持つ不正アカウントと比較して、人々がライブ事象に関する情報を受け取る好ましい手段と見なされる可能性がある。他のケースでは、そのようなツールは、進行状況についての不正確さでユーザープロンプトに応答したり、偽情報活動で顕著なトーキングポイントを複製したりする傾向がある可能性がある。
報告書は異なる危機事象中に特定のチャットボットサービスが事実について混乱を蒔き、その時点で流通している虚偽情報と陰謀論を意図せず拡散した複数の事例を提示している。インド-パキスタン紛争では、Grokがスーダンのハルツーム空港からの古い映像をパキスタン空軍基地へのインドミサイル攻撃と誤認し、ネパールで火災中の建物の無関係映像をパキスタンの軍事対応を示す「可能性が高い」と誤認した。イスラエル-イラン紛争では、GrokとPerplexity AIが山腹複合施設から出現する弾道ミサイルを運ぶイラントラックの無限の流れを示すAI生成動画を本物と主張し、中国がイランに軍事貨物機を送ったという虚偽主張が実際に真実であると示唆した。Charlie Kirk暗殺では、Grokが銃撃が外国アクターまたは米国民主党政治家によって計画されたという陰謀論を強化し、個人を容疑者として誤って帰属した。
これらケースの主要なシステミックリスクは、ユーザーとのワンオンワンクエリでのチャットボットによる虚偽主張がほとんど追跡不可能であることだ。フラグを立てることができるソーシャルメディア投稿も、適用できるコミュニティノーティスも、分析するエンゲージメント指標もない。これは、ユーザーのこれらツールとの相互作用の性質が、公共プラットフォーム上で流通する他の形態の偽情報と比較して不透明であることを意味し、むしろプライベートメッセージングアプリケーションを通じて拡散する偽情報により類似している。プライベートメッセージングネットワークは外国と国内の脅威アクター間の「情報ロンダリング」ポイントとしても機能でき、サウスポート暴動中にTelegramのようなプラットフォームが有害な偽情報を流通するために悪用された証拠がある。
商業AIモデルの多くがオンラインで自由に利用可能なコンテンツで訓練されているため、ユーザーはウェブページ上に標的化されたテキストを公開することでこの訓練プロセスの一部として使用される情報源を汚染することを意図したデータを作成することが可能である。最近の研究は、特定の条件下で、モデルサイズやトレーニングデータに関係なく、わずか250の悪意ある文書でこの目的を達成するのに十分であることを示した。これらいわゆる「データポイズニング」攻撃は、悪意あるサイバー侵入やデータ侵害に関連して観察されてきたが、脅威アクターが国際安全保障事象の文脈で偽情報作戦において同じ技術を実験している証拠が現在出現している。
クレムリンとリンクがある著名な情報ロンダリングネットワーク「Pravda」は、歴史的に親ロシア偽ニュース記事の大量でオンラインニュースフィードを汚染することに焦点を当ててきた。しかし、ネットワークはAIモデルをどのように操作できるかを探求している。最近の作戦は、多くのケースで極めて低品質または使用不可能な一意のURLを含むロシアプロパガンダを含む大量のウェブページをアップロードした。この活動の主な目的は、LLMを構築するために使用される検索エンジンクローラーを引き付けるのに十分大きなデータセットを生成し、それによって親クレムリンナラティブに向けてトレーニングデータを歪めることだった可能性が高い。
PravdaネットワークがAIチャットボットのトレーニングデータセットを標的としているため、これはユーザーがニッチなトピックやデータボイドがある可能性があるリアルタイム事象についてこれらツールと関与している場合、検索フィルタリングプロセスにノックオン効果を持っている。現在の商業AIモデルがPravdaのような外国偽情報ネットワークの存在を「認識」しているにもかかわらず、一部はまだこれらグループからのプロパガンダを出力で引用することを避けるのに苦労している。ウクライナのスーミー市でのミサイル攻撃について同国のロシアとの進行中の紛争中にプロンプトされた場合、ChatGPT-4oはその応答の一部として誤解を招くPravda記事を引用した。別の10の主要チャットボットサービスがPravdaネットワークを通じてロンダリングされた15の他の虚偽ナラティブを別々のテストで33%の時間再生産した。
AI技術による偽情報対策の可能性
危機事象中のAIツール悪用から多様な危害が出現する一方、この文脈で偽情報に対抗するためにAIを使用する機会も存在する。自然言語処理のようなAIベース手法は、複数言語を含め、バイラルになる前に有害素材を検出し除去する約束を保持する。これは、プラットフォームがリアルタイムでレビューしなければならないコンテンツの膨大な量のためだけでなく、既存のモデレーションアプローチが非英語投稿の評価にしばしば苦労するためにも重要になる。2023年のパーネルスクエア刺傷後のアイルランドでの暴力扇動者は、ゲール語で投稿することでコンテンツモデレーションプロセスを回避し扇動的コンテンツを共有することができた。物体検出モデルは、画像をセクションに分割しどのオブジェクトが存在しどこにあるかを予測することで、過激主義シンボルと画像をリアルタイムで発見するのに役立つ可能性がある。
AIツールはまた、有害なナラティブを増幅しようとする不正ボットアカウントを暴露し、特定地域内での偽情報の地理空間的拡散をマッピングする上でネットワークレベルで効果的であることが証明されている。ボットアカウントは通常同様の方法で設定されるため、AI分類モデルを使用して事前訓練済みフィルタリング、歴史的ボットデータに含まれる言語的およびエンゲージメントパターンを通じたボット様行動の識別、異なるアカウント間の関係分析、シンボル・ハッシュタグ・その他の視覚的指標を通じたバイラルコンテンツの感情的手がかり評価を実施することに約束がある。
Social Media Analytics and Reporting Tool(SMART)は状況認識、事象監視、公衆感情分析のためにソーシャルメディア分析データを利用する。サウスポート暴動後、SMARTは事象に関連する虚偽情報がソーシャルメディア上でどれだけ迅速に拡散したか、および誤解を招くナラティブの局所的効果を観察するためにそれが地理空間的にどこに集中していたかを明らかにすることができた。将来の事象中、これらツールは有害コンテンツが拡散されている集中地理的「ホットスポット」に関する洞察を活用して、標的化された戦略的コミュニケーションキャンペーンをどこに展開すべきかを識別するのに役立つ可能性がある。
ユーザーが検索回答とニュース要約を提供するためにますますAIに頼るにつれて、危機事象中のファクトチェックに関しては新しいアプローチが必要である。2025年6月のイスラエル-イラン紛争は、両方の能力を示した最近の1つの事象だった。一方では、X上のGrokのような著名なチャットボットサービスは、AI生成コンテンツを認証したり特定のアカウントが公式政府情報源に属しているかを判断したりするのに苦労した。しかし他方では、X上のCommunity Notesの使用は紛争中のGrokの応答の精度を向上させることが発見された。これには、Grokが欺瞞的AI生成動画を反駁するために検証されたアウトレットからの証拠を使用した67の機会が含まれた。
特定の危機事象外では、会話型AIモデルはユーザーが政治的トピックについてクエリした際真の情報への信念を増加させるのに役立つことが発見されている。これには陰謀論が含まれ、「DebunkBot」のような特注AIインターフェースが異なる陰謀論に関する膨大な量の知識を処理し生成し説得力のある調整された反論でそれらに対抗するよう設計されている。少なくとも1つの陰謀論への信念を表明した2,000名の参加者でテストされた場合、チャットボットとの会話はそのような理論への彼らの信頼を20%削減し、一部の削減は最大2ヶ月持続した。
政府・産業界への政策提言
報告書は2026年を通じて緊急に実施すべき8つの提言を行っている。政府・規制当局向けに4つ、産業界向けに4つである。
政府・規制当局向け提言
第一に、Cabinet Office、DSIT、AI Security Institute(AISI)は、AI情報脅威を含む大規模危機事象のための明確な危機対応プロトコルを開発すべきである。これには深刻度閾値を決定するための監視指標の開発、およびこれら脅威に迅速に対処するためにAI企業とデータを通信し交換するプロセスが含まれる。報告書は3段階の重大度フレームワークを提示する。「中程度」は散発的にAIツールが危機事象について不正確な応答を返すケース、「高度」は事象について証拠を捏造する欺瞞的AI生成コンテンツまたは暴力的ナラティブを増幅するボットネットワーク、「重大」は脅威アクターによってAIツールが侵害されユーザーに暴力に従事するよう奨励している状況である。組織別役割では、DSIT National Security Online Information Team(NSOIT)が深刻度閾値を決定するための監視指標を定義しNational Situation Centreとデータを共有し、Cabinet Office National Security Secretariat(NSS)とCOBRが危機時のAI企業関与のためのトリガーポイントを定義し、AISIがAI企業の主要人員を識別し脅威インテリジェンス共有チャネルを確立する。
第二に、Government Communication Serviceは「RESIST 2: Counter-disinformation toolkit」を更新し新しいAI情報脅威とそれらに対抗する戦略を組み込むべきである。そのような洞察はこの報告書の異なるセクションから引き出すことができ、危機シナリオ中にこれら脅威から公衆を保護しようとする組織が最新のトレンドと有望な介入を認識することを確保する。
第三に、Digital Inclusion Action Planの一部として、DSITは中等学校、大学、ソーシャルメディアプラットフォームを通じて、危機事象中を含むファクトチェック目的でのAIチャットボット使用のナビゲートに関するガイダンスを配布すべきである。ガイダンスは、この文脈内でのチャットボットの利益と限界、危機期間中のユーザーの偽情報への感受性の高まりの可能性、およびユーザーがAI生成虚偽を信じるリスクを減少させるためのデジタル衛生習慣を詳述すべきである。
第四に、Ofcomは2026年夏のOnline Safety Actに関する詐欺的広告に関する今後の協議が、偽情報の収益化された拡散のためのAI駆動ニュース集約サイトとAI生成広告の悪用に取り組むための考慮事項を含むことを確保すべきである。協議は、異なる脅威アクターが特に危機シナリオ中にそのような目的でAIツールをどのように活用してきたか、およびこれら活動の背後にある財政的インセンティブを断ち切るために実装できる措置についての証拠基盤を集めることを求めるべきである。
産業界向け提言
第五に、フロンティアAIシステムの安全で責任ある開発に焦点を当てるFrontier Model Forum(FMF)は、既存の「情報共有」合意を拡大し危機シナリオのための新しい脅威報告メカニズムを含めるべきである。Global Internet Forum to Counter Terrorismの「Content Incident Protocol」に類似して、このメカニズムは進行中の事象中に活性化され、AI悪用または付随的リスクに取り組むよう設計されたデジタルハッシュや行動シグナルなどの業界横断措置を促進する。効果的介入の要約は、他者が解決策の実装を支援できることを確保するため、FMF外の信頼できる業界パートナーとも共有されるべきである。
第六に、英国でサービスを提供するAI企業とソーシャルメディアプラットフォームは、内部危機対応プロトコル内で専用「指令センター」の創設を正式化すべきである。これらは、ライブ危機事象中の関連政府チームとの情報共有と調整のための集中ハブとして機能する。
第七に、Online Safety ActのCategory 1に該当するソーシャルメディアプラットフォームは、暴力につながる可能性がある欺瞞的コンテンツを脱増幅またはダウンランキングするための新しいポリシーを含めるためにTerms of Serviceを更新すべきである。これは、TikTokがコミュニティガイドラインに導入した最近の変更に基づくことができ、危機に関する未確認情報がユーザーのフィードに促進されるのを防ぎ、ユーザーがそのようなコンテンツを他者と共有する前に警告プロンプトを統合する。
第八に、チャットボットサービスを持つAI企業は、ライブ危機事象中のファクトチェック限界に関するユーザーへのより目立ち具体的な注意通知を含めるため会話ユーザーインターフェース(CUI)を変更すべきである。これら通知は、チャットボットがライブ危機についてクエリされ、それに関連するキーワードに結び付けられた場合のポップアップアラートメッセージの形を取ることができ、事象がリアルタイムで展開している間は出力を事実として解釈すべきでないことをユーザーにフラグする。
報告書は研究の限界を明示している。AIサイバー攻撃およびエージェントAIミスアライメントまたは生物学的脅威を含む事象は、AI情報脅威が存在する危機への主要焦点のため対象外とされた。テーブルトップ演習は英国政府がAI情報脅威によって駆動される安全保障事象にどう対応するかを反映するよう設計されたが、危機シナリオは高度に予測不可能であり、政府の危機対応はケースバイケースで大きく変化する。今後の研究が探求すべきギャップには、テロリストが攻撃計画の支援にチャットボットをどのように使用しているか、ライブ危機事象中の反駁努力でチャットボットが果たし得る役割、偽情報キャンペーンと危機事象の文脈でAIデータポイズニング攻撃の脅威にどう取り組むか、が含まれる。報告書は、AI技術が最近の事象中に暴力を促進し混乱を蒔くために武器化された様々な方法にもかかわらず、将来の危機でこれら同じ危害を緩和するのを助ける上でそれらが提供できる機会を無視できないと結論づける。

コメント