生成AIが引き起こす危機: 気候変動と偽情報の新たな課題

生成AIが引き起こす危機: 気候変動と偽情報の新たな課題 情報操作

 生成AI(Generative AI)は、私たちの生活や産業に革新をもたらしています。しかし、その成長には多大なコストが伴い、気候変動対策の遅延や偽情報の拡散といった課題を引き起こしています。さらに、大手テクノロジー企業(ビッグテック)の行動がこれらの問題を悪化させている可能性も指摘されています。本記事では、2024年12月5日のCAADのレポート「Generating A(I) Crisis」を紹介します。

 関連記事: 偽情報が気候変動対応を妨げる現状:テック企業とその責任


生成AIとビッグテックの影響

 CAADレポートでは、生成AIの発展とビッグテックの行動がいかに気候変動や社会問題に影響を与えているかが指摘されています。

  1. 電力消費の急増
    • Google、Microsoft、Amazonなどのビッグテックは、生成AIの運用のために大量の電力を消費しています。
    • 「再生可能エネルギー100%」と謳いながらも、実態はグリーンウォッシングである場合が多いことが批判されています。
  2. 気候目標の後退
    • 一部の企業がAI拡大を優先し、気候変動目標を後回しにしている状況が報告されています。

 このような状況は、生成AIの急速な普及がもたらす社会的課題を象徴しています。


生成AIと偽情報の課題

 レポートの中には、生成AIが偽情報の生成と拡散をどのように助長しているかについての記述があります。

  1. 精巧な偽情報の生成
    • 生成AIは、特定のターゲット層に合わせた精巧な偽情報を作成する能力を持っています。
    • 事例: 事例: オーストラリアの反風力発電グループが、偽の学術論文を生成AIで作成し、Facebookで拡散(Whale of a tale proves to be fake news)。
  2. 気候変動ナラティブの操作
    • 生成AIは、再生可能エネルギーに関する誤情報を増幅させ、政策や世論形成に悪影響を与える可能性があります。
    • 例: ニュージャージー州で「風力発電がクジラの死因」という偽情報が拡散。
風力発電がクジラの死因
  1. 感情を煽るビジュアルコンテンツ
    • AI生成画像や映像は、視覚的に人々の感情を刺激し、理性的判断を妨げます。
    • 影響: 偽情報の影響力を増幅させ、社会的混乱を引き起こします。

対策: 偽情報を防ぐために必要なこと

 CAADは、生成AIが引き起こす偽情報のリスクに対処するために以下の対策を提案しています。

  1. 透明性の向上
    • 生成AIモデルのトレーニングデータやアルゴリズムの公開。
    • データセンターのエネルギー消費量や排出量の明確な報告。
  2. 規制の整備
    • 偽情報を作成・拡散する技術の悪用を防ぐ法的枠組みの構築。
  3. 教育の普及
    • 市民が偽情報を見分けるスキルを身につけるための教育プログラムの提供。

コメント

タイトルとURLをコピーしました