【ダイジェスト】
人工知能(AI)の時代において、政治分野でのディープフェイクやその他の操作が増加しています。カリフォルニア大学バークレー校の電気工学およびコンピュータ科学の教授であり、デジタルフォレンジックの専門家であるハニー・ファリド氏は、ディープフェイクが市民の不安を煽り、選挙に干渉するための情報操作キャンペーンに悪用され続けるだろうと述べています。
ディープフェイクの検出は重要ですが、それらがオンラインで拡散し、バイラルになるのを防ぐことが最終目標です。しかし、ディープフェイクの拡散を防ぐことは非常に困難です。スタンフォード大学のコンピュータ科学教授であり、ブラウン・メディア・イノベーション研究所の所長であるマニーシュ・アグラワラ氏は、これは社会的および政治的な問題であると同時に技術的な問題でもあると指摘しています。
ディープフェイクには娯楽産業での正当な使用法がありますが、デジタル詐欺が増加しています。ジェネレーティブAIツールは安価で使いやすくなっており、性的に露骨な偽画像の生成、高度なフィッシング詐欺、ビジネスへの攻撃など、さまざまな不正な目的に使用されています。
ディープフェイクと戦うことは、モグラたたきのゲームのようなものです。例えば、11ElevenLabsは5ドル以下で候補者の声をクローン化でき、DeepSwapは月額10ドルで偽のビデオを生成できます。問題をさらに悪化させるのは、政治広告の真実性に関する法律が米国に存在せず、偽コンテンツを作成する者に対する罰則がないことです。
ディープフェイクを暴く人々は、増え続けるディープフェイクの流れに追いつくことができないと言います。ファリド氏、アグラワラ氏、および他の研究者は、検出プロセスの一部を自動化できるソフトウェアツールを開発しました。デジタルフォレンジックアルゴリズムは、メタデータの不一致や歪んだピクセルなど、AI操作の兆候を特定します。
しかし、技術だけでは問題を解決することはできません。アグラワラ氏は、ソフトウェアツールが100%効果的であることはなく、すべてのディープフェイクを特定する確実な方法はないと述べています。メディアアウトレットやソーシャルメディアサイトは、予防策を採用することに興味を示しておらず、今日のデジタル現実を反映するように名誉毀損および中傷法を更新するための動きもありません。
【ニュース解説】
人工知能(AI)技術の進化に伴い、政治分野でのディープフェイクやその他の操作が増加している現状があります。ディープフェイクとは、AIを用いて作成された偽のビデオやオーディオのことで、実際には存在しない発言や行動をリアルに再現することができます。この技術は、選挙への干渉や市民の不安を煽る情報操作キャンペーンに悪用される恐れがあります。
ディープフェイクの検出と拡散防止は重要ですが、技術的な対策だけでは不十分であり、社会的および政治的な問題としても対処する必要があります。ディープフェイクの生成ツールは安価で容易に入手可能であり、政治広告の真実性に関する法律がないため、偽コンテンツの作成と拡散が容易になっています。
ディープフェイクの検出には、メタデータの不一致や歪んだピクセルなど、AI操作の兆候を特定するデジタルフォレンジックアルゴリズムが使用されます。しかし、これらの技術も完璧ではなく、ディープフェイクを100%特定することはできません。さらに、メディアアウトレットやソーシャルメディアサイトが予防策を採用することに消極的であるため、ディープフェイクの問題はより複雑なものとなっています。
ディープフェイクに対抗するためには、技術的な検出と認証だけでなく、人々の教育やコンテンツ制作者および配布者に対する責任の追及も重要です。また、自由な表現を保護しつつ、デジタル現実を反映する法律の更新も必要とされます。ディープフェイクの問題は、単一の技術や法律で解決できるものではなく、社会全体で取り組むべき課題です。
このように、ディープフェイクは政治分野において重大な問題を引き起こす可能性があり、その対策には技術的なアプローチだけでなく、法的・社会的な取り組みが求められます。ディープフェイクによる情報操作のリスクを最小限に抑えるためには、多角的なアプローチが必要であり、今後もこの問題に対する議論と対策の進展が注目されます。
from The Campaign Against Deepfakes.