【ダイジェスト】
メタ(Meta)はAI生成画像にラベルを追加すると発表しました。また、ビッグテック企業がC2PAという技術基準に参加し、画像や動画、音声に「栄養表示」を追加することになりました。OpenAIは、ChatGPTとDALL-E 3で生成された画像にウォーターマークを追加することも発表しています。これらの取り組みは有望ですが、完全な防止策ではありません。
テクノロジー企業による自主的な対策の重要性が強調されており、EUではAI法案やデジタルサービス法などの規制が存在します。米国では、議員によるディープフェイクに関する規制の検討が行われています。テクノロジー企業はAI生成コンテンツのラベリングと有害コンテンツの迅速な削除が求められています。
GoogleのGeminiが大々的に展開され、AIチャットボットがメンタルヘルスサービスの利用を増加させています。OK-Robotというシステムが新たなロボットトレーニング手法として注目され、OpenAIはAIの人間価値への適合性に取り組んでいます。OpenAIのSam AltmanはAIチップの開発に資金を調達する計画を発表しました。また、AIを利用した女性の服装修正アプリに対する批判があります。
2024年のAIのトレンドについての予測が行われており、AI生成コンテンツの未来とその影響について議論されています。MIT Technology Reviewは技術革新に関連する広告の機会と連携しています。
ニュース解説
近年、AI技術の進化により、リアルな画像や動画、音声などの生成が可能になりました。これにより、エンターテイメントやクリエイティブな分野での活用が期待される一方で、偽情報の拡散やプライバシーの侵害など、様々な問題が生じています。特に、有名人の顔を無断で使用したディープフェイクポルノや、政治的な目的で作成された偽の動画や音声が社会問題となっています。
このような背景の中、Meta(旧Facebook)やGoogle、Microsoft、Adobeなどの大手テクノロジー企業が、AIによって生成されたコンテンツを識別するための新しい取り組みを発表しました。これらの企業は、画像や動画、音声に「栄養表示ラベル」のようなものを追加することで、コンテンツの出所や生成者に関する情報を提供するC2PA(Coalition for Content Provenance and Authenticity)という技術基準に取り組んでいます。
C2PAは、コンテンツの「出所」に関する情報を暗号化技術を用いてエンコードするオープンソースのインターネットプロトコルです。これにより、AIによって生成された画像や動画などに、目に見えるラベルや目に見えないウォーターマーク、メタデータを追加することが可能になります。例えば、Googleは新しいGeminiツールで生成されたAI画像に「SynthID」と呼ばれるウォーターマークを含めることを発表しました。これは、人間の目では識別できないが、コンピュータプログラムによって検出可能な微細なピクセルの変更を行うものです。
しかし、これらの技術は完全な解決策ではありません。メタデータに含まれるウォーターマークは、画像をスクリーンショットすることで簡単に回避でき、視覚的なラベルも切り取りや編集によって除去可能です。また、AIによって生成されたビデオやオーディオ、テキストのラベリングと検出にはまだ信頼性のある方法が存在しません。
それでも、これらの「出所情報ツール」を作成することには価値があります。技術的な対策だけでなく、非技術的な対策も含め、ディープフェイクなどの有害なコンテンツの作成と共有をできるだけ遅らせるための障壁を設けることが重要です。また、EUのAI法案やデジタルサービス法など、AI生成コンテンツを開示し、有害コンテンツを迅速に削除することを要求する法律が制定されるなど、規制の動きも進んでいます。
このような取り組みは、AI技術の責任ある使用と社会へのポジティブな影響を促進するために重要です。AIによって生成されたコンテンツの透明性を高めることで、偽情報の拡散を防ぎ、消費者の信頼を確保することができます。また、技術企業が自主的に行動することで、より迅速に問題に対処できる可能性がありますが、長期的な視点では、国際的な規制や標準化の取り組みがさらに重要になるでしょう。
from Why Big Tech’s watermarking plans are some welcome good news.