Googleは、第二次世界大戦のドイツ兵やバイキングを有色人種として描写した後、人物のAI生成画像の制作を一時停止しました。この措置は、ソーシャルメディア上で、ポープやアメリカ建国の父などの歴史上の人物をさまざまな民族や性別で描写した画像が投稿されたことに対する批判を受けたものです。Googleは、Geminiモデルの画像生成機能に関する最近の問題に対処するために作業を進めており、改善版を近日中に再リリースする予定であると声明で述べました。
GoogleのGeminiチームのシニアディレクターであるJack Krawczykは、モデルの画像生成機能に調整が必要であることを認め、歴史的な文脈における描写の改善に取り組んでいると述べました。また、Googleは「歴史的な文脈にはより多くのニュアンスがあり、それに対応するためにさらに調整を行う」と述べています。
AIにおける偏見の報道は、有色人種に対する否定的な影響の例を複数示しています。ワシントンポストの調査では、画像生成ツールが有色人種や女性に対して偏見を示す例が複数見られました。例えば、画像生成ツールStable Diffusion XLは、食品券の受給者を主に非白人または肌の色が濃い人として表示していましたが、実際には米国の食品券の受給者の63%が白人であることが分かっています。
サリー大学の人間中心AI研究所のAndrew Rogoyskiは、深層学習と生成AIのほとんどの分野で偏見を軽減することは難しい問題であり、結果として間違いが発生する可能性があると述べています。研究やトレーニングデータセットのキュレーション、訓練されたモデルのガードレールの導入など、偏見を排除するための多くのアプローチがありますが、AIやLLM(大規模言語モデル)が間違いを犯し続ける可能性がある一方で、時間とともに改善される可能性もあるとしています。
【ニュース解説】
Googleは、その新しい人工知能モデル「Gemini」が第二次世界大戦のドイツ兵やバイキングを有色人種として描写したことに対する批判を受け、人物のAI生成画像の制作を一時停止すると発表しました。この措置は、ソーシャルメディア上で歴史上の人物をさまざまな民族や性別で描写した画像が投稿されたことに対する反応です。Googleは、Geminiモデルの画像生成機能に関する問題に対処し、改善版を近日中に再リリースする予定であると述べています。
この問題は、AIが生成する画像における正確性と偏見に関する広範な議論を引き起こしています。AIによる画像生成は、多様な人々を表現することで、世界中のユーザーに対応することを目指していますが、歴史的な文脈における描写においては、より多くの注意が必要であることが示されました。Googleは、歴史的な文脈にはより多くのニュアンスがあり、それに対応するためにさらに調整を行うと述べています。
AIにおける偏見は、有色人種や女性に対する否定的な影響をもたらすことが示されています。例えば、ある調査では、画像生成ツールが食品券の受給者を主に非白人または肌の色が濃い人として表示していましたが、実際には米国の食品券の受給者の63%が白人であることが分かっています。このような偏見は、AIのトレーニングデータセットのキュレーションや、訓練されたモデルのガードレールの導入など、さまざまなアプローチを通じて排除する試みが行われていますが、完全な解決には至っていません。
このニュースは、AI技術の進歩とともに、その使用における倫理的な問題や偏見の問題に対する注意が高まっていることを示しています。AIが生成する画像やテキストにおける正確性と公平性を確保することは、技術の発展において重要な課題の一つです。また、この問題は、AI技術の開発者や利用者が、その影響を慎重に考慮し、多様性と包括性を尊重することの重要性を再認識する機会を提供しています。将来的には、AI技術のさらなる改善とともに、これらの課題に対するより効果的な対策が講じられることが期待されます。
from Google pauses AI-generated images of people after ethnicity criticism.