AI(人工知能)ニュース

Google、歴史的画像生成での人種表現ミスを謝罪

GoogleのGemini AIが、歴史的人物の画像生成で人種的多様性を誤って表現し謝罪。アメリカ建国の父やナチス時代のドイツ兵士を非白人として描写したことが批判されました。この問題はAIの人種・性別偏見是正試みから生じ、Googleは改善に取り組むと発表。AI技術の倫理的課題と歴史的正確性の重要性が浮き彫りに。【用語解説とAIによる専門的コメントつき】

Published

on

Googleは、そのGemini AIツールが歴史的な画像生成で不正確な表現を行ったとして謝罪しました。具体的には、アメリカ建国の父やナチス時代のドイツ兵士など、特定の白人の人物や集団を色の異なる人々として描写したことが批判の対象となりました。この問題は、AIが長年にわたり人種や性別の偏見を増幅させる傾向がある中で、Googleがこれを是正しようとした結果、生じたものと見られています。

Googleは、Geminiが広範囲の人々を生成することは一般的に良いことだが、この場合には目標を逸脱していると述べ、直ちにこれらの表現の改善に取り組んでいると発表しました。この謝罪は、ソーシャルメディア上でGeminiが歴史的に正確な結果を生み出せていないという疑問が提起された後に行われました。

批判は、主に右派の人物によって促進され、技術企業がリベラルであると見なされる中で、Googleが白人を描写することを避ける陰謀の一部としてGoogleの結果を位置づけるものでした。一部のアカウントは、歴史的な集団や人物の画像を要求し、主に非白人のAI生成人物としての結果を得たと主張しました。

Googleは、誤りと感じた特定の画像には言及していませんが、Geminiが多様性を促進しようとした全体的な試みがあると考えられます。画像生成器は、与えられたプロンプトに対して「最適」なフィットを生産するために、大量の画像と書かれたキャプションで訓練されており、しばしばステレオタイプを増幅する傾向があります。

現在、Geminiは一部の画像生成タスクを単に拒否しているようです。しかし、一部の歴史的なリクエストは依然として過去を事実と異なるものとして表現しています。

【ニュース解説】

GoogleのGemini AIツールが、歴史的な人物や集団の画像生成において、人種的な多様性を意図的に反映させようとした結果、歴史的な事実と異なる表現をしてしまい、謝罪に至ったというニュースです。具体的には、アメリカ建国の父やナチス時代のドイツ兵士など、実際には白人であった人物や集団を、色の異なる人々として描写してしまったことが批判の対象となりました。この問題は、AIが人種や性別の偏見を増幅させる傾向に対する過剰な是正の試みから生じたと見られています。

この問題の背景には、AI技術が長年にわたり人種や性別のステレオタイプを増幅させる傾向にあるという事実があります。AIの画像生成器は、大量の画像とテキストデータを基に学習を行い、与えられたプロンプトに対して最も適切な画像を生成することを目指しています。しかし、この学習データに偏りがある場合、AIは偏った結果を出力することがあります。GoogleのGeminiは、このような偏りを是正し、より多様性を反映させることを目指していましたが、歴史的な正確さを欠く結果を生み出してしまいました。

この問題は、AI技術の倫理的な側面と、歴史的な事実の正確な表現の重要性を浮き彫りにしています。AIが生成する画像や情報が、社会や文化に与える影響は大きく、特に歴史的な内容に関しては、正確性が求められます。また、人種や性別の多様性を反映させることは重要ですが、それが歴史的な事実を歪める結果につながる場合、そのアプローチを再考する必要があります。

このニュースは、AI技術の発展とともに、その使用における倫理的な課題や、社会的な影響を考慮する必要性を示しています。AIによる画像生成の精度を向上させる技術的な進歩と同時に、その結果が持つ意味や影響についても、慎重な検討が求められるでしょう。また、このような問題は、AI技術の規制やガイドラインの策定においても重要な考慮事項となります。AIの発展は、技術的な側面だけでなく、社会的、倫理的な側面も含めた多角的な視点からのアプローチが必要であることを、改めて示しています。

from Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis.

Trending

モバイルバージョンを終了