/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

GoogleのAI「Gemini」、歴史的人物の人種描写で謝罪

GoogleのAIモデル「Gemini」が歴史上の人物を異なる人種として描写し、批判を受けた問題で、セルゲイ・ブリンが謝罪。不十分なテストが原因と指摘され、AI技術の安全性と社会的影響に関する議論が再燃。AI開発には多様な視点と厳格なテストが必要とされています。【用語解説とAIによる専門的コメントつき】

Published

on

Googleの共同創設者であるセルゲイ・ブリンは、Googleの人工知能モデル「Gemini」の問題発表後、公に「間違いを犯した」と述べました。Geminiの画像生成ツールは、歴史上の人物や第二次世界大戦のドイツ兵士を色々な人種の人々として描写し、ソーシャルメディア上で批判を受けました。GoogleのCEO、スンダー・ピチャイも、Geminiによって生成された一部の回答を「完全に受け入れられない」と表現しました。

この問題の背景には、AIが偏見を避けるように設計されていたにも関わらず、不十分なテストが原因であると指摘されています。Geminiは、テキスト生成の「大規模言語モデル」(LLM)と画像生成システムを組み合わせて動作し、ユーザーの簡潔なリクエストを詳細な画像生成のプロンプトに変換します。しかし、このシステムは、画像における多様性を過剰に表現する結果となりました。

Googleの検索責任者であるプラバカール・ラガヴァンは、Geminiが多様性を示すための調整が、明らかに範囲を示すべきでないケースを考慮していなかったこと、そしてモデルが時間とともに意図したよりも慎重になり、一部のプロンプトに完全に答えを拒否するようになったことが問題だったと述べました。

この問題は、GoogleがOpenAIのChatGPTやDall-Eの成功に対抗してGeminiモデルを急いでリリースした結果、十分に評価やテストが行われなかったことに起因しています。サウサンプトン大学のコンピュータサイエンス教授であり、国連のAI諮問機関のメンバーであるウェンディ・ホールは、Geminiの失敗がAIの安全性に関する議論を即時の懸念事項に焦点を当てる機会を提供すると述べています。

この騒動は、GoogleのCEOであるピチャイの立場が危うくなるという憶測を呼び起こしましたが、投資家はGoogleのAIへの多額の投資が成功することを望んでいます。ウェンディ・ホールは、AI技術がまだ非常に未熟であるため、今後もこのような問題が発生することを予想しています。

【ニュース解説】

Googleの人工知能モデル「Gemini」が、歴史上の人物や第二次世界大戦のドイツ兵士を異なる人種の人々として描写し、社会的な批判を受けた事件について、Googleの共同創設者セルゲイ・ブリンは公に謝罪しました。この問題は、AIが偏見を避けるように設計されていたにも関わらず、不十分なテストが原因で発生しました。この事件は、AI技術の安全性と社会的な影響に関する議論を再燃させました。

AI技術、特に画像やテキストを生成するモデルは、人間のバイアスや社会的な規範を模倣することがあります。このため、AIによる出力が偏見を反映したり、不適切な内容を生成したりするリスクがあります。Geminiのケースでは、AIが多様性を表現するための指示に従い、歴史的な文脈や事実に合わない画像を生成してしまいました。これは、AIが人間の社会的な複雑さを完全に理解することができないことを示しています。

この事件は、AI技術の開発と導入において、十分なテストと評価が不可欠であることを浮き彫りにしました。特に、公共の場で使用されるAIモデルは、社会的な影響を考慮し、多様な視点からの厳格なテストを経るべきです。また、AIの安全性と倫理に関する議論を、将来の技術的なリスクだけでなく、現在直面している社会的な課題にも焦点を当てる必要があります。

このような問題は、AI技術がまだ発展途上であり、人間の社会的な複雑さを完全に理解し、適切に対応することが難しいことを示しています。しかし、これらの課題を乗り越えることで、AIはより公平で包括的な方法で社会に貢献することが可能になります。AI開発者は、技術の社会的な影響を常に考慮し、多様な視点を取り入れることで、より公正で倫理的なAIシステムを構築することが求められています。

最終的に、この事件はAI技術のポテンシャルとリスクの両面を浮き彫りにし、開発者、規制当局、そして社会全体に、AIの倫理的な使用と管理に関する重要な議論を促しています。AIがもたらす利益を最大化し、潜在的な害を最小限に抑えるためには、継続的な研究、開発、そして対話が必要です。

from ‘We definitely messed up’: why did Google AI tool make offensive historical images?.

Trending

モバイルバージョンを終了