Microsoftの人工知能エンジニア、Shane Jones氏は、同社のAI画像生成ツールに基本的な安全対策が欠けているとして、管理部門に何度も警告したが、何の行動も起こされなかったと訴えた。Jones氏は、この問題を連邦取引委員会とMicrosoftの取締役会に報告したと述べている。
Microsoftのスポークスパーソンは、同社が安全問題を無視しているという主張を否定し、生成AIの問題に対処するための「堅牢な内部報告チャネル」を持っていると述べた。
Jones氏の手紙は、テキストプロンプトに基づいて画像を生成するCopilot Designerに焦点を当てており、このツールはOpenAIのDALL-E 3人工知能システムによって動力を供給されている。Copilot Designerは、不適切なコンテンツを生成する「システム的な問題」を抱えており、問題が解決されるまで公開使用から削除されるべきだとJones氏は主張している。
Microsoftは、安全上の懸念に対処するために専門チームを設けており、Jones氏とその責任あるAIのオフィスでの会議を促進したと述べている。
Microsoftは昨年、Copilot「AIコンパニオン」を発表し、それをビジネスや創造的な取り組みに人工知能ツールを組み込む革命的な方法として大々的に宣伝している。同社はCopilotを一般公開用のアクセスしやすい製品として市場に出し、先月のスーパーボウル広告で「誰でも、どこでも、どのデバイスでも」というキャッチフレーズで特集した。
安全上の懸念に対応して、Microsoftは今年1月にCopilot Designerを更新し、ソーシャルメディアで広く拡散されたテイラー・スウィフトの偽の性的画像を生成するAIのコードの抜け穴を閉じた。Jones氏は、最近数ヶ月にわたって提起していた懸念が有効であったことを証明する事例としてこの事件を引用している。
生成AI画像ツールは、有害なコンテンツの生成や特定のグループに対する偏見の強化といった問題に繰り返し直面している。Googleは最近、ポープ、バイキング、ナチス兵士などの歴史上の人物を示すよう求められたときに有色人種の画像を生成したことで公衆の論争を引き起こした後、そのGemini AIツールを一時停止した。
【ニュース解説】
MicrosoftのAI画像生成ツール、Copilot Designerが安全対策の不足により、暴力的または性的な画像を生成する可能性があるとして、同社のエンジニアであるShane Jones氏から警告されていました。Jones氏は、この問題を何度も管理部門に報告したものの、具体的な対応が取られなかったと主張し、この問題を連邦取引委員会とMicrosoftの取締役会に報告しました。
Microsoftは、内部には生成AIの問題に対処するための堅牢な報告システムがあると反論しています。しかし、Jones氏の指摘するCopilot Designerの問題は、AI技術の安全性と倫理性に関する広範な議論を浮き彫りにしています。特に、AIが不適切なコンテンツを生成するリスクや、特定のグループに対する偏見を強化する可能性が懸念されています。
この問題は、AI技術の進歩と普及がもたらすポジティブな側面と同時に、潜在的なリスクや倫理的な課題も指摘しています。AIが生成するコンテンツの安全性を確保するためには、技術的なガードレールの設置だけでなく、その使用に関する倫理的なガイドラインの策定が必要です。また、AI技術の開発者や提供者は、その技術が社会に与える影響を十分に理解し、責任を持って対応する必要があります。
長期的には、AI技術の安全性と倫理性を確保するための国際的な基準や規制の策定が求められるでしょう。また、AI技術の進化に伴い、その影響を監視し、適切に対応するための機構の整備も重要です。このような取り組みを通じて、AI技術の持つポテンシャルを最大限に活用しつつ、そのリスクを最小限に抑えることができるでしょう。
from Microsoft ignored safety problems with AI image generator, engineer complains.