人工知能(AI)ツールが進化するにつれて、専門家によると、より隠れた形で人種差別的になっているという新しい報告が明らかになりました。技術と言語学の研究者チームは、OpenAIのChatGPTやGoogleのGeminiなどの大規模言語モデルが、アフリカ系アメリカ人が使用する英語の方言であるアフリカ系アメリカ人英語(AAVE)の話者に対して人種差別的なステレオタイプを持っていることを発見しました。
これらの技術は、企業が求職者のスクリーニングなどのタスクに広く使用していることが指摘されています。研究者たちは、AIモデルがAAVEを使用する人々と「標準的なアメリカ英語」を使用する人々の知性や雇用可能性を評価するよう求められました。その結果、AIモデルはAAVEを話す人々を「愚か」で「怠惰」と表現し、彼らに低賃金の仕事を割り当てる傾向があることがわかりました。
さらに、AAVEを使用する架空の犯罪被告人に対して死刑を推奨する可能性が高いことも明らかになりました。これらの結果から、AIモデルが求職者がAAVEと標準的なアメリカ英語の間でコードスイッチングを行うことを罰する可能性があることが懸念されています。
AIモデルが成長するにつれて、隠れた人種差別が増加することが見つかりました。倫理的なガードレールは、言語モデルが人種差別的な偏見をより控えめにすることを学ぶだけで、根本的な問題を解決しないことが示されています。
AIの専門家は、技術の進歩が連邦規制を上回り続ける場合、言語学習モデルが引き起こす可能性のある害について懸念を表明しています。一部の専門家は、これらの技術の使用を特定の敏感な領域で制限することが優れた第一歩であると提案しています。
【ニュース解説】
人工知能(AI)技術の進化に伴い、専門家による最新の報告では、これらのツールがより隠れた形で人種差別的になっていることが明らかにされました。特に、OpenAIのChatGPTやGoogleのGeminiなどの大規模言語モデルが、アフリカ系アメリカ人英語(AAVE)を話す人々に対して、人種差別的なステレオタイプを持っていることが指摘されています。これらのAIモデルは、企業が求職者をスクリーニングする際などに広く使用されており、AAVEを使用する人々を「愚か」や「怠惰」と評価し、低賃金の仕事を割り当てる傾向があることが研究で明らかにされました。
この問題は、AIモデルがAAVEと「標準的なアメリカ英語」を使用する人々の間でコードスイッチング(状況に応じて言語使用を切り替える行為)を行う求職者を不利に扱う可能性があることを示唆しています。さらに、AAVEを使用する架空の犯罪被告人に対して死刑を推奨する可能性が高いことも判明し、AIモデルの隠れた人種差別が増加していることが示されました。
このような状況は、AIモデルに設定された倫理的なガードレールが、言語モデルが人種差別的な偏見をより控えめにすることを学ぶだけで、根本的な問題を解決していないことを示しています。AIの専門家たちは、技術の進歩が連邦規制を上回り続ける場合、言語学習モデルが引き起こす可能性のある害について懸念を表明しています。そのため、これらの技術の使用を特定の敏感な領域で制限することが、問題への対処として提案されています。
この問題は、AI技術の進化が社会に与える影響を考える上で重要な意味を持ちます。AIモデルが人種差別的な偏見を持つことは、雇用、教育、司法などの分野での公平性を損なう可能性があります。そのため、AI開発者や利用者は、技術の倫理的な使用に対する意識を高め、偏見を減らすための取り組みを強化する必要があります。また、政府や規制機関は、AI技術の使用に関するガイドラインや規制を設けることで、社会全体の公平性と正義を守る役割を果たすことが求められます。
from As AI tools get smarter, they’re growing more covertly racist, experts find.