【ダイジェスト】
人工知能(AI)が採用プロセスに与える影響についての調査を行ったニューヨーク大学のジャーナリズム助教授であり、調査報道記者のヒルケ・シェルマンは、採用を助けるために設計された一方向ビデオ面接システム「myInterview」を試用しました。このシステムは、応募者が録画したビデオの回答から、使用された言葉や声の抑揚を分析して、仕事にどれだけ適合しているかをスコアリングします。シェルマンは英語での面接で83%のマッチングスコアを得ましたが、ドイツ語での面接では質問に答えずにWikipediaの記事を読んだにもかかわらず、73%のスコアを得ました。さらに、ロボットの声で英語の回答を読ませたところ、79%のスコアを得ました。
シェルマンの新著「The Algorithm」では、AIと複雑なアルゴリズムが従業員の採用、監視、評価、解雇、昇進のためにどのように使用されているかを探求しています。彼女は、多くの採用ツールが機能していないだけでなく、問題のある疑似科学に基づいており、差別を引き起こす可能性があると結論付けています。例えば、声の抑揚が仕事での成功を予測できるという考えや、キーストロークやマウスの動きなどの不正確な指標に基づいて生産性をスコアリングするデジタル監視の方法などが挙げられます。
シェルマンは、AIベースの監視技術、例えば従業員が辞める可能性をLinkedInの更新頻度などのさまざまなシグナルから判断する「フライトリスク分析」や、従業員のコミュニケーションを分析して感情を探る「センチメント分析」、新しいスキルを習得する可能性を評価するための「CV分析」などについても言及しています。これらの技術は予測値が低い可能性があります。
シェルマンは、新しいアプローチの使用に反対しているわけではなく、人間が行う方法も偏見に満ちていることがあると指摘していますが、機能しない、公平でない技術を受け入れるべきではないと主張しています。彼女は、採用と職場監視ソフトウェアを導入する際に、人事部門がより懐疑的になり、質問を投げかけ、製品をテストすることを求めています。また、ツールが市場に出る前に機能し、差別しないことを確認するための政府機関の設立や、ベンダーが構築および検証した方法に関する技術報告書を公開することを義務付けることなど、規制を求めています。
【ニュース解説】
人工知能(AI)が採用プロセスに与える影響についての調査を行ったヒルケ・シェルマンの新著「The Algorithm」では、AIと複雑なアルゴリズムが従業員の採用、監視、評価、解雇、昇進のためにどのように使用されているかが探求されています。シェルマンは、一方向ビデオ面接システム「myInterview」を含む複数のツールを試用し、その結果に基づいて、多くの採用ツールが機能していないだけでなく、問題のある疑似科学に基づいており、差別を引き起こす可能性があると結論付けています。
この調査は、声の抑揚や表情分析など、科学的根拠に乏しい方法に依存している採用ツールの問題点を浮き彫りにしています。また、デジタル監視技術が従業員の生産性を不正確な指標に基づいて評価し、ストレスや不公平を引き起こす可能性があることも指摘しています。さらに、AIによる監視技術が従業員の感情や将来の行動を予測しようとする試みが、低い予測値を持つことがあることも明らかにしています。
シェルマンは、新しい技術の導入に反対しているわけではなく、人間の偏見に満ちた採用プロセスを改善する可能性を認めています。しかし、彼女は、機能しないかつ公平でない技術を受け入れるべきではないと主張し、人事部門がより懐疑的になり、製品をテストすること、そして規制を求めています。具体的には、ツールが市場に出る前に機能し、差別しないことを確認するための政府機関の設立や、ベンダーが構築および検証した方法に関する技術報告書を公開することを義務付けることが提案されています。
この調査は、AIとアルゴリズムが採用プロセスに与える影響を理解し、その利用における課題とリスクを認識する上で重要な示唆を与えています。技術の進歩は、採用プロセスを効率化し、人間の偏見を減らす可能性を秘めていますが、その実装には慎重な検討と適切な規制が必要であることが強調されています。また、技術の公平性と透明性を確保するための取り組みが、今後ますます重要になってくるでしょう。
from The AI tools that might stop you getting hired.