【ダイジェスト】
イギリス政府が支援する新しいAI安全性機関は、AIモデルのテストを自ら行うのではなく、グローバルスタンダードの設定に注力すべきだと、政府の支援を受けるFaculty AIのCEO、マーク・ワーナー氏が述べました。この機関は、チャットボットなどのAIモデルが自身の安全ガイドラインを破ることを促すかどうかをテストする支援をFaculty AIに依頼しています。
リシ・スナク首相は昨年、AI安全性サミットに先立ち、AI安全性機関(AISI)の設立を発表しました。このサミットでは、EUと10カ国(イギリス、アメリカ、フランス、日本など)が、AIモデルの展開前後のテストに関して大手テクノロジー企業との協力を約束しました。イギリスはAI安全性に関する先進的な取り組みにより、この合意において重要な役割を果たしています。
ワーナー氏は、AI安全性機関が他の政府や企業が追随できるような基準を設定すべきだと述べ、特に「レッドチーミング」(AIモデルの誤用をシミュレートする専門家によるテスト)などの基準を挙げました。彼は、政府がすべてのモデルをテストすることになると、迅速に対応できなくなる可能性があると指摘しました。
また、AISIは最先端のシステムにのみ焦点を当て、すべてのモデルをテストする能力がないことを認めました。大手AI企業は、イギリス政府にAIシステムの安全テストを迅速化するよう促しています。これにはGoogle、ChatGPTの開発者であるOpenAI、Microsoft、Mark ZuckerbergのMetaが含まれます。
アメリカもAI安全性機関の設立を発表し、Bletchley Parkでのサミットで発表されたテストプログラムに参加します。バイデン政権は、AI生成コンテンツのウォーターマーキングガイドラインの開発を含む、AI安全性に関する10月の行政命令で設定された目標を達成するために、ホワイトハウスを支援するコンソーシアムを発表しました。このコンソーシアムにはMeta、Google、Apple、OpenAIが含まれます。
イギリスの科学・イノベーション・技術省は、AIモデルのテストにおいて世界各国の政府が重要な役割を果たす必要があると述べています。AI安全性機関は、評価、研究、情報共有を行い、世界中のAI安全性に関する理解を深めることで、世界中の政策立案者に情報を提供し続けるとしています。
【ニュース解説】
イギリス政府は、人工知能(AI)の安全性を確保するためにAI安全性機関(AISI)を設立しました。この機関の目的は、AIモデル、特にチャットボットのような技術が安全ガイドラインを破ることを防ぐためのテストを行うことです。しかし、Faculty AIのCEOであるマーク・ワーナー氏は、この新しい機関がテストを直接行うのではなく、グローバルスタンダードの設定に注力すべきだと提言しています。
この提言の背景には、AI技術の急速な進化と、それに伴うテストニーズの増大があります。ワーナー氏は、政府がすべてのAIモデルをテストすることは現実的ではなく、また効率的でもないと指摘しています。その代わりに、他の政府や企業が追随できるような、高い基準を設定することが重要だと述べています。例えば、「レッドチーミング」という手法を用いて、AIモデルの潜在的な誤用をシミュレートする基準を設けることが挙げられます。
このアプローチには、複数の利点があります。まず、基準を設定することで、AIの安全性を確保するための一貫したアプローチを国際的に促進することができます。また、各組織が自らのAIモデルを評価するためのガイドラインを提供することで、より多くのAIモデルが迅速にテストされ、安全性が確保される可能性が高まります。
しかし、このアプローチには潜在的なリスクも伴います。例えば、設定された基準が十分に厳格でない場合、安全でないAIモデルが市場に出回る可能性があります。また、国際的な基準の設定と遵守には、多国間の協力と調整が必要であり、これが難航する可能性もあります。
規制に与える影響としては、国際的な基準の設定は、AI技術の安全性に関する規制の枠組みを形成する上で重要な役割を果たす可能性があります。これにより、AI技術の開発と利用に関する一貫したガイドラインが提供され、技術の進歩と社会的な受容のバランスを取ることが可能になります。
将来への影響としては、AI安全性機関が国際的な基準を設定することで、AI技術の安全性を確保するためのグローバルな取り組みが加速される可能性があります。これは、AI技術の持続可能な発展と、その社会へのポジティブな貢献を促進する上で重要なステップとなるでしょう。
from UK’s AI Safety Institute ‘needs to set standards rather than do testing’.