/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

MIRI、AI安全性への新戦略で活動再開: 公共コミュニケーションと政策変更に注力

MIRIが活動再開と戦略転換を発表。AIの安全性確保に向け、公共コミュニケーションと政策変更を最優先事項に。新CEOにMalo Bourgon、新研究チーム設立も。AIリスクへの国際的対話促進を目指す。【用語解説とAIによる専門的コメントつき】

Published

on

Machine Intelligence Research Institute(MIRI)は、2022年7月以来の休止期間を経て、2024年4月のニュースレターで活動を再開しました。MIRIは、2024年のミッションと戦略の更新を発表し、焦点を大きく変更しました。技術的な研究プログラムのサポートを継続しつつ、新たな最優先事項として広範な公共コミュニケーションと政策変更に注力します。これは、人類がアライメント問題を解決できるという楽観が薄れ、代わりに国際間の合意によるAI開発のブレーキを長期間にわたってかけることへの希望が高まったためです。

この戦略変更に伴い、Malo BourgonがCOOからCEOへ、Nate SoaresがCEOから会長へとそれぞれ移行しました。また、リサ・ティアガート(研究プログラム管理)とグレッタ・デュレバ(コミュニケーションおよびメディアエンゲージメント管理)という2名の新しいシニアスタッフを迎え入れました。新戦略に沿って、コミュニケーションチームを拡大中であり、Harlan Stewartがニュースレターを含む複数のプロジェクトを率いています。

さらに、技術的AIガバナンスに取り組む新しい研究チームを立ち上げ、研究者および技術ライターとしての応募を受け付けています。このチームは、安全なAIにつながる規制や政策の技術的側面を研究・設計することに焦点を当てます。

MIRIは、2024年に向けてファンドレイジング活動を計画しており、2019年以来初めての年末ファンドレイザーを実施する可能性があります。また、Eliezer Yudkowsky氏がTIME誌のオピニオン記事とTEDトークで公共アウトリーチの新たな波を開始し、大きな影響を与えました。Malo Bourgonは、リーダー・シューマーと複数の上院議員による二党制フォーラムに招待され、MIRIの政策推奨についての声明を提出しました。

Nate SoaresはAIリスクに関する重要なエッセイを複数執筆し、MIRIの研究者たちは、強力なAIの訓練がデフォルトで不一致と災害につながることを示唆する新しい報告書を発表しました。MIRIの最新の執筆や出演は、メディアページで確認できます。

【ニュース解説】

Machine Intelligence Research Institute(MIRI)は、人工知能(AI)の研究と政策提言に関わる非営利団体で、2022年7月以来の休止期間を経て、2024年4月に活動を再開しました。この再開に伴い、MIRIはそのミッションと戦略を大きく転換し、技術的な研究を継続する一方で、広範囲にわたる公共コミュニケーションと政策変更を新たな最優先事項として掲げています。この変更は、AIのアライメント問題(AIの目標を人間の価値観と一致させる問題)を解決することに対する悲観的な見方と、国際間の合意によるAI開発の制限に対する希望が高まったことに基づいています。

この戦略の転換は、組織のリーダーシップの変更、新しいシニアスタッフの採用、そしてコミュニケーションチームの拡大を含む、組織全体の変化をもたらしました。また、技術的AIガバナンスに焦点を当てた新しい研究チームの立ち上げも発表されました。このチームは、人間を超える知能を持つAIに向けて動く中で機能し続ける可能性のある、安全なAIにつながる規制や政策の設計に取り組むことになります。

MIRIのこの新しい方向性は、AIの発展がもたらすリスクに対する広範な認識と対話を促進することを目的としています。AIのアライメント問題が未解決のまま、人間を超える知能を持つAIが開発されることは、人類にとって重大なリスクをもたらす可能性があります。そのため、MIRIは公共のコミュニケーションと政策提言を通じて、AI開発のペースを抑制し、安全なAIの実現に向けた国際的な合意形成を目指しています。

このアプローチは、AIの安全性を確保するための技術的解決策のみに依存するのではなく、社会的・政治的な対話と合意形成を通じて、AI開発の方向性を調整することの重要性を強調しています。しかし、このような国際的な合意を形成し、実施することは複雑であり、多くの課題を伴います。国家間の利害の対立、技術的な進歩の速さ、そして国際的な規制の実施と遵守の問題などが挙げられます。

長期的には、MIRIのこの新しい戦略がAIの安全性に関する国際的な議論と政策形成にどのような影響を与えるかは未知数です。しかし、AIの発展が人類にとって持続可能で安全なものであるためには、技術的な研究だけでなく、広範な社会的な対話と政策の形成が不可欠であることは明らかです。MIRIの取り組みは、この重要な課題に対する一つのアプローチを提供しており、今後のAIの発展において重要な役割を果たす可能性があります。

from April 2024 Newsletter.

Trending

モバイルバージョンを終了