/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

AIトレーニング通知義務、バイデン政権が新規則発表へ

AI規制、バイデン政権が新ルール導入へ。商務省への通知義務付け、国防生産法活用。AIモデルの安全性と社会影響評価のため、企業は詳細報告を必要とする。【用語解説とAIによる専門的コメントつき】

Published

on

【ダイジェスト】

バイデン政権は、新たな高性能AIアルゴリズムのトレーニングを開始する際に、企業が商務省に通知することを義務付けるために、国防生産法を利用する準備をしています。この規則は来週にも発効する可能性があります。

この新しい要件により、米国政府はOpenAI、Google、AmazonなどのAI分野で競争しているテック企業内の最も機密性の高いプロジェクトに関する重要な情報を入手できるようになります。企業は、新しいAI作品の安全性テストに関する情報も提供する必要があります。

商務省のジーナ・ライモンド長官は、スタンフォード大学のフーバー研究所で開催されたイベントで、「大規模な言語モデルをトレーニングするたびに、その結果と安全性データを共有してもらい、レビューするために国防生産法を使用している」と述べました。ただし、要件がいつ発効するか、または政府がAIプロジェクトに関する情報を受け取った後にどのような行動を取るかについては言及していません。詳細は来週発表される予定です。

昨年10月に発行されたホワイトハウスの大統領令の一環として、新しいルールが実施されています。この大統領令は、商務省に1月28日までに、開発中の強力な新しいAIモデルに関する詳細を米国当局に通知するよう企業に義務付ける計画を立てるよう命じました。その詳細には、使用されるコンピューティングパワーの量、モデルに供給されるデータの所有権に関する情報、および安全性テストの詳細が含まれるべきだとされています。

大統領令は、AIモデルが商務省への報告を要するタイミングについての定義作業を開始するよう求めていますが、初期の基準としては、100セプティリオン(10^26)FLOPS(浮動小数点演算/秒)を超えるモデル、およびDNAシーケンシングデータに取り組む大規模言語モデルについては、その1,000分の1のレベルを設定しています。OpenAIもGoogleも、それぞれの最も強力なモデルであるGPT-4とGeminiをトレーニングするために使用したコンピューティングパワーについては公表していませんが、大統領令に関する議会調査サービスの報告書は、10^26 FLOPSがGPT-4をトレーニングするために使用されたものをわずかに超えると示唆しています。

ライモンド長官はまた、Amazon、Microsoft、Googleなどのクラウドコンピューティングプロバイダーが、外国の企業が大規模言語モデルをトレーニングするためにそのリソースを使用した場合に政府に通知することを義務付ける、10月の大統領令の別の要件を間もなく実施すると確認しました。外国のプロジェクトは、同じ初期の閾値である100セプティリオンFLOPSを超えた場合に報告される必要があります。

ライモンド長官は、国立標準技術研究所(NIST)が、新しい米国政府AI安全研究所の創設の一環として、AIモデルの安全性テストの基準を定義する作業を行っていると述べました。AIモデルのリスクを判断するには通常、問題のある振る舞いや出力を引き出そうとするモデルを探ることが含まれます。これは「レッドチーミング」と呼ばれるプロセスです。

ライモンド長官は、企業が孵化させているモデルに潜むリスクをよりよく理解するのに役立つガイドラインに取り組んでいると述べました。これらのガイドラインには、AIが人権侵害に使用されないようにする方法が含まれる可能性があります。

AIに関する10月の大統領令は、NISTに7月26日までにこれらの基準を整備するよう命じていますが、代理店と協力している一部の人々は、これを適切に行うために必要な資金や専門知識が不足していると述べています。

【ニュース解説】

米国政府は、高性能AIアルゴリズムのトレーニングを開始する際に、関連企業が事前に通知することを義務付ける新たな規則を導入する準備をしています。これは、国防生産法を用いて実施されるもので、商務省に対する報告が必要となります。この措置は、AI技術の急速な進展に対する政府の監視と規制の強化を目的としています。

この新規制は、AIモデルが特定の計算能力(100セプティリオンFLOPS以上)を使用してトレーニングされる場合に適用されます。また、大規模な言語モデルやDNAシーケンシングデータを扱うモデルについても、より低い閾値が設定されています。企業は、使用するコンピューティングパワーの量、データの所有権、安全性テストの詳細などを報告する必要があります。

この規制により、政府はAI開発の最前線にある企業の動向を把握し、AIの安全性や社会への影響を評価するための情報を得ることができます。例えば、OpenAIが次世代のGPT-5の開発を開始する際には、その作業や安全性テストに関する情報が政府に提供されることになります。

このような規制は、AIの発展がもたらすポジティブな側面と潜在的なリスクの両方を考慮した上で、バランスの取れた監督を目指しています。AIが社会に与える影響は広範にわたり、効率化や新しいサービスの提供など多くの利点がありますが、同時に、プライバシーの侵害、偏見の増幅、セキュリティリスクなどの問題も指摘されています。

また、規制はAIを用いた人権侵害の防止にも寄与する可能性があります。企業は、AIモデルの安全性を評価するための基準を理解し、適切な対策を講じることが求められます。これにより、AI技術の責任ある使用が促進されることが期待されます。

ただし、このような規制にはいくつかの課題も存在します。例えば、国立標準技術研究所(NIST)がAIモデルの安全性テストの基準を定義する任務を負っていますが、そのための資金や専門知識が不足しているとの指摘があります。また、規制が技術革新を阻害することなく、適切に実施されるかどうかも重要なポイントです。

長期的には、このような規制がAI技術の健全な発展を支え、社会全体にとってプラスとなるような形での利用を促進することが期待されます。同時に、規制当局は、技術の進歩に適応し続ける柔軟性と、新たなリスクに迅速に対応する能力を持つことが求められるでしょう。

from OpenAI and Other Tech Giants Will Have to Warn the US Government When They Start New AI Projects.

Trending

モバイルバージョンを終了