【ダイジェスト】
労働党は、ソーシャルメディアの規制に遅れをとった過去の失敗を繰り返さないよう、人工知能(AI)企業に対して、その技術のテストデータを共有することを義務付ける計画を発表しました。この措置は、技術会社と政府間の自発的なテスト合意を法的な制度に置き換えることを意味します。影の技術大臣であるピーター・カイルは、AI技術に関わる企業が研究開発に使用した全てのテストデータを公開し、何をテストしているのかを明らかにする必要があると述べました。
カイルは、AIの安全性に関する初のグローバルサミットで、リシ・スナクがGoogleやChatGPTの開発者であるOpenAIを含む主要AI企業と締結した自発的な合意について言及しました。この合意では、AIモデルの展開前後のテストに協力することが求められています。労働党の提案によると、AI企業は政府に対し、一定レベル以上の能力を持つAIシステムの開発計画があるかどうかを法的に報告し、独立した監視の下で安全テストを実施する必要があります。
この提案は、EUと米国、英国、日本、フランス、ドイツを含む10カ国が支持し、Google、OpenAI、Amazon、Microsoft、マーク・ザッカーバーグのMetaなどの技術企業がモデルのテストに同意しています。カイルは、テストの結果が新設された英国AI安全研究所によって公衆を安心させるのに役立つと述べ、一部のAI技術が職場、社会、文化に深刻な影響を与える可能性があるため、その開発が安全に行われることを確実にする必要があると強調しました。
【ニュース解説】
労働党は、人工知能(AI)技術の開発において、過去にソーシャルメディアの規制で見られた遅れを繰り返さないよう、AI企業に対してその技術のテストデータを共有することを義務付ける新たな計画を発表しました。この計画は、現在の自発的なテスト合意を法的な制度に置き換えることを意味し、AI企業は政府に対して、開発中のAIシステムの能力レベルや安全テストの実施に関する情報を提供する必要があります。
この動きは、AI技術の進展が社会に与える影響をより透明性のあるものにし、公衆の安全を確保するためのものです。AI技術は、医療、交通、教育など多岐にわたる分野での応用が期待されていますが、同時にプライバシーの侵害、偏見の増幅、雇用の不安定化などのリスクもはらんでいます。労働党の提案により、これらの技術が社会に導入される前に、その安全性や倫理性が独立した機関によって検証されることが期待されます。
この提案は、AI技術の開発と展開における規制の枠組みを強化することにより、技術の進歩と社会の安全を両立させることを目指しています。AI企業がテストデータを共有することで、潜在的な問題を早期に特定し、対処することが可能になります。また、公衆がAI技術の開発プロセスについてより多くの情報を得ることができるため、技術に対する信頼を高めることにもつながります。
しかしながら、このような規制が技術革新を阻害する可能性も指摘されています。AI企業は、テストデータの共有が競争上の不利益につながることや、知的財産権の保護が困難になることを懸念しているかもしれません。そのため、効果的な規制を実現するためには、企業の協力を得ながら、イノベーションを促進し、社会の安全を確保するバランスを見つけることが重要です。
長期的には、このような規制の導入は、AI技術の健全な発展を促し、社会に対するその貢献を最大化することにつながる可能性があります。AI技術がもたらす利益を享受しつつ、リスクを適切に管理することで、より公正で安全な社会の実現に貢献することが期待されます。
from Labour would force AI firms to share their technology’s test data.