【ダイジェスト】
政府は、人工知能(AI)の最先端技術の開発を監視するために、いずれは拘束力のある措置が必要であると認めつつも、すぐに法制化には踏み切らない方針を示しました。代わりに、将来の拘束力のある要件に関する「初期の考え」を設定し、技術的、法的、市民社会の専門家と議論する予定です。
政府は、AIリスクに対処するために規制機関に1000万ポンドを提供し、4月30日までにその技術へのアプローチを示すよう要求しています。しかし、独立したAI研究機関であるAda Lovelace Instituteは、技術企業との行き詰まりや郵便局のスキャンダルのような誤りが発生するのを待つべきではないと政府に警告しています。
政府はこれまで、最先端システムの規制に関しては自主的なアプローチを採用してきました。11月には、ChatGPTの開発者であるOpenAIやGoogleを含む主要な技術企業が、EUや米国、英国、フランスを含む10カ国と共に、最も洗練されたAIモデルのテストに協力することで合意したと発表しました。
政府は、通信監視機関Ofcomやデータ規制機関である情報委員会などの既存の規制機関が、安全性、透明性、公平性、説明責任、新規参入者がAI分野の既存プレイヤーに挑戦する能力という5つの基本原則を参照してAIを規制するという枠組みを維持しています。
また、著作権保有者と技術企業との間で、AIツールの構築に使用される著作権で保護された素材の取り扱いに関する協議が合意に至らなかったことも確認されています。著作権で保護されたコンテンツの使用は、インターネットから収集された大量のデータに基づいて訓練されるチャットボットや画像生成器などのAIツールを構築する際に、最も法的に論争の的となっている側面の一つです。
【ニュース解説】
政府は人工知能(AI)の最先端技術の開発を監視するために、将来的には法的な規制が必要であると認めていますが、すぐにそのような措置を講じることはありません。代わりに、将来の法的要件に関する初期の考えを設定し、技術、法律、市民社会の専門家と議論する予定です。この動きは、AI技術のリスクに対処するために、規制機関に1000万ポンドを提供し、それらの機関に対して4月30日までにAIへのアプローチを示すよう要求することも含まれています。
Ada Lovelace Instituteという独立したAI研究機関は、技術企業との行き詰まりや、郵便局のスキャンダルのような重大な誤りが発生するのを待つべきではないと政府に警告しています。このような遅延は、英国がAIのリスクを防ぐ、または事後に効果的に対応する能力を失うリスクがあると指摘しています。
政府はこれまで、最先端システムの規制に関しては自主的なアプローチを採用してきました。11月には、ChatGPTの開発者であるOpenAIやGoogleを含む主要な技術企業が、EUや米国、英国、フランスを含む10カ国と共に、最も洗練されたAIモデルのテストに協力することで合意しました。
また、政府は通信監視機関Ofcomやデータ規制機関である情報委員会などの既存の規制機関が、安全性、透明性、公平性、説明責任、新規参入者がAI分野の既存プレイヤーに挑戦する能力という5つの基本原則を参照してAIを規制するという枠組みを維持しています。
さらに、著作権保有者と技術企業との間で、AIツールの構築に使用される著作権で保護された素材の取り扱いに関する協議が合意に至らなかったことも確認されています。これは、インターネットから収集された大量のデータに基づいて訓練されるチャットボットや画像生成器などのAIツールを構築する際に、最も法的に論争の的となっている側面の一つです。
このニュースは、AI技術の急速な発展とその社会への影響に対する政府の対応を示しています。AIのリスクを管理し、技術の利点を最大限に活用するためには、技術の進歩に合わせて規制の枠組みを適応させる必要があります。しかし、このプロセスは複雑であり、多くの異なる利害関係者の間での合意形成を必要とします。また、AI技術の進化は非常に速いため、規制が追いつかない可能性があります。このため、政府は慎重なアプローチを取りつつも、将来的にはより強力な規制措置を講じる必要があると認識しています。
from Don’t wait for Post Office-style scandal before regulating AI, ministers told.