【ダイジェスト】
欧州連合(EU)は、AI Actを通じて人工知能(AI)に関する規制と監督を強化しています。この法律の目的は、リスク管理、データ保護、品質管理システム、透明性、人間の監督、正確性、堅牢性、サイバーセキュリティの分野で規制を強化し、AIシステムの開発と展開における透明性と説明責任を促進することです。これにより、市場に出回るAI製品が個人の安全を確保することを目指しています。
EU AI Actは、AIシステムのリスクに基づいた分類システムを導入し、低リスクシステムには透明性の義務がありますが、法律上の要件は少ないです。一方、高リスクAIシステムには追加の規制要件があり、リスク管理、正確性、堅牢性、人間の監督などが含まれます。また、社会的スコアリング、顔認識、感情認識、公共空間での遠隔生体認証など、受け入れられないリスクをもたらすシステムは禁止されています。
EU AI Actの遵守は重要であり、違反すると高額な罰金が科される可能性があります。誤った情報の提供に対しては、企業の年間売上高の1.5%または750万ユーロ(いずれか高い方)、義務違反の場合は年間売上高の3%または1,500万ユーロ(いずれか高い方)の罰金が科されます。
EU AI Actは、AI規制に関する最も包括的な法的枠組みの1つとされ、世界の政府から注目されています。IBMは、AIのガバナンスを加速させるためのソフトウェア自動化を提供し、規制要件の遵守やリスク管理、ライフサイクルのガバナンスを支援しています。IBMのソリューションは、AIの透明性、説明可能性、文書化を強化し、規制要件に対応するための支援を提供しています。
ニュース解説
欧州連合(EU)は、人工知能(AI)の使用に関する新しい法的枠組みであるAI法案(AI Act)を進めています。この法案は、AI技術の開発と展開における人間の監視と規制遵守を新たなレベルに引き上げることを目指しており、EU内でのAIの使用に関する規制を強化することを意図しています。AI法案は、EUのデータ保護規則である一般データ保護規則(GDPR)に類似しており、世界中の今後のAI規制の方向性を示す可能性があります。
AI法案は、AIシステムが市場に出される際に、それらが個人の使用に安全であることを保証するために、透明性と説明責任を促進することを目的としています。特に、医療、金融、エネルギーなどの規制が厳しい業界において、責任を持ってAIを開発し、展開することへの挑戦に応えることを目指しています。
AI法案はリスクベースのアプローチを採用しており、AIシステムが個人の健康、安全、基本的権利に与えるリスクのレベルに基づいて分類されます。低リスクのシステムには透明性の義務があるものの、法的要件は少ないですが、自動運転車や医療機器などの高リスクAIシステムは、追加の規制要件に従う必要があります。また、社会的スコアリングや顔認識など、受け入れがたいリスクをもたらすシステムはほとんど例外なく禁止されています。
AI法案に違反すると、企業には高額な罰金が科される可能性があります。これにより、企業はAIの使用において、より慎重なアプローチを取ることが求められるでしょう。また、AI法案は世界中の政府によるAI技術の規制に関する議論に影響を与えており、企業や消費者はAIに対する信頼、透明性、公正さ、説明責任を重視するようになっています。
IBMは、AIのガバナンスを強化するためのソフトウェア自動化を提供しており、規制要件の遵守、リスク管理、ライフサイクルのガバナンスを支援しています。これにより、AIの透明性、説明可能性、文書化が強化され、規制要件に対応するための支援が提供されています。
この法案が施行されることで、AI技術を使用する企業は、リスク管理、データ保護、品質管理システムなどの面で新たな基準に適応する必要があります。これは、AI技術の安全性と倫理性を確保するための重要なステップであり、消費者の権利を保護し、AIの責任ある使用を促進することに寄与するでしょう。しかし、規制の厳格化は、特にスタートアップや中小企業にとっては、コンプライアンスのコスト増加を意味する可能性があり、イノベーションの速度に影響を与えるリスクもあります。また、規制が国際的な標準として採用されるかどうかによっては、グローバルなビジネス環境における競争力にも影響を及ぼす可能性があります。
from Preparing for the EU AI Act: Getting governance right.