AI(人工知能)ニュース

オーストラリアの新安全基準、AIによる子供保護に影響か?

オーストラリアの新オンライン安全基準がAIの効果を制限する恐れがあるとテクノロジー企業が警告。子供の安全を守る目的で提案された基準は、Microsoft、Meta、Stability AIから懸念の声が上がっています。eSafetyコミッショナーは、基準が暗号化破壊や監視を要求するものではないと反論。【用語解説とAIによる専門的コメントつき】

Published

on

オーストラリアの新しいオンライン安全基準が、AIによるオンラインの安全保護を難しくするとテクノロジー企業が主張しています。これらの基準は、特に子供の安全を目的とした2つの義務的な基準の下で、子供への虐待やテロ資材の検出と削除を技術的に可能な範囲で行うことを提案しています。対象となる技術には、ウェブサイト、クラウドストレージサービス、テキストメッセージ、チャットアプリ、高影響の生成AIサービス、オープンソースの機械学習モデルが含まれます。

WeProtect Global Allianceなどの非営利団体は、オープンソースAIが既に子供への虐待資料やディープフェイクの生成に使用されていると指摘し、提案された基準が適切なプラットフォームとサービスを対象としていると述べています。しかし、Microsoft、Meta、Stability AIなどのテクノロジー企業は、これらの基準がAIの安全モデルの有効性を制限する可能性があると警告しています。特に、AIが子供への虐待やテロ資材を検出し、フラグを立てるためには、そのようなコンテンツにさらされ、リスクを評価し軽減するプロセスが必要であるとMicrosoftは指摘しています。

一方で、eSafetyコミッショナーのJulie Inman Grantは、基準が業界に暗号化の破壊や弱体化、テキストの監視、大量の個人データの無差別スキャンを要求するものではないと述べ、現在、この点を明確にするための修正案を検討中であるとしています。最終版の基準は、今年後半に議会で検討される予定です。

【ニュース解説】

オーストラリア政府が提案した新しいオンライン安全基準は、特に子供の安全を守ることを目的としています。これらの基準は、子供への虐待やテロ資材の検出と削除を、技術的に可能な範囲で行うことを義務付けています。対象となる技術には、ウェブサイトやクラウドストレージサービス、テキストメッセージ、チャットアプリ、そして高影響の生成AIサービスやオープンソースの機械学習モデルが含まれます。

しかし、Microsoft、Meta、Stability AIなどのテクノロジー企業からは、これらの基準がAIによるオンラインの安全保護を難しくするという懸念が示されています。これらの企業は、AIが効果的に子供への虐待やテロ資材を検出し、フラグを立てるためには、そのようなコンテンツにさらされ、リスクを評価し軽減するプロセスが必要であると指摘しています。彼らは、提案された基準がAIの訓練データを制限することで、その有効性を低下させる恐れがあると警告しています。

一方、eSafetyコミッショナーのJulie Inman Grantは、提案された基準が業界に暗号化の破壊や弱体化、テキストの監視、大量の個人データの無差別スキャンを要求するものではないと強調しています。彼女は、基準を明確にするための修正案を検討中であり、最終版の基準は今年後半に議会で検討される予定です。

このニュースは、オンラインの安全性を高めるための規制と、技術の進歩との間の delicate balance を浮き彫りにしています。AI技術は、オンラインでの子供への虐待やテロ資材の検出において重要な役割を果たす可能性がありますが、その有効性を最大限に発揮するためには、適切な訓練データへのアクセスが不可欠です。同時に、個人のプライバシーを保護し、無差別な監視を避けるための規制も必要です。この問題は、技術の進歩と社会的な価値観の間のバランスをどのように取るか、という広範な議論の一部を形成しています。

from Tech firms say new Australian standards will make it harder for AI to protect online safety.

Trending

モバイルバージョンを終了