人工知能(AI)は、私たちの日常生活のほぼすべての側面を急速に変化させています。AIのデータは、そのアプリケーションを動かす遺伝子のようなものであり、正確性、セキュリティ、機能性は使用されるデータソースに依存します。データの出所を管理し、不適切なデータの拡散を防ぐことが、AIの有望な未来を確保し、悪夢を避ける鍵です。
悪質なデータは、サイバーセキュリティの脆弱性、誤情報、その他の攻撃を世界中で瞬時に広めるAIモデルを生み出す可能性があります。現代の生成AI(GenAI)モデルは複雑ですが、基本的には、既存のデータセットから次に出力する最適なデータチャンクを予測します。
ソフトウェア開発業界は、サイバーセキュリティインフラセキュリティエージェンシーの指導のもと、セキュア・バイ・デザインのフレームワークを実装し始めています。これは、ソフトウェア開発プロセスの基礎としてサイバーセキュリティを要求し、セキュリティを市場投入の最も重要な要素として位置づけます。
AIには、共通の過去のサイバーセキュリティ防御技術を防ぐAIフィードバックループがあります。AIの初期段階でセキュアなAI設計を要求することが重要です。AIモデルのトレーニングには、2段階のキュレーションされたデータアプローチが必要です。まず、基本的なAIモデルを大量のあまりキュレーションされていないデータセットを使用してトレーニングし、その後、高度にキュレーションされたデータセットを使用してトレーニングします。
AIのセキュリティに関しては、1時間待つことはできませんし、ましてや10年も待つことはできません。AIには「23andMe」のようなアプリケーションが必要であり、開発者がAIの「家族」の歴史を完全に理解し、重大な問題が複製され、私たちが毎日依存する重要なシステムに感染し、経済的および社会的な害を引き起こすのを防ぐことができます。
【ニュース解説】
人工知能(AI)の技術は、私たちの生活の様々な面で急速に進化し、変化をもたらしています。AIが提供する便利さや効率性は、仕事の仕方から情報の摂取、さらには政治的リーダーの選定方法に至るまで、幅広い影響を及ぼしています。しかし、この技術の背後にあるデータの質が、AIの機能性やセキュリティ、正確性に直接影響を与えるため、データの出所(プロベナンス)を管理し、不適切なデータの拡散を防ぐことが重要です。
悪質なデータは、サイバーセキュリティの脆弱性や誤情報など、さまざまな問題を引き起こす可能性があります。特に、現代の生成AI(GenAI)モデルは、複雑なデータセットを基に次に出力する最適なデータを予測するため、不正確なデータが入力されると、その影響は瞬時に世界中に広がる可能性があります。
この問題に対処するために、ソフトウェア開発業界では、サイバーセキュリティインフラセキュリティエージェンシーの指導のもと、セキュア・バイ・デザインのフレームワークが実装され始めています。これは、開発プロセスの初期段階からセキュリティを考慮に入れることを要求するもので、AIにおいても同様のアプローチが求められています。
AIモデルのトレーニングには、2段階のキュレーションされたデータアプローチが必要です。初期段階では、大量のあまりキュレーションされていないデータセットを使用して基本的なAIモデルをトレーニングします。その後、より高度にキュレーションされたデータセットを使用して、これらのモデルをさらにトレーニングします。このプロセスは、子供が成長する過程で質の高い環境や情報を提供することに似ており、質の高いAIモデルを育成するためには、同様の努力が必要です。
AIのセキュリティに関しては、待つことはできません。AIの「家族」の歴史を完全に理解し、重大な問題が複製され、私たちが毎日依存する重要なシステムに感染し、経済的および社会的な害を引き起こすのを防ぐためには、「23andMe」のようなアプリケーションが必要です。
このような取り組みは、AIの安全性を確保し、その潜在的なリスクを最小限に抑えるために不可欠です。また、AI技術の健全な発展と社会へのポジティブな貢献を促進するためにも、重要な役割を果たします。
from Why You Need to Know Your AI's Ancestry.