サイバーセキュリティニュース

合成身元詐欺の脅威拡大、2030年には230億ドルの損失予測

サイバーセキュリティとAI技術の進化に伴い、合成身元詐欺(Synthetic Identity Fraud)が増加。2030年までに230億ドルの損失が予測される中、企業は多層的な対策と従業員トレーニングを強化し、AI企業もリスク軽減に努める必要がある。【用語解説とAIによる専門的コメントつき】

Published

on

Synthetic Identity Fraudは、盗まれた個人情報や偽造された情報を用いてデジタル上で架空の個人を作り出す詐欺の一形態であり、その脅威は急速に増加している。サイバーセキュリティ専門家は、新たなテクノロジーの開発が追いつくまでAIによる詐欺が悪化すると予測しており、Wakefield Researchの調査では、Synthetic Identity Fraudの被害額が2030年までに230億ドルに達する可能性があるとされている。

Generative AIの悪用により、サイバー犯罪者はディープフェイク動画や音声プリントを作成し、企業を詐欺するために使用している。Generative AIの普及により、偽の画像を簡単かつ安価に生成することが可能になり、高度な組織犯罪者は巧妙なスクリプトを迅速かつ安価に作成できるようになった。

Synthetic Identity Fraudへの対策として、企業は多層のアプローチを採用し、顧客の行動分析や人工知能を使用して詐欺者と本物の顧客を区別することが重要である。また、顧客の行動を長期間にわたって理解し続け、認証を継続する必要がある。従業員のトレーニングを強化し、リスクを見つける能力を向上させるとともに、技術的な制御だけでなく、規制やポリシーの制定も必要であり、人工知能企業もリスク軽減のために役割を果たす必要がある。

【ニュース解説】

近年、サイバー犯罪者が人工知能(AI)を利用して、合成身元詐欺(Synthetic Identity Fraud)を行うケースが増加しています。合成身元詐權は、盗まれた個人情報や偽造された情報を組み合わせて、デジタル上で存在しない人物を作り出し、詐欺行為を行う手法です。このような詐欺は、実際の人物の生年月日や社会保障番号などの情報に、偽のメールアドレスや電話番号などを加えて行われます。

Generative AI技術の普及により、サイバー犯罪者はより簡単かつ安価に偽の画像やディープフェイク動画、音声プリントを作成できるようになりました。これにより、企業を騙すための偽造身分証明書やその他の文書を生成することが可能になり、詐欺の手口がより巧妙かつ迅速になっています。

この問題に対処するためには、企業が多層的な防御策を採用することが重要です。顧客の行動分析やAIを用いて、詐欺者と本物の顧客を区別する技術の使用が挙げられます。また、顧客の行動を長期間にわたって監視し、その間にも認証を継続することが求められます。さらに、従業員のトレーニングを強化し、人間によるリスク要因を減らすことも重要です。

しかし、技術的な対策だけでは不十分であり、規制やポリシーの制定も必要です。AI技術の安全性とセキュリティに関する新しい基準を導入する政府の取り組みは良い一歩ですが、AIの脅威に対処するためにはさらなる規制が必要とされています。また、AI企業自身も、自社の技術に関連するリスクを理解し、適切な使用法を教育し、自社のプラットフォームをコントロールする責任があります。

合成身元詐欺の問題は、今後も悪化する可能性が高いと予測されています。2030年までには、この種の詐欺による損失が230億ドルに達する可能性があるとされています。このため、企業、政府、AI技術提供者は、この脅威に対処するために協力し、継続的に対策を講じる必要があります。

from Why Criminals Like AI for Synthetic Identity Fraud.

Trending

モバイルバージョンを終了