企業は、ChatGPTによる情報漏洩のリスクに対抗するために、生成型AI(gen AI)を活用しています。Fortune 500企業の80%以上がChatGPTを導入し、ハーバード大学の研究によると、従業員のパフォーマンスは40%向上しています。MITの研究では、ChatGPTがスキルの不平等を減少させ、文書作成時間を短縮し、効率的な時間の使い方を可能にしていることが明らかになりました。しかし、従業員の70%が上司に使用を報告していないため、知的財産や機密情報の漏洩リスクが高まっています。
この問題に対処するため、多くの企業はgen AIに基づくセキュリティ対策に注目しています。例えば、National Oilwell Varco(NOV)のCIOであるAlex Philipsは、ChatGPTとgen AIの利点とリスクについて教育し、最小限のリスクで最大の価値を得る方法を模索しています。CiscoやEricom Security by CradlepointのGenerative AI Isolation、Menlo Security、Nightfall AI、Wiz、Zscalerなどが、ChatGPTセッションのセキュリティを確保する新技術を提供しています。
これらの技術は、Ericom Security by Cradlepointが提供するバーチャルブラウザを介したクラウドプラットフォームでのデータ損失防止やアクセスポリシーの適用、Nightfall AIが提供するリアルタイムでの機密データのスキャンと削除など、異なるアプローチを取っています。
VentureBeatは、ChatGPTやその他のgen AIベースのチャットボットを完全に禁止することが逆効果であると指摘しており、IT部門が使用を停止しようとすると、新しいAIアプリのダウンロードが増え、機密データの安全性を維持する課題が増大すると述べています。CIOやCISOは、知識ベースのビジネスとして競争力を維持するために、最新の技術と手法を常に把握し、データを保護する必要があります。
Ericom Cybersecurity Unit of Cradlepointのマーケティング副社長であるGerry Grealishは、「生成型AIウェブサイトは比類のない生産性向上を提供するが、組織はそれに伴うリスクに積極的に対処する必要がある」と述べており、彼らのGenerative AI Isolationソリューションは、生成型AIの可能性を活用しつつ、データ損失、マルウェアの脅威、法的およびコンプライアンスの課題から保護するバランスを企業に提供するとしています。
from How enterprises are using gen AI to protect against ChatGPT leaks.