【ダイジェスト】
MicrosoftとOpenAIは、ハッカーがChatGPTのような大規模言語モデルを使用して、既存のサイバー攻撃を洗練させ、改善していることを明らかにしました。これらのグループは、研究、スクリプトの改善、ソーシャルエンジニアリング技術の構築のためにChatGPTを利用しています。ロシア、北朝鮮、イラン、中国の支援を受けたグループが、ターゲットの研究、スクリプトの改善、フィッシングメールの作成にChatGPTを使用していることが検出されました。
ロシアの軍事情報に関連するStrontiumグループは、衛星通信プロトコル、レーダーイメージング技術、特定の技術パラメーターを理解するためにLLMを使用しています。北朝鮮のThalliumグループは、公に報告された脆弱性の研究、基本的なスクリプトタスクの支援、フィッシングキャンペーンのコンテンツ作成にLLMを使用しています。イランのCuriumグループは、フィッシングメールの生成やアンチウイルスアプリケーションによる検出を回避するコードの作成にLLMを利用しています。中国の国家関連ハッカーも、研究、スクリプト、翻訳、既存ツールの洗練にLLMを使用しています。
MicrosoftとOpenAIは、LLMを使用した「重大な攻撃」はまだ検出されていないものの、これらのハッキンググループに関連するすべてのアカウントと資産を閉鎖しています。AIを使用したサイバー攻撃の将来的な使用例として、声の模倣などが懸念されています。Microsoftは、AI攻撃に対応するためにAIの使用を提案しており、セキュリティ専門家向けの新しいAIアシスタント「Security Copilot」の開発や、ソフトウェアのセキュリティの全面的な見直しを行っています。
【ニュース解説】
MicrosoftとOpenAIが発表した最新の研究によると、ハッカーたちはChatGPTのような大規模言語モデル(LLM)を利用して、サイバー攻撃の手法を洗練させ、改善していることが明らかになりました。これらの攻撃者は、ロシア、北朝鮮、イラン、中国といった国家支援を受けたグループに属しており、ターゲットの研究、スクリプトの改善、フィッシングメールの作成などにLLMを活用しています。
この動きは、サイバーセキュリティの分野におけるAI技術の利用が、攻撃側にも防御側にも拡大していることを示しています。例えば、ロシアのStrontiumグループは、衛星通信プロトコルやレーダーイメージング技術の理解を深めるためにLLMを使用しています。また、北朝鮮のThalliumグループやイランのCuriumグループは、フィッシングメールの作成や脆弱性の研究にLLMを利用しており、中国のハッカーも同様の目的でLLMを使用しています。
このようなAI技術の利用は、サイバー攻撃の手法をより洗練されたものにし、検出を困難にする可能性があります。特に、フィッシングメールの作成においては、より説得力のある内容を生成することが可能になり、被害者を騙す確率が高まります。さらに、将来的には声の模倣など、より高度な詐欺手法が可能になることが懸念されています。
これに対抗するため、MicrosoftはAIを活用したセキュリティ対策の強化を進めています。例えば、セキュリティ専門家向けのAIアシスタント「Security Copilot」の開発を進めており、これによりセキュリティツールから生成される膨大なデータとシグナルをより効率的に分析し、侵害を特定することが可能になります。
しかし、AI技術の進化は、攻撃者と防御者の間での「武装競走」を加速させる可能性もあります。AIを利用した攻撃が洗練される一方で、それを検出し防御するためのAI技術も進化する必要があります。このような状況は、サイバーセキュリティの専門家にとって新たな挑戦を意味し、継続的な技術革新と教育が求められることになります。
また、この問題は、AI技術の規制や倫理的な使用に関する議論を促進する可能性もあります。AI技術がもたらす利益は計り知れないものがありますが、その悪用によるリスクも無視できません。したがって、技術の発展と共に、その使用を適切に管理し、監視するための国際的な枠組みの構築が重要になってくるでしょう。
from Microsoft and OpenAI say hackers are using ChatGPT to improve cyberattacks.