Nvidiaは、AIを活用してビデオゲームのキャラクターをチャットボットに変換する技術を開発しています。この技術は、ゲーム開発者会議(GDC)で公開された「Covert Protocol」というプレイアブルな技術デモを通じて紹介されました。このデモでは、AIが駆動するNPC(ノンプレイヤーキャラクター)がプレイヤーの行動に応じてユニークな反応を生成し、リアルタイムのゲームプレイに合わせた新しい応答を生み出します。
プレイヤーはプライベート探偵として、AI駆動のNPCとの会話に基づいて目標を達成します。Nvidiaによると、プレイヤーのリアルタイムのインタラクションによって、各プレイスルーが「ユニーク」になり、異なるゲーム結果につながるとのことです。このデモは、NvidiaのAvatar Cloud Engine(ACE)技術を使用しており、AIゲームスタートアップのInworld AIとの共同開発によるものです。
また、NvidiaはAudio2Face技術も紹介し、これが英語と中国語の両方でのスピーチにリップシンクするキャラクターを示すMMO「World of Jade Dynasty」のクリップで披露されました。この技術は、複数言語でゲームを作成する際に、キャラクターを手動で再アニメーションすることなく、より簡単にすることを目指しています。
Inworld AIは、「Covert Protocol」のソースコードを近い将来公開する予定であり、他の開発者がNvidiaのACEデジタルヒューマン技術を採用することを奨励しています。さらに、2023年11月にはMicrosoftとのパートナーシップを発表し、AI駆動のキャラクター、ストーリー、クエストを作成するためのXboxツールの開発を支援しています。
これらの技術デモは、ゲーム開発者がAI駆動のNPCを自分たちのタイトルに追加することを試みるきっかけとなるかもしれませんが、少なくとも会話の面では大きな進歩は見られません。しかし、AIの採用が声優のキャリアや生計にどのような影響を与えるかについて、声優たちの間で懸念が生じています。
【ニュース解説】
NvidiaがAIを活用してビデオゲームのキャラクターをチャットボットに変換する技術を開発していることが、ゲーム開発者会議(GDC)で発表されました。この技術は、プレイヤーの行動に応じてNPC(ノンプレイヤーキャラクター)がリアルタイムでユニークな反応を生成し、ゲームプレイをよりダイナミックで個別化された体験にすることを可能にします。
この技術の核となるのは、NvidiaのAvatar Cloud Engine(ACE)というAIツールです。これにより、NPCはプレイヤーとの対話中に自然な会話や反応を生成できるようになります。例えば、プレイアブルな技術デモ「Covert Protocol」では、プレイヤーはプライベート探偵として、AI駆動のNPCとの会話を通じて様々な目標を達成します。このプロセスは、プレイヤーの選択に基づいて異なる結果を生み出し、各プレイスルーをユニークな体験にします。
また、NvidiaはAudio2Face技術も紹介しました。これは、キャラクターが英語や中国語など複数の言語で話す際に、リップシンクを自然に行うことができる技術です。これにより、開発者は複数言語に対応するゲームを作成する際に、キャラクターのアニメーションを手動で再作成する手間を省くことができます。
この技術の導入により、ゲーム開発者はプレイヤーにより没入感のある体験を提供できるようになります。NPCがプレイヤーの行動や選択に応じてリアルタイムで反応することで、ゲーム内の物語や対話がよりダイナミックで予測不可能なものになります。これは、ゲームの再プレイ価値を高め、プレイヤーに新鮮な体験を提供し続けることができるという点で、大きな進歩です。
しかし、この技術の進歩には懸念も伴います。特に、AIによるキャラクターの声や反応の生成が、声優の仕事にどのような影響を与えるかが問題となっています。AIが人間の声優を代替する可能性があるため、声優のキャリアや生計に悪影響を及ぼす可能性があります。
長期的には、この技術はゲーム業界におけるAIの役割を再定義し、ゲームの制作プロセスを変革する可能性を秘めています。しかし、その過程で生じる倫理的な問題や職業的な影響について、業界全体で慎重な議論と対応が求められるでしょう。
from Nvidia is using AI to turn game characters into chatbots.