Nvidiaの次世代AIチップ「Blackwell」は、CEOのJensen Huangによると、1ユニットあたり30,000ドルから40,000ドルの間で販売される予定である。このチップは、AIソフトウェアのトレーニングや展開に高い需要が見込まれる。Nvidiaは、Blackwellの開発に約100億ドルの研究開発費を投じ、新技術を導入した。Blackwellは物理的に前世代のチップよりも大きく、2つのチップを組み合わせている。
Nvidiaは約2年ごとに新世代のAIチップを発表しており、Blackwellのような最新世代は通常、より高速でエネルギー効率が良い。2022年末にOpenAIのChatGPTが発表されて以来、AIブームが加速し、NvidiaのAIチップは売上を3倍に増加させた。主要なAI企業や開発者は、過去1年間にNvidiaのH100を使用してAIモデルをトレーニングしている。例えば、Metaは数十万のNvidia H100 GPUを購入している。
Nvidiaはチップのリスト価格を公開しておらず、価格は購入するチップの量や、Nvidiaから直接完全なシステムで購入するか、Dell、HP、Supermicroなどのベンダーを通じてAIサーバーを構築するかなどの要因によって変動する。一部のサーバーは最大8つのAI GPUで構築される。
Nvidiaは、Blackwell AIアクセラレータの少なくとも3つの異なるバージョン、B100、B200、および2つのBlackwell GPUとArmベースのCPUを組み合わせたGB200を発表した。これらは若干異なるメモリ構成を持ち、今年後半に出荷される予定である。
【ニュース解説】
NvidiaのCEO、Jensen Huang氏によると、同社の次世代AIチップ「Blackwell」は、1ユニットあたり30,000ドルから40,000ドルで販売される予定です。このチップは、AIソフトウェアのトレーニングや展開において高い需要が見込まれています。NvidiaはBlackwellの開発に約100億ドルの研究開発費を投じ、新技術を導入しました。物理的には前世代のチップよりも大きく、2つのチップを組み合わせています。
Nvidiaは約2年ごとに新世代のAIチップを発表しており、Blackwellのような最新世代は通常、より高速でエネルギー効率が良いとされています。2022年末にOpenAIのChatGPTが発表されて以来、AIブームが加速し、NvidiaのAIチップは売上を3倍に増加させました。主要なAI企業や開発者は、過去1年間にNvidiaのH100を使用してAIモデルをトレーニングしています。例えば、Metaは数十万のNvidia H100 GPUを購入しています。
Nvidiaはチップのリスト価格を公開しておらず、価格は購入するチップの量や、Nvidiaから直接完全なシステムで購入するか、Dell、HP、Supermicroなどのベンダーを通じてAIサーバーを構築するかなどの要因によって変動します。一部のサーバーは最大8つのAI GPUで構築されます。
Nvidiaは、Blackwell AIアクセラレータの少なくとも3つの異なるバージョン、B100、B200、および2つのBlackwell GPUとArmベースのCPUを組み合わせたGB200を発表しました。これらは若干異なるメモリ構成を持ち、今年後半に出荷される予定です。
このニュースから読み取れるのは、AI技術の進化と普及に伴い、高性能なAIチップへの需要が高まっているということです。Blackwellのような高価なチップが、AIソフトウェアのトレーニングや展開において重要な役割を果たすことが予想されます。しかし、その高価格が、特にスタートアップや中小企業にとっては、AI技術の導入の障壁となる可能性もあります。一方で、Nvidiaが新技術の開発に莫大な投資を行っていることは、AI技術のさらなる進化を促進する可能性を示しています。
また、Nvidiaが複数のバージョンのAIアクセラレータを提供することで、異なるニーズに応える柔軟性を持たせている点も注目されます。これにより、AI技術の普及がさらに加速することが期待されます。しかし、このような高性能チップの普及には、エネルギー消費の増加や、AI技術の倫理的な問題など、新たな課題も伴います。これらの課題に対処しながら、AI技術の健全な発展を促進することが、今後の大きな課題となるでしょう。
from Nvidia's latest AI chip will cost more than $30,000, CEO says.