/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

Google Cloud Nextで発表: Nvidiaの次世代技術が2025年に登場

Google Cloud Nextで、ラスベガスでNvidiaの次世代Blackwellプラットフォームが2025年に利用可能になることや、AI向けの新インスタンスとアクセラレータの追加が発表されました。これにより、AIとHPCワークロードの性能が向上します。【用語解説とAIによる専門的コメントつき】

Published

on

Google Cloud Nextがラスベガスで開催され、新しいインスタンスタイプやアクセラレータがGoogle Cloud Platformに追加されることが発表された。この中で、Nvidiaの次世代Blackwellプラットフォームが2025年初頭にGoogle Cloudで利用可能になることが明らかにされた。Blackwellプラットフォームには、AIとHPCワークロード向けの高性能Nvidia HGX B200と、大規模言語モデル(LLM)トレーニング用のGB200 NBL72が含まれ、GB200サーバーは液冷式である。NvidiaはBlackwellチップが今年の最後の四半期に一般公開されると述べている。

Googleは、現在LLMをトレーニングするためにより多くのパワーが必要な開発者向けに、A3 Megaインスタンスも発表した。このインスタンスはNvidiaと共同で開発され、業界標準のH100 GPUを搭載しつつ、GPUあたりの帯域幅を2倍にする新しいネットワーキングシステムを組み合わせている。また、GoogleはA3 Confidentialインスタンスも発表し、これは訓練と推論中に機密データとAIワークロードの機密性と完全性をよりよく保護することを可能にする。

Google自身のチップに関しては、同社は最も強力な自社製AIアクセラレータであるCloud TPU v5pプロセッサを一般公開した。これらのチップは、浮動小数点演算の速度を2倍、メモリ帯域幅の速度を3倍に向上させる。また、Googleは新しいAI最適化ストレージオプションも発表し、Hyperdisk MLブロックストレージサービスはモデルのロード時間を最大3.7倍改善する。

さらに、Google CloudはIntelの第4世代および第5世代Xeonプロセッサを搭載したより伝統的なインスタンスも導入している。新しい一般目的のC4およびN4インスタンスは、第5世代Emerald Rapids Xeonsを搭載し、C4は性能に、N4は価格に焦点を当てている。新しいC4インスタンスはプライベートプレビュー中で、N4マシンは今日から一般公開されている。また、新しいがプレビュー中のC3ベアメタルマシン、X4メモリ最適化ベアメタルインスタンス、およびストレージ最適化仮想マシンであるZ3も発表された。

【ニュース解説】

Google Cloud Nextがラスベガスで開催され、Google Cloud Platformに新しいインスタンスタイプやアクセラレータが追加されることが発表されました。特に注目されるのは、Nvidiaの次世代Blackwellプラットフォームが2025年初頭にGoogle Cloudで利用可能になるという発表です。このプラットフォームは、AIと高性能コンピューティング(HPC)ワークロードに特化した高性能なNvidia HGX B200と、大規模言語モデル(LLM)トレーニング用のGB200 NBL72を含み、GB200サーバーは液冷式であることが特徴です。

この発表の背景には、AI技術の進化とそれに伴う計算需要の増大があります。特に、大規模言語モデルのトレーニングは膨大な計算リソースを必要とするため、より高性能なハードウェアの開発が求められています。Blackwellプラットフォームの導入により、Google Cloudはこのような高度な計算ニーズに応えることができるようになります。

また、Googleは現在のニーズに応えるため、A3 MegaインスタンスとA3 Confidentialインスタンスも発表しました。A3 Megaインスタンスは、GPUあたりの帯域幅を2倍にする新しいネットワーキングシステムを組み合わせたH100 GPUを搭載しており、A3 Confidentialインスタンスは、機密データとAIワークロードの機密性と完全性を保護するためのものです。

Google自身のチップであるCloud TPU v5pプロセッサも一般公開され、これはGoogleが自社で開発したAIアクセラレータの中で最も強力なものです。これらのチップは、AIモデルのトレーニングと推論の速度を大幅に向上させることができます。

さらに、Google Cloudは新しいAI最適化ストレージオプションや、Intelの第4世代および第5世代Xeonプロセッサを搭載したインスタンスも導入しました。これらの新しいインスタンスとストレージオプションは、AIモデルのトレーニングや推論、その他の計算タスクをより効率的に行うための基盤を提供します。

このように、Google Cloudの新しい発表は、AI技術の進化に伴う計算ニーズの増大に対応するためのものです。これらの技術が実用化されれば、AIモデルのトレーニング時間の短縮、エネルギー効率の向上、機密データの保護など、多くのメリットが期待できます。しかし、これらの高性能な技術の導入には、コストや環境への影響など、検討すべき課題もあります。また、AI技術の急速な発展は、社会や法律に対する新たな課題をもたらす可能性もあるため、技術の進化とともに、これらの課題に対する対応も重要になってきます。

from Nvidia’s next-gen Blackwell platform will come to Google Cloud in early 2025.

Trending

モバイルバージョンを終了