人工知能(AI)
文:Emma Chervek

NVIDIA、Google Cloudがアクセラレータープログラムを共同提供=生成AI領域

NVIDIA、Google Cloudがアクセラレータープログラムを共同提供=生成AI領域

NVIDIAとGoogle Cloudが9日、AIのスタートアップ企業を対象とした両社のアクセラレータープログラムを統合する提携を発表した。クラウドクレジットやGTM戦略のサポート、技術的知識を提供することで、生成AIアプリケーションの開発にまつわる障壁を下げる。

統合するのは「NVIDIA Inceptionプログラム」と「Google for Startupsクラウドプログラム」だ。いずれかのプログラムに参加していれば、もう一方のプログラムの特典も受けられるようになる。

NVIDIA Inceptionに参加している18,000社を超えるスタートアップは、最大35万ドルのGoogle Cloudクレジットを受け取り、同クラウドを活用しやすくなる。

現在Google for Startupsクラウドプログラムに参加している企業も、NVIDIA Inceptionに参加すれば、同プログラムで提供されている技術的知識や「NVIDIA Deep Learning Institute」のクレジット、NVIDIA製のハードウェアおよびソフトウェアを利用することが可能だ。さらに、生成AIに関心のあるベンチャーキャピタルとスタートアップをつなぐ「NVIDIA Inception Capital Connect」に参加することもできる。

既に両方に参加し、成長軌道に入っている場合でも、Google Cloudマーケットプレイスへの迅速なオンボーディング、共同マーケティング支援、製品の高速化支援を受けられるという恩恵がある。

「NVIDIA Blackwell GPU」をGoogle Cloudで

また、来年早期にNVIDIAの最新アーキテクチャ「Blackwell」をベースとしたGPUがGoogle Cloudで利用可能になるという。採用製品は「NVIDIA HGX B200」「NVIDIA GB200 NVL72」だ。

HGX B200はAI/データ分析/HPC(高性能計算)ワークロードの処理に最適な製品で、GB200 NVL72は非常に大規模なモデルのトレーニングおよびリアルタイム推論向けの製品だ。パラメータ数は最大1兆個まで対応可能となっている。

GB200 NVL72は「Grace Blackwell Superchip」を36個搭載、それぞれが2基のBlackwell GPUと1基のGrace CPUを900Gbpsの通信が可能なチップ間インターコネクト(NVLink-C2C)で接続した構成になっている。1つのNVLinkドメインで最大72基のBlackwell GPUを接続、メモリ帯域幅は130Tbpsとなっている。

NVIDIAによれば、同製品は通信のボトルネックを解消したことで単一のGPUのような動作が可能になっており、前世代と比較してLLMの推論が30倍、トレーニングが4倍高速化しているという。

Google Cloudは同製品の導入後、第4世代の液冷システムと組み合わせてリソースの利用効率を最大化する予定だとしている。

Nvidia, Google Cloud accelerate genAI startups

Emma Chervek
Emma Chervek Reporter

SDxCentralのレポーター。データセンターのテクノロジーとビジネス ケース、環境の持続可能性、クラウドネイティブ エコシステムを担当。エマは愛犬コビーとデンバーに住み、世界一の散歩を一緒に楽しんでいる。
連絡先:echervek@sdxcentral.com
X:@emmachervek

Emma Chervek
Emma Chervek Reporter

SDxCentralのレポーター。データセンターのテクノロジーとビジネス ケース、環境の持続可能性、クラウドネイティブ エコシステムを担当。エマは愛犬コビーとデンバーに住み、世界一の散歩を一緒に楽しんでいる。
連絡先:echervek@sdxcentral.com
X:@emmachervek

記事一覧へ