人工知能(AI)
文:Emma Chervek

Microsoftが新しいカスタムチップを発表=AIワークロード向けにクラウドを最適化

Microsoftが新しいカスタムチップを発表=AIワークロード向けにクラウドを最適化

米Microsoftが年次イベント「Ignite 2023」で、AIインフラと「Azure Kubernetes Service」(AKS)のアップデートを発表した。同社は高性能を必要とするAIワークロードを支えるデータセンターのハードウェア、ソフトウェアスタックの全レイヤーを最適化することを目指しており、今回のアップデートはその一環だ。

CCO(最高コミュニケーション責任者)のFrank Shaw(フランク・ショー)氏が「全体的変容」と表現する変化が始まって1年以上が経つ。ITチームはまったく新しい働き方を経験し、AIがさまざまな業界、ワークフローで勢い付いている様子がよく伝わってくる。

「当社はこのAI時代に、さらに先を目指して加速する中で、クラウド基盤の再構想を進めています」。Shaw氏は今月上旬、記者団に語っている。今回のアップデートはクラウドハイパースケーラーとして「システムアプローチを取る」戦略に沿ったものだとした。

また、ハードウェアとソフトウェアシステムを総合的に考慮して構築した2つのデータセンター向けカスタムチップを発表。いずれも来年にAzureで利用可能になる予定だ。

「Microsoft Azure Maia」はAIに最適化されたGPUで、OpenAIの大規模言語モデル(LLM)やChatGPT、GitHub CopilotのようなAIワークロード向けに、クラウドベースのトレーニングや推論を実行するために作られている。汎用ワークロード向けには「Microsoft Azure Cobalt」をリリース。Armアーキテクチャをベースに、従来型のワークロード向けに性能、電力効率、コスト効率を改善したクラウドネイティブなチップとなっている。

また、「Azure Boost」の一般提供も開始された。ネットワーク、ストレージ、ホスト管理など、通常はホストサーバーで実行する仮想化プロセスを、こうしたプロセスに最適化されているとする(専用の)ハードウェア、ソフトウェアに移行したシステムだ。これにより、データセンターのストレージとネットワークの性能を市場で最速のレベルに向上させたとShaw氏は述べている。

具体的には、リモートストレージ性能はスループット12.5 Gbps、65万IOPS、ローカルストレージ性能はスループット17.3 Gbps、380万IOPSとなっている。

さらに、AI分野をリードする半導体企業のAMD、NVIDIAとの協業を拡大。AIワークロードのトレーニング、構築、展開を支援する。仮想マシン(VM)「ND MI300 v5」はAMDの最新GPU「Instinct MI300X」を活用、高範囲のAIモデルトレーニングと生成AIの推論の両方でAIワークロード処理を高速化することを目的としている。

「NC H100 v5 VM」(プレビュー版)はNVIDIAのGPU「H100」を利用。同VMシリーズはミッドレンジのAIトレーニングおよび生成AIの推論をターゲットとしており、信頼性、パフォーマンス、効率が向上しているとした。

「H100」はGPUのメモリ容量が従来のものよりも大きく、VM内の各GPUで多くのデータを保持することで、データ処理とワークロードのパフォーマンスを全体として最適化することが可能となっている。

 

AI向けにKubernetesを最適化

Microsoftはまた、コンテナオーケストレーションプラットフォームのAKSにAI/機械学習(ML)ワークロードの実行機能を追加した。手動設定を減らし、AIのコストを削減している。新しくリリースされた「Kubernetes AI toolchain operator」は、モデルに最適なサイズのインフラを選択することで、AKS上でのLLMモデルのデプロイを自動化するマネージドアドオンだ。

これにより、推論をGPU数の少ない複数のVMに分割するプロセスが簡単なものになり、ワークロードを実行できるクラウドリージョンの数が増えるとともに、GPU数の多いVMについては待ち時間が短縮され、AIを使用するための全体的なコストも削減される。また、プリセットモデルとAKSでホストするイメージを追加、推論サービスのセットアップにかかる時間を短縮した。

こうしたAKSのアップデートは現在、一般提供されている。

Microsoft’s new custom chips optimize cloud for AI workloads

Emma Chervek
Emma Chervek Reporter

SDxCentralのレポーター。
データセンターのテクノロジーとビジネスケース、環境の持続可能性、クラウドネイティブエコシステムを担当。エマは愛犬コビーとデンバーに住み、世界一の散歩を一緒に楽しんでいる。
連絡先:echervek@sdxcentral.com
X:@emmachervek

Emma Chervek
Emma Chervek Reporter

SDxCentralのレポーター。
データセンターのテクノロジーとビジネスケース、環境の持続可能性、クラウドネイティブエコシステムを担当。エマは愛犬コビーとデンバーに住み、世界一の散歩を一緒に楽しんでいる。
連絡先:echervek@sdxcentral.com
X:@emmachervek

記事一覧へ