メインコンテンツに移動

Supermicroが近くリリースのHBM3eメモリー搭載NVIDIA HGX H200およびMGX Grace HopperプラットフォームでAIソリューションを拡張

Supermicroは、より高速で大容量のHBM3eメモリーを備えたLLMアプリケーション向けのNVIDIA HGX H200およびGrace Hopper Superchipのサポートにより、8 GPU、4 GPU、MGXの製品ラインを拡張-NVIDIA HGX 8-GPUを搭載した新しい革新的なSupermicro液冷4Uサーバーは、ラックあたりのコンピューティング密度を2倍にし、ラックあたり最大80kWでTCOを削減します

【サンノゼ(米カリフォルニア州)、デンバー2023年11月13日PR Newswire=共同通信JBN】Supercomputing Conference(SC23)-- Super Micro Computer, Inc.(NASDAQ: SMCI)は、AI、クラウド、ストレージ、5G/EdgeのためのトータルITソリューションを提供するメーカーです。同社は、H200 Tensor Core GPUを搭載した新しいNVIDIA HGX H200を近くサポートすることによって、AIの範囲を拡大します。8Uおよび4UユニバーサルGPUシステムを含むSupermicroの業界をリードするAIプラットフォームは、HGX H200 8 GPUおよび4 GPUにドロップイン対応可能で、NVIDIA H100 TensorコアGPUと比較してほぼ2倍の容量と1.4倍高い帯域幅のHBM3eメモリーを備えています。さらに、Supermicro NVIDIA MGX(TM)システムの最も広範なポートフォリオは、近くリリースされるHBM3eメモリー搭載のNVIDIA Grace Hopper Superchipをサポートします。前例のないパフォーマンス、スケーラビリティ、信頼性を備えたSupermicroのラックスケールAIソリューションは、計算集約型のジェネレーティブAI、大規模言語モデル(LLM)トレーニング、HPCアプリケーションのパフォーマンスを加速し、同時に拡大するモデルサイズの進化する要求にも対応します。Supermicroは、ビルディングブロックアーキテクチャーを使用して、新しいテクノロジーを迅速に市場に投入し、顧客がより早く生産性を向上できるようにします。

Supermicroはまた、最新の Supermicro 液冷ソリューションを利用した、液冷4UシステムにNVIDIA HGX H100 8 GPUシステムを搭載した業界最高密度のサーバーも導入しています。業界で最もコンパクトな高性能GPUサーバーにより、データセンターオペレーターは設置面積とエネルギーコストを削減できると同時に、単一ラックで最高のパフォーマンスのAIトレーニング能力を提供できます。この最高密度のGPUシステムを使用すると、組織は最先端の液体冷却ソリューションを活用してTCOを削減できます。

Supermicro のチャールズ・リアン(Charles Liang)社長兼最高経営責任者(CEO)は次のように述べています。「SupermicroはNVIDIAと提携して、AIトレーニングとHPCアプリケーション向けの最先端のシステムを設計しています。当社のビルディングブロックアーキテクチャーによって、当社は最新テクノロジーをいち早く市場に投入することができ、顧客はこれまでよりも迅速にジェネレーティブAIを展開できるようになります。当社は、世界各地に展開する製造施設を利用して、これらの新しいシステムをより迅速に顧客に提供できます。900GB/秒のNVIDIA(R)NVLink(TM)およびNVSwitch(TM)高速GPU-GPUインターコネクトを備えたNVIDIA H200 GPUを使用するこの新しいシステムは、当社のラックスケールAIソリューションにおいて、ノードあたり最大1.1TBの高帯域幅HBM3eメモリーを提供し、今日のLLMおよびジェネレーティブAIにとって最高のモデル並列性能を提供します。当社はまた、ラックスケールAIソリューションの密度を2倍にし、エネルギーコストを削減して、今日の高速化されたデータセンターのグリーンコンピューティングを実現する、世界で最もコンパクトなNVIDIA HGX 8-GPU液冷サーバーを提供できることを嬉しく思います」

NVIDIA GPUを搭載したSupermicroサーバーの詳細はここを参照してください

Supermicroは、さまざまなフォームファクターを備えたAIサーバーの幅広いポートフォリオを設計および製造しています。4ウェイおよび8ウェイNVIDIA HGX H100 GPUを搭載した人気の8Uおよび4UユニバーサルGPUシステムが、新しいH200 GPUにドロップインできるようになり、さらに大規模な言語モデルを短時間でトレーニングできるようになりました。各NVIDIA H200 GPUには4.8TB/秒の帯域幅を持つ141GBのメモリーが搭載されています。

NVIDIAのHPC、AI、量子コンピューティング向けのデータセンター製品ソリューションのディレクターであるDion Harris氏は次のように述べました。「NVIDIA HGX H200を使用したSupermicroの今後のサーバー設計は、ジェネレーティブAIおよびHPCワークロードの高速化に役立ち、企業や組織がAIインフラストラクチャーを最大限に活用できるようになります。高速HBM3eメモリーを搭載したNVIDIA H200 GPUは、さまざまなワークロードで大量のデータを処理できるようになります」

さらに、NVIDIA GH200 Grace Hopper Superchipを搭載した最近発売されたSupermicro MGX サーバーは、HBM3eメモリーを備えたNVIDIA H200 GPUを組み込むように設計されています。

新しいNVIDIA GPUにより、数千億のパラメーターを擁する現在および将来の大規模言語モデル(LLM)の加速が可能になり、よりコンパクトで効率的なクラスターに適合し、より短時間でジェネレーティブAIをトレーニングできるほか、リアルタイムLLM推論のために複数のより大きなモデルを1つのシステムに適合させ、数百万のユーザーにジェネレーティブAIを提供することもできます。

SupermicroはSC23で、AIの進化を推進するために密度と効率をさらに向上させる最新の液冷イノベーション装備の8ウェイNVIDIA HGX H100を搭載した最新製品4UユニバーサルGPUシステムを展示します。グリーンコンピューティング向けに設計されたSupermicroの業界をリードするGPUおよびCPUコールドプレート、CDU(冷却分配ユニット)、CDM(冷却分配マニホールド)を搭載する新しい液冷4UユニバーサルGPUシステムは、8ウェイNVIDIA HGX H200にも対応しており、Supermicroの完全に統合された液冷ラックソリューションとL10、L11、L12検証テストを通じて、データセンターの設置面積、電力コスト、導入のハードルが大幅に削減します。

MGX

詳細な情報については、SC23のSupermicroブースを訪問してください。