メインコンテンツに移動

Supermicro、20のA100 PCI-E GPUをサポートするNVIDIA HGX A100 8-GPUと8U SuperBlade®を搭載した、最高密度の4Uサーバーでポートフォリオを拡張

柔軟な 4U システムで、6 倍の AI トレーニング性能と 7 倍の推論ワークロード容量および最高密度を実現し、8U で最大 40 の GPU をサポートする新しい SuperBlade

カリフォルニア州サンノゼ、2020年10月5日 -- Super Micro Computer, Inc. (Nasdaq: SMCI)、エンタープライズコンピューティング、ストレージ、ネットワークソリューション、グリーンコンピューティングテクノロジーのグローバルリーダーである同社は本日、8 つの NVIDIA® HGX A100™ GPU をサポートし、GPU 機能を倍増させる新しい 4U サーバーを発表しました。Supermicro は、幅広いカスタマイズ可能な構成の 1U、2U、4U、10U の GPU サーバーとSuperBladeサーバーを含む、業界で最も広範なGPUシステムのポートフォリオを提供しています。

Supermicro は現在、エッジからクラウドまでアプリケーションを強化する新しいNVIDIA HGX A100™ 8-GPU サーバーを搭載した、業界で最も幅広く深みのある GPU システムの選択肢を提供しています。ポートフォリオ全体には、1U、2U、4U、10UラックマウントGPUシステム、Ultra、BigTwin™、およびAMD EPYC™とインテル® Xeon プロセッサーの両方を搭載し、インテル®ディープラーニング・ブーストテクノロジーを採用した組み込みソリューションが含まれます。

Supermicro の CEO 兼社長である Charles Liang は、次のように述べています。「Supermicroは、NVIDIA HGX™ A100 8GPU ベースボード(開発コード名:Delta)を実装した新しい 4U システムを発表し、現行システムと比較して6倍の AI トレーニング性能と7倍の推論ワークロード容量を実現しています。また、先日発表した NVIDIA HGX™ A100 4-GPU ボード(開発コード名:Redstone)は市場で広く受け入れられており、グローバルなお客様との継続的なエンゲージメントを嬉しく思っています。これらの新しい Supermicro のシステムは、HPC、データ分析、ディープラーニングトレーニング、推論など、急速に変化する市場で必要とされる高速化ワークロードの全体的パフォーマンスを大幅に向上させます」

カスタムヒートシンクやオプションの液冷を含む Supermicro の高度な熱設計を活用した最新の高密度2Uおよび4Uサーバーは、NVIDIA HGX A100 4-GPU 8-GPU ベースボードと、8 つの NVIDIA A100 PCI-E GPU をサポートする新しい4Uサーバーを特色としています(本日出荷)。Supermicro のアドバンスドI/Oモジュール(AIOM)フォームファクターは、高い柔軟性でネットワーク通信をさらに強化します。AIOMは、NVIDIA GPUDirect ®RDMA および GPUDirect Storage と、拡張可能なマルチGPUシステムにボトルネックのない連続したデータストリームを提供する NVIDIA Mellanox® InfiniBand 上のNVME over Fabrics(NVMe-oF)をサポートする最新の高速、低遅延の PCI-E 4.0ストレージおよびネットワークデバイスと組み合わせることができます。さらに、Supermicro のチタニウム・レベル電源は、GPU の冗長サポートを可能にしながら環境にやさしいシステムを保ち、業界最高となる 96% の効率性でさらなるコスト削減を実現します。

「NVIDIA A100 を搭載した Supermicro システムは、数千もの GPU にすばやく拡張することができます。また、新しいマルチインスタンス GPU テクノロジーを使用して、各 A100 GPU を7つの分離された GPU インスタンスに分割し、異なるジョブを実行することもできます」と、NVIDIAの製品マネジメントおよびマーケティングシニアディレクター、Paresh Kharya 氏は語っています。「TensorFloat 32 を搭載したNVIDIA A100 Tensor コア GPU は、いかなるコードの変更も必要とせずに、前世代と比較して最大20倍の計算能力を提供します」

Supermicro による HGX A100 4-GPU 向けの高度な 2U 設計

この2Uシステムは、Supermicroの高度なサーマルヒートシンク設計を採用したNVIDIA HGX A100 4GPUベースボードを搭載し、コンパクトなフォームファクターでフルロード時も最適なシステム温度を維持します。このシステムは、NVIDIA NVLink®を介した高GPUピアツーピア通信、最大8TBのDDR4 3200Mhzシステムメモリー、GPUDirect RDMA をサポートする5つのPCI-E 4.0 I/Oスロット、および GPUDirect Storage 機能を備えた4つのホットスワップ対応NVMeを実現します。

HGX A100 8-GPU を搭載した高密度で汎用性の高い 4U 設計

新しい 4U GPU システムは、NVIDIA HGX A100 8GPU ベースボード、最大6つのNVMe U.2と2つの NVMe M.2、10 の PCI-E 4.0 x16 スロットを搭載し、Supermicro 独自の AIOM サポートにより、GPUDirect RDMA、GPUDirect Storage、InfiniBand 上の NVMe-oF などの最新テクノロジースタックを通じて、8-GPU の通信とシステム間のデータフローを促進します。システムは NVIDIA NVLink とNVSwitch テクノロジーを採用しています。大規模なディープラーニングトレーニング、研究調査や国立研究所向けのニューラルネットワークモデルアプリケーション、スーパーコンピューティングクラスター、HPC クラウドサービスなどに最適です。

20 の A100 PCI-E GPU を搭載した超高密度でエネルギー効率の高い 8U SuperBlade

業界最高密度の GPU ブレードサーバーは、Supermicro の 8U SuperBlade エンクロージャにおいて、1ノードあたり2つのシングル幅 GPU、または1ノードあたり1つの NVIDIA Tensor コア A100 PCI-E GPU で、最大 20 のノードと40のGPUをサポートすることができます。8U に 20 の NVIDIA A100 GPU を搭載することで、より小さなフットプリントで計算能力の密度を高め、TCOを節約できます。GPU に最適化された構成をサポートし、要件の厳しい AI アプリケーションに必要とされる最高レベルのパフォーマンスとスループットを維持するために、SuperBlade は 100% ノンブロッキングの HDR 200Gb/s InfiniBand ネットワークインフラストラクチャを提供し、ディープラーニングを加速して、リアルタイムの分析と意思決定を可能にします。SuperBlade は、高い密度と信頼性、アップグレード性により、AI 主導のサービスを提供するエンタープライズアプリケーションに理想的なビルディング・ブロックとなります。

業界で最も広範な GPU 高速化システムのポートフォリオ

Supermicro は、お客様特有の使用事例のシナリオや要件に合わせて最適化された多様なフォームファクターで、NVIDIA の高度な GPU のサポートを続けています。1U GPU システムには、NEBSレベル 3 認定の5G/エッジ対応 SYS-1029GQ を含む、NVLink 対応の NVIDIA GPU が最大4つ搭載されています。SYS-2029GP-TR など、Supermicro の 2U GPU システムは、1 つのシステムでデュアル PCI-E ルートコンプレックス機能により最大 6 つの NVIDIA V100 GPU をサポートすることができます。そして最後に、SYS-9029GP-TNVRT などの 10U GPU サーバーは、デュアルインテル Xeon スケーラブル・プロセッサーと内蔵の AI アクセラレーションで 16 のV100 SXM3 GPU 拡張をサポートします。

NVIDIA NGC™ エコシステムの NVIDIA GPU と GPU ソフトウェアによる柔軟で幅広いソリューションは、開発モデルでの AI 推論から HPC、ハイエンドのトレーニングまで、さまざまな分野に対応する組織の、多様なタスクに適したビルディング・ブロックを提供します。