メインコンテンツに移動

Supermicro、AIやHPC、クラウドのさまざまなワークロードを加速させる 革新的なGPUシステムのポートフォリオを拡大

第3世代インテルXeonスケーラブル・プロセッサーを搭載した NVIDIA HGX A100 4-GPUシステムおよびリソース・セービング2U 2ノードGPUシステム

カリフォルニア州サンノゼ、2021 年 10 月 14 日 -- Super Micro Computer, Inc. (Nasdaq: SMCI)は、エンタープライズコンピューティング、ストレージ、ネットワーク、グリーンコンピューティングテクノロジーのグローバルリーダーです。同社は、NVIDIA®AmpereアーキテクチャGPUとAIアクセラレータ内蔵(Supermicro X12シリーズ)の第3世代インテルXeonスケーラブル・プロセッサーを搭載した革新的なGPUシステムのポートフォリオ拡大を発表しました。これらのサーバーは、低遅延で高いアプリケーション処理性能が不可欠な要求の厳しいAIアプリケーション向けに設計されています。2UのNVIDIA HGX™A100 4 GPUシステムは、CPU-GPUおよびGPU-GPU間の高速な相互接続により、最新のAIトレーニングクラスターの大規模な展開に適しています。Supermicro 2U 2ノードシステムは、電源と冷却ファンを共有することでエネルギー使用量とコストを削減し、炭素排出量を低減すると同時に、ワークロードに合わせてさまざまなディスクリートGPUアクセラレータをサポートします。これらのシステムはいずれも、最新のインテル®ソフトウェア・ガード・エクステンションズ(インテル®SGX)によって高度なハードウェアセキュリティ機能を実現しています。

Supermicro の社長兼最高責任者(CEO)であるチャールズ・リアン(Charles Liang)は、次のように述べています。「Supermicro のエンジニアは、市場に存在する他の設計と比較して、コスト、スペース、消費電力を削減する高性能なGPUを搭載したシステムの広範なポートフォリオを拡張しています。当社の革新的な設計により、AIやHPCワークロード向けの4つのGPUアクセラレータを搭載するNVIDIA HGX A100(開発コード名:Redstone)を高密度な2Uフォームファクターでお客様に提供することが可能です。また、2U 2ノードシステムは、電源と冷却コンポーネントを共有する独自の設計となっており、OPEX(運用費)と環境への影響を低減します。」

2UのNVIDIA HGX A100サーバーは、インテル®ディープラーニング・ブースト(インテル®DL ブースト)テクノロジーを搭載する第3世代インテルXeonスケーラブル・プロセッサーを採用しており、分析、トレーニング、推論のワークロード向けに最適化されています。このシステムは、NVIDIA NVLink®によって完全に相互接続された4つのA100 GPUと最大320GBのGPUメモリーを備え、最大2.5ペタフロップスのAIパフォーマンスを提供し、エンタープライズデータサイエンスやAIの進歩を飛躍的に加速します。このシステムは、BERT大規模推論などの複雑な会話型AIモデルで、前世代のGPUよりも最大4倍の速度を実現し、BERT大規模AIトレーニングでは最大3倍のパフォーマンス向上を実現します。

さらに、高度な熱設計および冷却設計により、ノード密度と電力効率が重要となる高性能クラスターに最適なシステムです。また、これらのシステムは液冷を選択することも可能なため、OPEXをより一層削減することができます。このプラットフォームでは、インテルOptane™パーシステント・メモリー(PMem)もサポートされており、GPUでの処理の前に、CPUに近いメモリーに大規模なモデルを保持することができます。また、マルチシステムの相互接続を必要とするアプリケーション向けに、4枚のNVIDIA ConnectX®6 200Gb/s InfiniBandカードを搭載でき、GPU-DPU比1:1でGPUDirect RDMAをサポートします。

新しい2U 2ノードは、各ノードで最大3枚のダブルワイドGPUカードをサポートするよう設計されており、エネルギー効率に優れたリソース・セービング・アーキテクチャを採用しています。各ノードは、AIとHPCのアクセラレーション機能を備えた最大40コアの第3世代インテルXeonスケーラブル・プロセッサーを1基搭載します。このCPUとGPUの優れたバランスにより、人工知能(AI)、レンダリング、仮想デスクトップ(VDI)などの幅広いアプリケーションに対応します。SupermicroのアドバンスドI/Oモジュール(AIOM)拡張スロットを搭載し、高速で柔軟性のあるネットワーク機能を備えたこのシステムは、ワークロードと学習モデルを確保し、要求の厳しいAI/機械学習(ML)アプリケーションやディープラーニング(DL)のトレーニング、推論のための膨大なデータフローを処理することも可能です。また、マルチインスタンスのハイエンドクラウドゲーミングやその他多くの演算負荷が高いVDIアプリケーションにも最適です。さらに、仮想コンテンツデリバリーネットワーク(vCDN)が、ストリーミングサービスへの高まる需要に対応します。電源の冗長化にも対応しており、障害が発生した場合でも、どちらのノードも隣接するノードの電源を使用することができます。