メインコンテンツに移動

Supermicro、完全統合された NVIDIA A100 GPU 搭載システムでポートフォリオを拡張

シングル 4U サーバーで5 PetaFLOPS の AI パフォーマンスを実現

カリフォルニア州サンノゼ、2020 年 5 月 14 日 — Super Micro Computer, Inc. (Nasdaq: SMCI) は、エンタープライズコンピューティング、ストレージ、ネットワークソリューション、グリーンコンピューティングテクノロジーのグローバルリーダーです。同社は本日、人工知能(AI)ディープラーニングアプリケーション向けに設計された新しい「NVIDIA A100™ Tensor Core GPU」を搭載し第 3 世代 NVIDIA HGX™ テクノロジーを最大限に活用した2つの新しいシステムを発表しました。同時に、同社の種類豊富な 1U、2U、4U、10U GPU サーバーのポートフォリオにおいても、新しいNVIDIA A100 GPUのサポートを発表しました。NVIDIA A100 は、トレーニング、推論、HPC、分析を統合した初のエラスティックマルチインスタンスGPUです。

Supermicro の社長兼最高経営責任者(CEO)であるチャールズ・リアン(Charles Liang)は、次のように述べています。「Supermicro は、業界をリードするGPUシステムのポートフォリオと NVIDIA HGX-2 システムテクノロジーを拡張し、NVIDIA HGX™ A100 4 GPUボード(開発コード名 Redstone)を実装した新しい2Uシステムと、5 PetaFLOPS の AI パフォーマンスを実現する『NVIDIA HGX A100 8 GPUボード』(開発コード名Delta)を実装した新しい 4U システムを発表します。GPU で高速化されたコンピューティングが進化し、データセンターを変革し続ける中で、Supermicro はお客様に最新のシステムを提供し、GPU使用率を最適化しながら、あらゆる規模で最大の高速化を達成するお手伝いをします。これらの新しいシステムは、HPC、データ分析、ディープラーニングトレーニング、ディープラーニング推論のすべての高速化ワークロードにおいて、パフォーマンスを大幅に向上させます。」

HPC およびAIアプリケーション向けのバランスの良いデータセンタープラットフォームとして、Supermicro の新しい2Uシステムは、最大のパフォーマンスが得られる PCI-E 4.0 と、高速な GPU 間相互接続を可能にする「NVIDIA NVLink™」を使用して直接接続する NVIDIA A100 Tensor Core GPU を 4 つ搭載した NVIDIA HGX A100 4 GPU ボードを採用しています。この高度な GPU システムは、最大 200Gb/秒の帯域幅をサポートする InfiniBand™ HDR™ などの GPUDirect RDMA の 高速ネットワークカードと、ストレージ向けに 1 つの PCI-E 4.0 x8 と、最大 4 つの PCI-E 4.0 x16 拡張スロットを備えており、コンピューティングおよびネットワーク、ストレージパフォーマンスの高速化を実現します。

NVIDIA のゼネラルマネージャー兼アクセラレーテッド コンピューティング担当バイスプレジデントであるイアン バック(Ian Buck)氏は次のように述べています。「AI モデルは、正確な対話型AIや、ディープレコメンダーシステム、個別化医療など、次のレベルの課題に取り組むにつれ、複雑さを増しています。NVIDIA HGX A100 プラットフォームを新しいサーバーに実装することで、Supermicro はお客様に強力なパフォーマンスと大規模な拡張性を提供し、研究者が最も複雑なAIネットワークを比類のない速度でトレーニングすることを可能にします。」

AI と機械学習向けに最適化された Supermicro の新しい4Uシステムは、A100 Tensor Core GPU を 8 基サポートしています。GPU 8 基に対応した 4U のフォームファクターは、処理量の拡大に応じたデプロイメントの拡張を希望しているお客様に理想的です。この新しい 4U システムは、最大 600GB/秒の GPU 間帯域幅を実現する NVIDIA NVSwitch™ で完全に相互接続された A100 GPU を 8 基搭載した、NVIDIA HGX A100 8 GPU ボード1基と、GPUDirect RDMA の高速ネットワークカード用に拡張スロットを8基備えています。この理想的なディープラーニングトレーニングによって、データセンターは、10 基の x 16 拡張スロットのサポートも含め、次世代の AI を構築します。くわえて、データサイエンティストの生産性を最大限に高めるためにこのスケールアッププラットフォームを利用することができます。

お客様は、新しい NVIDIA A100 GPU を搭載した、Supermicro の 1U、2U、4U、10U マルチ GPU サーバーの種類豊富なポートフォリオ全体で、大幅なパフォーマンスの向上が期待できます。最大限の高速化を実現するため、Supermicro の新しいA+ GPU システムは、レイテンシを最小限に抑えます。また帯域幅を最大限に高めるため、PCI-E スイッチを使わずに直接接続するPCI-E 4.0 x16 CPUーGPU レーンを介して、最大8基のフルハイトダブルワイド(または、シングルワイド)GPU をサポートします。このシステムは、最大3つの高性能 PCI-E 4.0 拡張スロットに対応しており、最大 100G の高性能ネットワーク接続などのさまざまな用途に利用できます。追加の AIOM スロットは、Supermicro AIOM カードまたは OCP 3.0 メザニンカードをサポートします。

AI システムテクノロジーにおけるリーダーとして、Supermicro はマルチ GPU 向けに最適化された熱設計で、AI、ディープラーニング、HPC アプリケーションに最高のパフォーマンスと信頼性を提供します。1U、2U、4U、10U ラックマウントGPUシステム、Ultra、BigTwin™、およびGPUをサポートする組み込み型システム、そして8U SuperBlade® 向けの GPU ブレードモジュールを通じて、Supermicro はエッジからクラウドまで、アプリケーションを強化する GPU システムに、業界で最も幅広く深みのある選択肢を提供します。

強化されたセキュリティと比類のないパフォーマンスをエッジで実現するために、Supermicro は、新しい NVIDIA EGX™ A100 構成をエッジサーバーポートフォリオに追加する予定です。EGX A100 コンバージドアクセラレーターは、Mellanox SmartNIC と新しいNVIDIA Ampereアーキテクチャを搭載した GPU を組み合わせており、企業がエッジでより安全にAIを運用することを可能にします。