移至主內容

Supermicro 推出搭載 NVIDIA HGX A100 8-GPU 的最高密度 4U 伺服器和支援 20 張 A100 PCI-E GPU 的 8U SuperBlade®,以擴展產品組合

彈性的 4U 系統提供 6 倍 AI 訓練效能和 7 倍推論工作負載容量及最高密度,而最新的 SuperBlade 可在 8U 規格中支援最多 40 張 GPU

【2020 年 10 月 5 日加州聖荷西訊】Super Micro Computer, Inc. (Nasdaq:SMCI) 為企業級運算、儲存、網路解決方案和綠色運算技術等領域的全球領導者,今日宣佈推出支援 8 張 NVIDIA® HGX A100™ GPU 且擁有雙倍 GPU 功能的全新 4U 伺服器。Supermicro 供應業界最多樣化的 GPU 系統產品組合,涵蓋 1U、2U、4U 和 10U 的 GPU 伺服器與 SuperBlade 伺服器,並提供各種可自訂組態。

Supermicro 在推出最新的 NVIDIA HGX A100™ 8-GPU 伺服器後,目前供應的 GPU 系統選擇為業界類型最廣、規格最多樣,能為邊緣到雲端等應用提供優異效能。整個產品組合包括 1U、2U、4U 和 10U 機架式 GPU 系統;Ultra、BigTwin™ 和嵌入式解決方案,並可選擇搭載 AMD EPYC™ 和支援 Intel® Deep Learning Boost 技術的 Intel ® Xeon 處理器。

Supermicro 執行長暨總裁 Charles Liang 表示:「Supermicro 推出採用 NVIDIA HGX™ A100 8-GPU 主機板 (原代號為 Delta) 的全新 4U 系統,與目前的系統相比,可提供 6 倍 AI 訓練效能和 7 倍推論工作負載容量。此外,最新發表的 NVIDIA HGX™ A100 4-GPU 主機板 (原代號為 Redstone) 顯示出廣泛的市場接受度,讓我們對接下來全球客戶的迴響有著高度期待。這些最新的 Supermicro 系統可針對瞬息萬變市場所需的加速工作負載大幅提升整體效能,使用在包括高效能運算 (HPC)、資料分析、深度學習訓練和推論等領域。」

最新高密度的 2U 和 4U 伺服器採用 Supermicro 的進階散熱設計 (包括客製化散熱片和選購的水冷系統),並搭載 NVIDIA HGX A100 4-GPU 和 8-GPU 主機板,另外還推出支援 8 張 NVIDIA A100 PCI-E GPU 的全新 4U 伺服器 (即日起供貨)。Supermicro 的進階 I/O 模組 (AIOM) 規格具有高靈活性,可進一步提升網路通訊功能。AIOM 可搭配高速、低延遲的最新 PCI-E 4.0 儲存與網路裝置使用,支援 NVIDIA GPUDirect® RDMA 和 GPUDirect Storage,並可透過 NVIDIA Mellanox® InfiniBand 的 NVME over Fabrics (NVMe-oF) 將連續資料流饋入可擴展的多重 GPU 系統,而不會出現瓶頸。此外,Supermicro 的鈦金級電源供應器能提升系統的省電效率,能源效率為業界最高的 96%,不只省下更多電費,還能為 GPU 提供備援支援。

NVIDIA 產品管理與行銷部資深協理 Paresh Kharya 表示:「Supermicro 搭載 NVIDIA A100 的系統可快速擴充至數千張 GPU,或可使用最新的多執行個體 GPU 技術,將每張 A100 GPU 分割成 7 個獨立的 GPU 執行個體,以執行不同的工作。支援 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的運算容量,無需變更任何程式碼。」

Supermicro 搭載 HGX A100 4-GPU 的進階 2U 設計

此 2U 系統搭載 NVIDIA HGX A100 4-GPU 主機板,並採用 Supermicro 的進階散熱片設計,在滿載下仍可維持最佳的系統溫度,且外型規格精簡輕巧。系統可透過 NVIDIA NVLink® 執行高 GPU 點對點通訊,可安裝最高 8TB 的 DDR4 3200Mhz 系統記憶體,具備 5 個支援 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,還有 4 個支援 GPUDirect Storage 功能的可熱插拔 NVMe。

搭載 HGX A100 8-GPU 的高密度、多功能 4U 設計

最新 4U GPU 系統搭載 NVIDIA HGX A100 8-GPU 主機板,具備最多 6 個 NVMe U.2 和 2 個 NVMe M.2、10 個 PCI-E 4.0 x16 插槽,並採用 Supermicro 獨家的 AIOM,能透過 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技術堆疊,支援系統之間的高效 8-GPU 通訊與資料流。系統使用 NVIDIA NVLink 和 NVSwitch 技術,適合用於大規模的深度學習訓練、研究或國家實驗室專用的神經網路模型應用、超級運算叢集和高效能運算雲端服務。

搭載 20 張 A100 PCI-E GPU 的超高密度、節能 8U SuperBlade

這款業界最高密度的 GPU 刀鋒伺服器裝載在 Supermicro 的 8U SuperBlade 機殼內,可支援最多 20 個節點和 40 張 GPU,每節點兩張單寬 GPU,或每節點一張 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸內裝入 20 張 NVIDIA A100 GPU,進一步提升運算效能密度,且尺寸更小巧,能為客戶降低總體擁有成本 (TCO)。為支援 GPU 最佳化的配置並維持高需求 AI 應用程式所需的頂尖效能和傳輸量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 網路基礎架構,可加速深度學習並支援即時分析和決策。SuperBlade 同時具備高密度、可靠度和可升級性,為企業應用程式提供 AI 服務的完美建構基礎。

業界最多樣化的 GPU 加速系統產品組合

Supermicro 持續支援各種規格的 NVIDIA 高階 GPU,專為客戶的獨特使用案例情境和需求最佳化。1U GPU 系統可透過 NVLink 容納最多 4 張 NVIDIA GPU,已通過包括 NEBS 第 3 級認證、5G/邊緣就緒的 SYS-1029GQ 等認證。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系統支援最多 6 張 NVIDIA V100 GPU,可在同一系統內容納雙 PCI-E 控制源 (Dual PCI-E Root Complex) 功能。最後,如 SYS-9029GP-TNVRT 等 10U GPU 伺服器支援最多 16 張 V100 SXM3 GPU,並可搭載內建 AI 加速能力的雙 Intel Xeon 可擴充處理器。

彈性的解決方案系列採用 NVIDIA GPU 和 NVIDIA NGC™ 生態系統提供的 GPU 軟體,能為各種工作提供適合的建構基礎,滿足不同產業組織的需求,適用於開發模型的 AI 推論、高效能運算到高階訓練等應用。