跳至主要內容
端對端AI資料中心解決方案

在現今的AI時代,衡量算力的單位不再僅基於伺服器的數量。經互連的GPU、CPU、記憶體、儲存,以及這些機架內多個節點的運算資源,為目前的AI技術奠定了基礎。運算基礎設施需要高速且低延遲的網路結構,以及經精密設計的冷卻技術和電力供應,以維持每個資料中心環境的最佳效能和效率。Supermicro的SuperCluster解決方案可為正快速進步的生成式AI和大型語言模型(LLM)提供端對端AI資料中心解決方案。

  • 完善的大規模式整合

    設計並製造完整的機架和叢集,全球製造產能最高可達 5,000 機架 機架/月

  • 透過現場服務進行測試、驗證和部署

    L11、L12測試程序可在出貨前針對運作效能與效率進行完整驗證

  • 液冷 / 氣冷技術

    包括GPU與CPU冷板、冷卻液分配單元與歧管的完善整合式液冷或氣冷解決方案

  • 供應與庫存管理

    一站式服務——可快速、及時提供完全整合式機架,加速交付時間,實現快速部署

AI超級叢集

Supermicro的完善一站式資料中心解決方案可加快關鍵型企業應用的交付時間,並消除叢集建置所產生的複雜性。此前,這些建置程序需要大量的設計調整和耗時的超級運算最佳化作業。

液冷式2UNVIDIA HGX B300AI

完全整合式液冷144節點叢集,配備高達1152顆NVIDIA B300 GPU

  • NVIDIA HGX B300 憑藉緊湊型 2-OU 液冷系統節點,實現無可匹敵的AI 效能密度
  • Supermicro 直接液冷解決方案,具備 1.8MW 容量的列間 CDU (提供機架式 CDU 選項)
  • 大型HBM3e GPU記憶體容量(每顆GPU配備288GB* HBM3e記憶體)及基礎模型訓練所需的系統記憶體佔用空間
  • 採用 NVIDIAQuantum-X800InfiniBand 實現橫向擴展,打造ultra、高頻寬AI
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
* 實體 GPU 記憶體
下載Datasheet

運算節點

Supermicro 液冷 NVIDIA® HGX™ B300 8-GPU 系統 (SYS-222GS-NB3OT-ALC)
11 組機架內共配置 144 台 NVIDIA® HGX™ B300 8-GPU、2-OU 液冷Supermicro (共 1,152 顆 GPU),並搭配兩台機架內冷卻分配單元(CDU)

液冷式4U NVIDIA HGX B300AI

完全整合的液冷式72節點叢集,配備多達576顆NVIDIA B300 GPU

  • 部署高效能AI 與推論,採用針對運算密度與可維護性優化的 NVIDIA HGX B300
  • Supermicro 直接液冷解決方案,專為持續高功率運作和提升能源效率而設計
  • 大型HBM3e GPU記憶體容量(每顆GPU配備288GB* HBM3e記憶體)及基礎模型訓練所需的系統記憶體佔用空間
  • 透過 NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-X800InfiniBand 實現橫向擴展
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
* 實體 GPU 記憶體
下載Datasheet

運算節點

Supermicro 液冷 NVIDIA® HGX™ B300 8-GPU 系統 (SYS-422GS-NB3RT-ALC 或 SYS-422GS-NB3RT-LCC)
11 個機架內共配置 72 台 NVIDIA® HGX™ B300 8-GPU、4U 液冷Supermicro (共 576 顆 GPU)

風冷式 8U NVIDIA HGX B300AI

完全整合式風冷 32 節點叢集,最高可配備 256 顆 NVIDIA HGX B300 GPU 及 73.7TB 總 HBM3e 記憶體

  • 基於參考架構的全端解決方案,包含Supermicro 、NVIDIA GPU、NVIDIA 軟體及 NVIDIA 網路設備
  • 最多可配備 256 顆 NVIDIA HGX B300 GPU,提供高達 73.7 TB 的總 HBM3e 記憶體(每顆 GPU 配備 288 GB HBM3e*)
  • 與 NVIDIA 軟體套件(NVIDIAAI 和 NVIDIA Run:ai)的相容性
  • 即插即用解決方案,系統已完全整合至機架中,並於出貨前及現場部署時均經過測試
  • 透過 NVIDIASpectrum-X以太網運算架構或 NVIDIA Quantum-X800 InfiniBand 進行橫向擴展;內建融合網路與帶外管理功能
  • Supermicro AI 解決方案已獲得 NVIDIA 認證,適用於基礎架構配置、Spectrum-X網路,以及基於 NVIDIA HGX B300 企業參考架構的軟體參考堆疊
* 實體 GPU 記憶體
NVIDIA® HGX™ B300 8-GPU
NVIDIA HGX B300風冷版
了解更多下載產品規格書

運算節點

Supermicro 風冷式 NVIDIA® HGX™ B300 8-GPU 系統 (SYS-822GS-NB3RT 或 AS-8126GS-NB3RT)
20 個機架內共配置 72 台 NVIDIA® HGX™ B300 8-GPU、8U 風冷式Supermicro (共 576 顆 GPU)

液冷式NVIDIA HGX B200AI叢集

最多可在5個機架中搭載32個NVIDIA HGX B200 8-GPU的4U液冷系統(最多256個GPU)

  • 部署頂尖AI 與推論效能,單一可擴展單元(5個機架)內配備256張NVIDIA B200 GPU
  • Supermicro直接液冷技術,具有可支援250kW散熱性能的機架內(In-Rack)冷卻液分配裝置(CDU),以及備援PSU和雙熱插拔幫浦
  • 單一可擴充單元可支援45TB的HBM3e記憶體
  • 可透過400Gb/s NVIDIASpectrum™-X乙太網路或NVIDIA Quantum-2 InfiniBand進行水平擴充
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA® HGX™ B200 8-GPU
液冷式NVIDIA HGX B200系統
下載Datasheet

運算節點

Supermicro 4U 液冷式 8-GPU 系統 (SYS-422GA-NBRT-LCC 或 AS -4126GS-NBR-LCC)
32台 NVIDIA HGX B200 8-GPU、4U液冷系統(共256顆GPU),配置於5個機架中

氣冷式NVIDIA HGX B200 AI叢集

可在9組機架內配置32個NVIDIA HGX B200 8-GPU 10U氣冷式系統(256個GPU)

  • 經驗證的業界領先架構,可支援全新散熱最佳化氣冷系統平台
  • 單一可擴充單元可支援45TB的HBM3e記憶體
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA® HGX™ B200 8-GPU
氣冷式NVIDIA HGX B200系統
了解更多下載產品規格書

運算節點

Supermicro 10U 風冷 8-GPU 系統 (SYS-A22GA-NBRT 或 AS -A126GS-TNBR)
9 組機架內共配置 32 台 NVIDIA® HGX™ B200 8-GPU、10U 風冷式Supermicro (共 256 顆 GPU)

NVIDIA GB300 NVL72

單一機架內的液冷式Exascale運算系統

  • 機架級解決方案,配備 NVIDIA GB300 Grace™ BlackwellSuperchip ,每機架Superchip 72 顆 NVIDIA B300 GPU 及 36 顆 Grace CPU
  • NVIDIAUltra ,每顆 GPUUltra 288GB HBM3e
  • 採用直接液冷技術,可將資料中心的電費降低多達 40%
  • 提供從諮詢到全面部署的一站式服務,包含所有必要零件、網路解決方案及現場安裝服務
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 最高 800 Gb/s 的 NVIDIA Quantum-2 InfiniBand 或Spectrum-X以太網,內建 NVIDIA ConnectX®-8 SuperNIC
NVIDIA GB300 Grace BlackwellSuperchip
NVIDIA GB300Grace Blackwell Superchip
下載Datasheet

機架解決方案

Supermicro NVIDIA GB300 NVL72 超級叢集 (液對液)
5 組機架內共配置 72SuperchipNVIDIA® GB300 Grace BlackwellSuperchip Supermicro 托盤

NVIDIA GB200 NVL72

單一機架內的液冷式Exascale運算系統

  • 72顆 NVIDIA Blackwell B200 顯示卡整合為單一顯示單元,配備龐大的 HBM3e 記憶體池(每機架 13.5TB)
  • 9x NVLink 交換器,每組運算托盤配備 4 個連接埠,可串接 72 顆 GPU,提供 1.8TB/s 的 GPU 間互連效能
  • Supermicro直接液冷技術,具有可支援250kW散熱性能的機架內(In-Rack)冷卻液分配裝置(CDU),以及備援PSU和雙熱插拔幫浦
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA GB200 Grace BlackwellSuperchip
NVIDIA GB200 Grace Blackwell Superchip
下載Datasheet

機架解決方案

Supermicro NVIDIA GB200 NVL72 超級叢集 (液對液)
5 個機架內共計 72SuperchipNVIDIA® GB200 Grace BlackwellSuperchip Supermicro

NVIDIA RTX PRO™ 超級叢集

搭載 NVIDIA RTX PRO 6000 Blackwell 伺服器版的AI 解決方案

  • 基於參考架構的全端解決方案,包含Supermicro 、NVIDIA GPU、NVIDIA 軟體及 NVIDIA 網路設備
  • 最多可配備 256 張 NVIDIA RTX PRO 6000 Blackwell 伺服器版 GPU,提供高達 24TB 的 GDDR7 記憶體
  • 與 NVIDIA 軟體套件(NVIDIAAI 、NVIDIA Omniverse 及 NVIDIA Run:ai)的相容性
  • 即插即用解決方案,系統已完全整合至機架中,並於出貨前及現場部署時均經過測試
  • 內建 NVIDIASpectrum-X以太網運算架構、融合網路及帶外管理功能
  • Supermicro AI 解決方案已獲得 NVIDIA 認證,適用於基礎架構配置、Spectrum-X網路架構,以及基於 NVIDIA RTX PRO 6000 Blackwell 伺服器版企業參考架構的軟體參考堆疊
NVIDIA® RTX PRO™ 6000 Blackwell 伺服器版
NVIDIARTX PRO6000 Blackwell 伺服器版
了解更多下載產品規格書

運算節點

領先的液冷式AI叢集

共計 5 組機架,內含32 台 NVIDIA HGX H200 8-GPU、4U 液冷系統(256 顆 GPU)

  • 透過Supermicro的客製化液冷解決方案,可將資料中心運算密度提升一倍,並降低最多40%的電力成本
  • 單一可擴展單元內配備 256 顆 NVIDIA H200 GPU
  • 單一可擴展單元內整合 36TB HBM3e 與 H200
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA® HGX™ H200 8-GPU
NVIDIA HGX H2008-GPU
下載Datasheet

運算節點

Supermicro 4U 液冷 8-GPU 系統 (SYS-421GE-TNHR2-LCC 或 AS -4125GS-TNHR2-LCC)
5 組機架內共配置 32 台 NVIDIA® HGX™ H200 8-GPU、4U 液冷Supermicro (共 256 顆 GPU)

經認證的設計

共計9 組機架,內含 32 台 NVIDIA HGX H200 8-GPU、8U 風冷系統(共 256 顆 GPU)

  • 經認證的業界領先架構,適用於大規模AI基礎設施部署
  • 單一可擴展單元內配備 256 顆 NVIDIA H200 GPU
  • 單一可擴展單元內整合 36TB HBM3e 與 H200
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 可客製化的AI資料管道儲存結構,提供業界領先的平行式檔案系統配置
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA® HGX™ H200 8-GPU
NVIDIA HGX H2008-GPU
下載Datasheet

運算節點

Supermicro 8U 風冷 8-GPU 系統 (SYS-821GE-TNHR 或 AS -8125GS-TNHR)
9 組機架內共配置 32 台 NVIDIA® HGX™ H200 8-GPU、8U 風冷式Supermicro (共 256 顆 GPU)
資源

某些產品可能未在您所在的地區上市