跳至主要內容

領先的液冷式AI叢集

配備 32 台 NVIDIA HGX H100/H200 8-GPU、4U 液冷系統(共 256 顆 GPU),分佈於 5 個機架中

  • 透過Supermicro客製化液冷解決方案,將運算密度提升一倍,同時為資料中心節省高達40%的電力成本
  • 單一可擴展單元內含256顆NVIDIA H100/H200 GPU
  • 單一可擴展單元內配備20TB HBM3記憶體搭配H100,或36TB HBM3e記憶體搭配H200
  • 每顆GPU皆配備1:1網路連接,啟用NVIDIA GPUDirect RDMA與儲存功能,用於訓練參數規模高達數兆的大型語言模型
  • 可客製化的AI資料管道儲存結構,提供業界領先的平行式檔案系統配置
  • 支援 NVIDIA Quantum-2 InfiniBand 與 Spectrum-X 以太網路平台
  • 通過NVIDIA AI Enterprise平台認證,包括NVIDIA NIM微服務
NVIDIA HGX H100/H200 8 GPU 配置
NVIDIA HGX H100/H2008 GPU配置
下載資料表

運算節點

Supermicro 液冷式 8-GPU 系統 (型號:SYS-421GE-TNHR2-LCC 或 AS-4125GS-TNHR2-LCC)
32組 NVIDIA HGX H100/H200 8-GPU、4U液冷系統(共256顆GPU),配置於5個機架中
精選資源