NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro 實測報告:與 NVIDIA HGX B200 共度一週
SupermicroJumpStart 計畫採用截然不同的硬體評估方式。與在共享實驗室環境中進行簡短的預先編排演示不同,JumpStart 計畫為符合資格的客戶提供免費、限時、裸機存取真實生產伺服器目錄的權限。
透過Intel® TDX、NVIDIA機密運算,以及搭載NVIDIA HGX™ B200 GPU的Supermicro伺服器,保護AI工作負載:A Foundation for Confidential AI at Scale
本白皮書探討Intel的Trust Domain Extensions(TDX)、NVIDIA機密運算,以及基於HGX B200的Supermicro系統,如何為新一代AI基礎設施提供強大、安全、可擴充的平台。
Supermicro 8x NVIDIA H200 GPUAI 風AI
今日我們繼續探討大型AI 聚焦Supermicro 。當業界討論Supermicro AI 實力時,這款採用空氣冷卻技術的NVIDIA伺服器,正是市場上獨樹一幟的系統之一。
Supermicro AMD EPYC AI (型號:AS-4125GS-TNRT)
Supermicro 多種規格的GPU伺服器,其型號之多遠非本文所能詳述。本次我們聚焦該公司較新的4U風冷GPU伺服器,其支援AMD EPYC 系列處理器、PCIe Gen5介面,並可配置八張雙寬度或十二張單寬度附加GPU卡。
Supermicro Nvidia 攜手打造解決方案,加速汽車與航太產業的計算流體動力學模擬
配備 NVIDIA 資料中心 GPU 的Supermicro CFD 模擬帶來顯著加速,縮短製造企業的產品上市時間
液冷式Supermicro 8x NVIDIA H100AI
今日我們要來檢視這款液冷式Supermicro 伺服器。這是Supermicro8 組 NVIDIA H100 系統,但具備一項獨特設計:採用液冷技術以降低散熱成本與功耗。既然已備妥相關照片,我們便決定將其納入本次評測內容。
Supermicro ProphetStor 為多租戶大型LLM 實現最高 GPU 效能
在AI 和機器學習的動態世界中,在多租戶環境中有效管理 GPU 資源是最重要的,尤其是在大型語言模型LLM) 訓練方面。
3000WAMD Epyc 實錄,特邀 Level1Techs 的溫德爾
我們正在檢視一款專為AI 機器學習優化的伺服器。Supermicro 大量心力,將盡可能多的元件塞進 2114GT-DNR(2U2N)這款密度優化伺服器中。其結構設計相當精妙:這個 2U 機箱內實質容納了兩套系統。 兩組冗餘電源供應器各具2,600W功率,稍後將說明如此高功率的需求原因。此伺服器AMD Instinct GPU與Epyc Supermicro 設計Supermicro 工程水準。
Supermicro :高密度人工智慧AI 學習伺服器
我們最新的資料中心系統內建最高密度的先進 NVIDIA Ampere GPU 與快速 GPU-GPU 互連,以及第 3 代 Intel® Xeon® Scalable 處理器。在本 TECHTalk 中,我們將展示如何在 4U 機架高度的封裝中實現無與倫比的AI 效能。
混合式雙路雙GPU工作站伺服器平台Supermicro 實機體驗
今日我們將透過探討Supermicro 來為最新系列畫下句點。這款 2U 雙節點 6 GPU 系統,Patrick 近期在Supermicro 親身體驗過。
Supermicro NVIDIA Redstone 2U 伺服器
今日我們將探討Supermicro ,Patrick日前在Supermicro 親身體驗了這款產品。
揭開GPU系統設計Supermicro SC21與IDC的技術對話
由Supermicro 首席產品經理 Josh GrossmanSupermicro IDC 基礎架構系統研究總監 Peter Rutten 聯合發表
利用虛擬化的 NVIDIA A100 GPU 最大化AI 開發與交付
配備 NVIDIA HGX A100Supermicro 提供靈活的解決方案組合,支援 NVIDIA 虛擬運算伺服器 (vCS) 與 NVIDIA A100 GPU,使AI 交付得以運行大小型AI 。
Supermicro :2U 雙節點伺服器
Supermicro突破性的多節點CPU 在市場上獨樹一幟。憑藉先進的Building Block Solutions®設計與節省資源的架構,此系統在節省空間的機箱內整合頂尖CPU GPU引擎,搭配先進的高密度儲存技術,實現無與倫比的能源效率與靈活性。
超級分鐘:4U系統搭載HGX A100八GPU配置
針對最嚴苛AI Supermicro A100™ Tensor CoreSupermicro 性能頂尖、上市速度最快的伺服器。憑藉最新版NVIDIA® NVLink™與NVIDIA NVSwitch™技術,這些伺服器能在單台4U系統中提供高達5AI 。
SuperMinute:搭載HGX A100四GPU的2U系統
全新 AS -2124GQ-NART 伺服器採用強大的 NVIDIA A100 Tensor Core GPU 及 HGX A100 4-GPU 底板。系統支援 PCI-E Gen 4,可快速連接CPU 及高速網路擴充卡。