NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro JumpStart 评测:NVIDIA HGX B200 一周体验
Supermicro的JumpStart计划对硬件评估采取了截然不同的方法。不同于在共享实验室环境中进行的简短、预设演示,JumpStart为符合条件的客户提供免费、有时限的裸机访问权限,以使用真实的生产服务器目录。
借助Intel® TDX、NVIDIA机密计算以及搭载NVIDIA HGX™ B200 GPU的Supermicro服务器保护AI工作负载安全:规模化机密AI的基础
本白皮书探讨了Intel的信任域扩展(TDX)和NVIDIA机密计算如何与Supermicro基于HGX B200的系统协同工作,共同为下一代AI基础设施提供一个强大、安全且可扩展的平台。
樱花互联网光谷云服务加速人工智能服务
Sakura Internet Koukaryoku利用Supermicro的8U SYS-821GE-TNR系统(该系统集成了NVIDIA HGX™ 8-GPU AI超级计算平台)创建新服务,加速生成式AI应用。
Supermicro SYS-821GE-TNHR 8x NVIDIA H200 GPU风冷AI服务器
今天,我们将继续探讨大型AI服务器,并聚焦Supermicro SYS-821GE-TNHR。当人们讨论Supermicro的AI服务器实力时,这款系统作为一款风冷NVIDIA服务器,在市场上独树一帜。
Supermicro 和英特尔 GAUDI 3 系统助力企业级人工智能基础设施发展
使用英特尔Xeon 6 处理器的高带宽人工智能系统,可实现跨企业规模的高效 LLM 和 GenAI 训练与推理
Lamini 选择 Supermicro GPU 服务器用于大型语言模型 (LLM) 调优服务
Lamini 采用配备 AMD Instinct™ MI300X 加速器的 Supermicro GPU 服务器,能够高速提供 LLM 调优服务。
Supermicro 4U AMD EPYC GPU 服务器提供 AI 灵活性 (AS-4125GS-TNRT)
Supermicro 长期以来一直提供各种形态和尺寸的 GPU 服务器,本评论无法一一详述。今天,我们将重点介绍其相对较新的 4U 风冷 GPU 服务器,该服务器支持两颗 AMD EPYC 9004 系列 CPU、PCIe Gen5,并可选择八块双宽或十二块单宽附加 GPU 卡。
Supermicro 和 Nvidia 打造解决方案,加速汽车和航空航天工业的 CFD 仿真
配备 NVIDIA 数据中心 GPU 的 Supermicro 服务器为 CFD 仿真带来显著加速,从而缩短制造企业的上市时间
探究液冷 Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AI 服务器
今天,我们旨在评测液冷 Supermicro SYS-821GE-TNHR 服务器。这是 Supermicro 的 8x NVIDIA H100 系统,其独特之处在于:它采用液冷技术,可降低散热成本和功耗。鉴于我们已掌握相关图片,我们决定撰写此文进行介绍。
Petrobras 采购由 Atos 集成的 Supermicro 服务器,以降低成本并提高勘探精度
Supermicro 系统助力 Petrobras 跻身 2022 年 11 月 Top500 榜单第 33 位
Supermicro 和 ProphetStor 最大化 GPU 效率用于多租户大型语言模型 (LLM) 训练
在人工智能和机器学习的动态世界中,多租户环境中 GPU 资源的高效管理至关重要,尤其是在大型语言模型 (LLM) 训练方面。
Supermicro 服务器增加 SEEWEB 的 GPU 产品供应,为要求严苛的客户提供更快的人工智能和 HPC 工作负载处理结果
Seeweb 选择 Supermicro GPU 服务器以满足客户对 HPC 和 AI 工作负载的需求
3000WAMD Epyc 服务器拆解,来自 Level1Techs 的 Wendell 撰文
我们正在审视一款针对AI和机器学习优化的服务器。Supermicro在2114GT-DNR (2U2N)这款密度优化型服务器中倾注了大量心血,力求实现最大程度的集成。其结构设计精妙:这个2U机箱中包含两个系统。两个冗余电源每个功率为2,600W,我们将了解为何需要如此大的功率。它搭载六个AMD MI210 Instinct GPU和双路EPYC处理器。由此可见Supermicro在这款服务器设计中投入的工程水平。
Supermicro TECHTalk:高密度 AI 训练/深度学习服务器
我们最新的数据中心系统配备了最高密度的先进英伟达安培图形处理器,以及快速的GPU-GPU互连和第3代英特尔®至强®可扩展处理器。在本 TECHTalk 中,我们将展示如何在 4U 机架高度的封装中实现无与伦比的人工智能性能。
混合式 2U2N GPU 工作站-服务器平台 Supermicro SYS-210GP-DNR 动手评测
今天,我们通过评测 Supermicro SYS-210GP-DNR 来结束我们最新的系列文章,这是一款 2U 双节点 6 GPU 系统,Patrick 最近在 Supermicro 总部对其进行了亲身体验。
Supermicro SYS-220GQ-TNAR+ 一款 NVIDIA Redstone 2U 服务器
今天我们评测 Supermicro SYS-220GQ-TNAR+,Patrick 最近在 Supermicro 总部对其进行了亲身体验。
揭示 GPU 系统设计飞跃 – Supermicro SC21 TECHTalk 与 IDC
主讲人:Josh Grossman,Supermicro 首席产品经理;Peter Rutten,IDC 基础设施系统研究总监
关键任务服务器解决方案
利用虚拟化英伟达™(NVIDIA®)A100 GPU最大限度地提高人工智能开发和交付能力
搭载 NVIDIA HGX A100 的 Supermicro 系统提供一套灵活的解决方案,以支持 NVIDIA Virtual Compute Server (vCS) 和 NVIDIA A100 GPU,从而使 AI 开发和交付能够运行小型和大型 AI 模型。
Supermicro SuperMinute:2U 2 节点服务器
Supermicro 突破性的多节点 GPU/CPU 平台与市场上任何现有产品都不同。凭借我们先进的 Building Block Solutions® 设计和资源节约型架构,该系统以节省空间的外形利用最先进的 CPU 和 GPU 引擎以及先进的高密度存储,提供无与伦比的能效和灵活性。
超级一分钟:配备 HGX A100 8 图形处理器的 4U 系统
针对最严苛的 AI 工作负载,Supermicro 打造了基于 NVIDIA A100™ Tensor Core GPU 的最高性能、最快上市的服务器。凭借最新版 NVIDIA® NVLink™ 和 NVIDIA NVSwitch™ 技术,这些服务器可在单个 4U 系统中提供高达 5 PetaFLOPS 的 AI 性能。
超级一分钟:配备 HGX A100 4 GPU 的 2U 系统
新型 AS -2124GQ-NART 服务器采用了英伟达™(NVIDIA®)A100 Tensor Core GPU 和 HGX A100 4-GPU 底板。系统支持 PCI-E Gen 4,可快速连接 CPU-GPU 和高速网络扩展卡。