人工智能和可视计算的全面灵活性
Supermicro 广泛的系统产品线,专为最新PCIe GPU优化,适用于人工智能驱动的企业级应用,包括全新NVIDIA RTX PRO™ 6000 Blackwell服务器版和NVIDIA H200 NVL,为大型语言模型(LLM)推理与微调、可视化、图形渲染及虚拟化等场景提供强大且经济高效的多工作负载加速能力。 其中包含NVIDIA认证系统,可确保与NVIDIA AI Enterprise软件的兼容性及支持,从而简化生产级AI的开发与部署流程。Supermicro热优化架构在风冷环境中实现性能最大化,同时支持NVIDIA SuperNICs(如BlueField®-3和ConnectX®7),配合NVIDIA Quantum InfiniBand和Spectrum以太网技术,可实现最佳的基础设施扩展与GPU集群部署。
从数据中心到边缘的加速
Supermicro 涵盖多种形态的广泛产品组合,具备即插即用支持和热优化架构,可在各类环境中提供强劲加速性能。从机架级GPU优化系统到数据中心机架式设备及紧凑型边缘系统Supermicro 全面的系统解决方案,支持任何企业级AI工作负载。
广泛的工作量支持
高度灵活的系统,几乎适用于任何应用,包括金融服务、零售、云计算、虚拟化和 3D 媒体创建。支持英伟达™(NVIDIA®)多实例 GPU(MIG)的 GPU 允许在一块卡上安装多达四个独立实例,从而提高共享环境中的利用率。
开放、优化的架构
利用行业标准的 PCIe 互连,其设计还能在风冷环境中实现最高散热性能,从而在环境温度较高时也能支持最新、最强大的 GPU 显卡。
释放全新可能:Supermicro NVIDIA PCIe GPU强强联手
多加速器支持从数据中心到边缘的各种工作负载
Supermicro 丰富多样的NVIDIA PCIe加速器相匹配,实现针对特定工作负载的优化,涵盖人工智能推理与微调、视觉计算、智能体与物理人工智能、科学仿真、虚拟化以及媒体与设计等领域。
英伟达™(NVIDIA®)RTX PRO™ 6000 Blackwell

生成式人工智能、图形、视频
NVIDIA H200 NVL

大型人工智能模型推理与微调, 科学研究, HPC
NVIDIA H100 NVL

人工智能推理与微调, HPC
英伟达 L40s

LLM 推断、渲染和 3D 图形
英伟达 L4

人工智能边缘推理、图形、虚拟化
生成和代理人工智能
英伟达™(NVIDIA®)图形处理器为人工智能、图形和媒体提供多负载加速,是多模式生成式人工智能流水线的首要平台。
LLM 推断和微调
利用强大的吞吐量和浮点性能加速训练、微调和推理工作负载,以构建和部署最先进的人工智能模型。
渲染和 3D 图形
利用英伟达™(NVIDIA®)GPU运行专业的三维可视化应用程序,能够让创意专业人士进行更多的迭代、更快的渲染,并释放出巨大的性能优势,从而提高工作效率并加快项目的完成。
虚拟化
利用英伟达™(NVIDIA®)多实例 GPU(MIG)和时间切片技术,使用单个加速器创建多个 GPU 实例,显著提高虚拟化和云计算环境中的利用率。

