跳转到主要内容

Supermicro 推出适用于 AI 存储的机柜级全方位解决方案 加速高性能 AI 训练和推理的数据存取

适用于大规模AI训练和推理的一站式数据存储解决方案──数百 PB 的多层式解决方案提供能支持可扩充式AI工作负载所需的庞大数据容量和高性能数据带宽

加利福尼亞州圣何塞 2024 年 2 月 2 日 /美通社/ – Supermicro, Inc. (纳斯达克股票代码:SMCI)作为 AI、云端、存储和 5G/边缘领域的全方位IT解决方案制造商,推出适用于人工智能(AI)和机器学习(ML)数据存取的完整优化解决方案,覆盖从数据收集到高性能数据传输的各个环节。此全新解决方案能通过将GPU数据传输管道完全利用使AI价值实现时间最小化。在AI训练方面,该解决方案可收集、转换大量PB级原始资料,并加载到企业AI工作流程管道。这种多层式Supermicro解决方案通过证实可在生产制造环境中为人工智能运营(AIOps)和机器学习运营(MLOps)提供PB规模级数据量。Supermicro的多机柜级解决方案旨在降低落地风险,让组织能更快速地训练模型,并迅速将处理后的数据应用到 AI 推理。

Supermicro 总裁兼首席执行官梁见后(Charles Liang)表示:"通过由每机柜20 PB高性能快闪存储容量所驱动并搭载四个专为应用优化的NVIDIA HGX H100 8-GPU的气冷服务器或搭载八个NVIDIA HGX H100 8-GPU的液冷服务器,客户能以机柜规模加速AI和ML应用运行。此项解决方案能为每个存储丛集提供270 GB/s的读取吞吐量和390万IOPS做为最低部署,并轻松扩大至数百PB的规模。借由使用具有PCIe 5.0与E3.S存储装置,以及 WEKA Data Platform 软件的最新 Supermicro 系统,这项通过场域测试的机柜级解决方案将可为使用者带来AI 应用性能的大幅提升。有了此项适用于 AI 训练的全新存储解决方案,客户将能完全发挥我们最先进GPU服务器机柜级解决方案的使用潜能,进而降低总拥有成本(TCO)并时提高AI性能。"

了解更多关于 Supermicro AI 存储解决方案的详细信息: https://www.supermicro.com/en/products/storage

为了使GPU有成效地运行,具备低延迟、高带宽数据处理性能的GPU服务器必须要能存取用于大规模 AI 训练运行的未结构化PB量级数据。Supermicro拥有基于Intel和AMD技术的广泛存储服务器产品组合,是AI管道必不可少的要素。这些产品包括Supermicro Petascale All-Flash存储服务器,其中每部服务器拥有983.04* TB的NVMe Gen 5快闪数据容量,可提供高达230 GB/s的读取带宽和3,000万IOPS。本解决方案还包括适用于容量物件层级并具备90个存储硬盘槽的Supermicro SuperServer存储服务器。全球客户已可取得此经过测试的完善解决方案并用于ML、GenAI和其他复杂计算的工作负载.

全新存储解决方案包含:

WEKA 总裁 Jonathan Martin 表示:"具高性能和高度快闪数据容量的Supermicro PB级All-Flash存储服务器能与WEKA的AI原生数据平台软件完美互补搭配,并为现今的企业AI客户提供空前的速度、规模和简易性。"

High Performance AI

Supermicro 将在一场网络研讨会中介绍其优化存储架构的更多细节。若要参加该场于2024年2月1日举办的直播网络研讨会,或观看Supermicro和WEKA的网络研讨会回放,请浏览: https://www.brighttalk.com/webcast/17278/604378

深入了解全系列Supermicro存储系统:https://www.supermicro.com/en/products/storage

*原始值是基于30.72 TB的厂商原始基本容量。TB是以10为基础的十进制。30.72 TB E3.S SSD的取得需视厂商供货状态而定。