Direkt zum Inhalt

Supermicro erweitert KI-Lösungen mit den kommenden Plattformen NVIDIA HGX H200 und MGX Grace Hopper mit HBM3e-Speicher

Supermicro erweitert 8-GPU-, 4-GPU- und MGX-Produktlinien mit Unterstützung für den NVIDIA HGX H200 und Grace Hopper Superchip für LLM-Anwendungen mit schnellerem und größerem HBM3e-Speicher – Neuer innovativer flüssigkeitsgekühlter 4U-Server von Supermicro mit NVIDIA HGX 8-GPUs verdoppelt die Rechendichte pro Rack, erreicht bis zu 80 kW / Rack und reduziert die Gesamtbetriebskosten

SAN JOSE (Kalifornien) und DENVER (Colorado), 13. November 2023 /PRNewswire/ -- Supercomputing Conference (SC23) -- Supermicro, Inc. (NASDAQ: SMCI), ein Anbieter umfassender IT-Lösungen für KI, Cloud, Storage und 5G/Edge, erweitert seine KI-Reichweite mit der Unterstützung für den neuen NVIDIA HGX H200 mit H200 Tensor Core GPUs. Die branchenführenden KI-Plattformen von Supermicro, zu denen auch die 8U und 4U Universal GPU-Systeme zählen, sind sofort bereit für die Integration von HGX H200 8-GPU und 4-GPU. Im Vergleich zur NVIDIA H100 Tensor Core GPU verfügen sie über eine fast doppelt so hohe Kapazität und eine 1,4-fach höhere Bandbreite des HBM3e-Speichers. Darüber hinaus unterstützt das breite Portfolio von Supermicro NVIDIA MGXTM -Systemen den kommenden NVIDIA Grace Hopper Superchip mit HBM3e-Speicher. Mit beispielloser Leistung, Skalierbarkeit und Zuverlässigkeit beschleunigen die rackbasierten KI-Lösungen von Supermicro die Leistung des rechenintensiven Trainings generativer KIs und großer Sprachmodelle (Large Language Models, LLM) sowie HPC-Anwendungen und erfüllen gleichzeitig die wachsenden Anforderungen immer größerer Modelle. Mit Hilfe der Bausteinarchitektur kann Supermicro neue Technologien zügig auf den Markt bringen und seine Kunden schneller produktiv machen.

Supermicro stellt außerdem mit NVIDIA HGX H100 8-GPUs-Systemen in einem flüssigkeitsgekühlten 4U-System den Server mit der höchsten Dichte in der Branche vor, wobei die neueste Flüssigkeitskühlungslösung von Supermicro zum Einsatz kommt. Der kompakteste Hochleistungs-GPU-Server der Branche ermöglicht es Betreibern von Rechenzentren, Platzbedarf und Energiekosten zu senken und bietet gleichzeitig die leistungsstärkste KI-Trainingskapazität, die in einem einzigen Rack verfügbar ist. Durch den Einsatz modernster Flüssigkeitskühlungslösungen in GPU-Systemen der höchsten Dichte können Unternehmen ihre Gesamtbetriebskosten senken.

„Supermicro arbeitet mit NVIDIA zusammen, um die fortschrittlichsten Systeme für KI-Training und HPC-Anwendungen zu entwickeln", so Charles Liang, Präsident und CEO von Supermicro. „Dank unserer Bausteinarchitektur sind wir in der Lage, die neuesten Technologien als Erster auf den Markt zu bringen, sodass Kunden generative KI schneller als je zuvor einsetzen können. Dank unserer weltweiten Produktionsstätten können wir unseren Kunden diese neuen Systeme schneller zur Verfügung stellen. Die neuen Systeme mit dem Grafikprozessor NVIDIA H200 mit NVIDIA® NVLink™ und NVSwitch™ Hochgeschwindigkeits-GPU-GPU-Verbindungen mit 900 GB/s bieten jetzt bis zu 1,1 TB HBM3e-Speicher mit einer hohen Bandbreite pro Knoten in unseren rackbasierten KI-Lösungen, um bei der Modellparallelität für moderne LLMs und generative KI maximale Leistung zu erzielen. Wir freuen uns außerdem, den kompaktesten flüssigkeitsgekühlten NVIDIA HGX 8-GPU-Server der Welt anbieten zu können, der die Dichte unserer rackbasierten KI-Lösungen verdoppelt und die Energiekosten senkt, um umweltfreundliche Rechenleistung für das schnelle Rechenzentrum von heute zu realisieren."

Erfahren Sie mehr über die Supermicro-Server mit GPUs von NVIDIA

Supermicro entwickelt und produziert ein breites Portfolio von KI-Servern mit unterschiedlichen Formfaktoren. Die beliebten 8U- und 4U-Universal-GPU-Systeme mit Vierfach- und Achtfach-NVIDIA HGX H100-GPUs sind jetzt sofort einsatzbereit für die neuen H200-GPUs, sodass man noch größere Sprachmodelle in kürzerer Zeit trainieren kann. Jede NVIDIA H200 GPU verfügt über 141 GB Speicher mit einer Bandbreite von 4,8 TB/s.

„Die künftigen Serverdesigns von Supermicro mit NVIDIA HGX H200 werden generative KI- und HPC-Workloads beschleunigen, so dass Unternehmen und Organisationen das Beste aus ihrer KI-Infrastruktur herausholen können", so Dion Harris, Director of Data Center Product Solutions für HPC, AI und Quantum Computing von NVIDIA. „Die NVIDIA H200 GPU mit Hochgeschwindigkeits-HBM3e-Speicher ist in der Lage, riesige Datenmengen für verschiedenste Workloads zu verarbeiten."

Darüber hinaus sind die kürzlich vorgestellten Supermicro MGX Server mit dem NVIDIA GH200 Grace Hopper Superchip für die Integration der NVIDIA H200 GPU mit HBM3e-Speicher ausgelegt.

Die neuen NVIDIA-GPUs ermöglichen die Beschleunigung heutiger und zukünftiger großer Sprachmodelle (LLMs) mit Hunderten von Milliarden von Parametern, die in kompaktere und effizientere Cluster passen, um generative KI in kürzerer Zeit zu trainieren. Außerdem können mehrere große Modelle in einem System für LLM-Inferenz in Echtzeit untergebracht werden, um generative KI für Millionen von Nutzern bereitzustellen.

Auf der SC23 präsentiert Supermicro sein neuestes Angebot, ein 4U Universal GPU-System mit dem achtfachen NVIDIA HGX H100 und seinen neuesten Flüssigkühlungsinnovationen, die Dichte und Effizienz weiter verbessern, um die Entwicklung von KI voranzutreiben. Mit den branchenführenden GPU- und CPU-Kühlplatten, der CDU (Cooling Distribution Unit) und dem CDM (Cooling Distribution Manifold) von Supermicro für umweltfreundliche Rechenleistung ist das neue flüssigkeitsgekühlte 4U Universal GPU-System auch für den achtfachen NVIDIA HGX H200 geeignet, der dank der vollständig integrierten flüssigkeitsgekühlten Racklösungen von Supermicro und unserer L10-, L11- und L12-Validierungstests den Platzbedarf im Rechenzentrum, die Stromkosten und die Bereitstellungshürden drastisch senken wird.

MGX

Weitere Informationen erhalten Sie am Supermicro-Stand auf der SC23