Direkt zum Inhalt

Supermicro Breakthrough Universal GPU System - Unterstützt alle wichtigen CPU-, GPU- und Fabric-Architekturen

Vereinfacht Kundenimplementierungen und bietet ultimative Modularität und Anpassungsoptionen für KI, ML und HPC

SAN JOSE, Kalifornien, 21. März 2022 /PRNewswire/ -- Super Micro Computer, Inc. (SMCI), ein weltweit führender Anbieter von Unternehmenscomputern, Speicher- und Netzwerklösungen sowie grüner Computertechnologie, hat eine revolutionäre Technologie angekündigt, die den Einsatz von GPUs in großem Maßstab vereinfacht und ein zukunftssicheres Design darstellt, das noch anzukündigende Technologien unterstützt. Der Universal GPU Server bietet die ultimative Flexibilität eines ressourcenschonenden Servers.

Die Universal GPU Systemarchitektur kombiniert die neuesten Technologien, die mehrere GPU-Formfaktoren, CPU-Auswahl, Speicher- und Netzwerkoptionen unterstützen, die zusammen optimiert wurden, um einzigartig konfigurierte und hoch skalierbare Systeme zu liefern. Die Systeme können für die spezifischen Anwendungen von Künstlicher Intelligenz (KI), maschinellem Lernen (ML) und High-Performance Computing (HPC) jedes Kunden optimiert werden. Unternehmen auf der ganzen Welt verlangen nach neuen Optionen für ihre nächste Generation von Computerumgebungen, die den thermischen Spielraum für die nächste Generation von CPUs und GPUs bieten.

„Der Universal GPU Server von Supermicro ist ein Durchbruch für unsere Branche und die Infrastruktur von Rechenzentren", sagt Charles Liang, Präsident und CEO von Supermicro. „Mit einer einzigen leistungsstarken, modularen und zukunftssicheren Plattform haben wir die Grundregeln dafür geändert, wie CTOs und IT-Administratoren neue Implementierungen planen können. Dies ist ein flexibles und revolutionäres Systemdesign, das einfach das beste auf dem Markt ist und eine schnelle Bereitstellung in großem Maßstab ermöglicht."

Zunächst wird die Universal GPU-Plattform Systeme unterstützen, die AMD EPYC™ 7003 Prozessoren der 3. Generation mit MI250 GPUs oder NVIDIA A100 Tensor Core 4-GPUs sowie Intel Xeon Scalable Prozessoren der 3. Generation mit integrierten KI-Beschleunigern und NVIDIA A100 Tensor Core 4-GPUs enthalten. Diese Systeme wurden mit einer verbesserten Wärmekapazität entwickelt, um GPUs mit einer Leistung von bis zu 700 W aufnehmen zu können.

Die Supermicro Universal GPU Plattform ist so konzipiert, dass sie mit einer Vielzahl von GPUs auf der Basis offener Standards funktioniert. Durch die Einhaltung vereinbarter Hardware-Design-Standards wie Universal Baseboard (UBB) und OCP Accelerator Modules (OAM) sowie PCI-E und plattformspezifische Schnittstellen können IT-Administratoren die für ihre HPC- oder KI-Workloads am besten geeignete GPU-Architektur auswählen. Dies wird den hohen Anforderungen vieler Unternehmen gerecht und vereinfacht die Installation, das Testen, die Produktion und die Aufrüstung von GPU-Lösungen. Darüber hinaus können IT-Administratoren problemlos die richtige Kombination von CPUs und GPUs auswählen, um das optimale System für ihre Benutzer zu erstellen.

Der 4U- oder 5U-Universal-GPU-Server wird für Beschleuniger verfügbar sein, die den UBB-Standard sowie PCI-E 4.0 und bald auch PCI-E 5.0 verwenden. Darüber hinaus stehen 32 DIMM-Steckplätze und eine breite Palette an Speicher- und Netzwerkoptionen zur Verfügung, die auch über den PCI-E-Standard angeschlossen werden können. Der Supermicro Universal GPU Server kann GPUs mit Baseboards im SXM- oder OAM-Formfaktor aufnehmen, die sehr schnelle GPU-zu-GPU-Verbindungen wie NVIDIA NVLink oder die AMD xGMI Infinity Fabric nutzen, oder GPUs direkt über einen PCI-E-Steckplatz anschließen. Alle wichtigen aktuellen CPU- und GPU-Plattformen werden unterstützt, so dass die Kunden eine Auswahl haben, die genau ihren Arbeitslasten entspricht.

Der Server ist auf maximale Luftzirkulation ausgelegt und bietet Platz für aktuelle und zukünftige CPUs und GPUs, wobei die CPUs und GPUs mit der höchsten TDP für maximale Anwendungsleistung erforderlich sind. Für den Supermicro Universal GPU Server sind Optionen zur Flüssigkeitskühlung (direkt auf den Chip) verfügbar, da CPUs und GPUs erhöhte Anforderungen an die Kühlung stellen. Darüber hinaus können dank des modularen Aufbaus bestimmte Subsysteme dieses Servers ausgetauscht oder aufgerüstet werden, wodurch sich die Lebensdauer des Gesamtsystems verlängert und der durch den kompletten Austausch bei jeder neuen CPU- oder GPU-Generation entstehende Elektroschrott reduziert wird.

Unterstützende Zitate

„Die NVIDIA A100 Tensor Core GPU beschleunigt alle KI-Anwendungen und über 2.700 HPC-Anwendungen", sagt Paresh Kharya, Senior Director of Product Management für Data Center Computing bei NVIDIA. „Supermicros neue Serverplattform integriert den NVIDIA A100, um Unternehmen ein leistungsstarkes System zu bieten, das außergewöhnliche Leistung und Produktivität für eine Vielzahl von Workloads wie HPC, KI-Inferencing, Training und maschinelles Lernen bietet."

„AMD schätzt unsere enge Beziehung zu Supermicro. Wir freuen uns sehr auf die Supermicro Universal GPU Systeme, die eine ideale Plattform für die Demonstration unserer fortschrittlichen AMD EPYC CPU und AMD Instinct GPU Innovationen darstellen, die den Anforderungen der HPC-Industrie und der Nachfrage nach rechenbeschleunigten Rechenzentrums-Workloads gerecht werden." - Brad McCredie, Corporate Vice President, Data Center GPU and Accelerated Processing, AMD

Weitere Informationen über die Universal-GPU finden Sie online sowie durch ein webinar das für den 21. April 2022 um 10:00 Uhr PT geplant ist.