Direkt zum Inhalt

Supermicro schafft mit Unterstützung für NVIDIA A100 PCIe-GPUs auf über einem Dutzend verschiedener GPU-Server eine bis zu 20 Mal höhere Leistung für Datenwissenschaft, Hochleistungsrechner und KI-Arbeitslasten

Neue Supermicro-Server mit PCIe der 4. Generation bieten voll optimierte Unterstützung für die neuen NVIDIA A100 GPUs, die dritte Generation von NVIDIA NVLink und den NVIDIA NVSwitch, wodurch eine maximale Beschleunigung für Training, Inferencing, Hochleistungsrechner und Datenanalysen erreicht wird

FRANKFURT, Deutschland, 22. Juni 2020 /PRNewswire/ -- ISC Digital -- Super Micro Computer, Inc. (Nasdaq: SMCI), ein weltweit führender Anbieter von Rechen-, Speicher- und Netzwerktechnologien für Unternehmen und Green Computing, hat heute die volle Unterstützung für die neuen NVIDIA A100™ PCIe-GPUs über die gesamte Breite des Angebots des Unternehmens an 1U-, 2U- und 4U-GPU-Servern hinweg angekündigt.

Als erstes kündigte Supermicro im Mai die Unterstützung für NVIDIA HGX™ A100-Konfigurationen an. Diese bestehen aus den neuen hoch verdichteten 2U- und 4U-Servern, die auf den Vier- und Acht-Wege NVIDIA HGX A100-Boards aufbauen. Mit den A100-GPUs, die jetzt auch im PCIe-Formfaktor verfügbar sind, können sich Kunden über eine große Leistungssteigerung im breiten Angebotsspektrum von Supermicro an Mehrfach-GPU-Servern freuen, sobald diese mit den neuen NVIDIA A100 GPUs ausgestattet sind.

„Die Erweiterung unseres in Branche führenden Angebots an GPU-Systemen mit der vollen Unterstützung für die neuen A100 PCIe-GPUs von NVIDIA bedeutet für die Kunden, dass sie sich entsprechend ihren spezifischen Anwendungen für die jeweils leistungsfähigsten und am besten angepassten Server entscheiden können", sagte Charles Liang, CEO und Präsident von Supermicro. „Unsere neuen Systeme mit PCIe der 4. Generation, die auf die Beschleunigung für ein breites Spektrum an rechenintensiven Anwendungen ausgelegt sind, bieten eine voll optimierte Unterstützung für den neuen NVIDIA A100, wodurch die Leistung bei einigen beschleunigten Arbeitslasten bis zu 20 Mal höher ausfällt."

Das neue 4U A+ GPU-System von Supermicro unterstützt über Direct-Attach PCI-E 4.0 x16 CPU-to-GPU-Lanes ohne PCI-E-Switches bis zu acht NVIDIA A100 PCIe-GPUs, die so die geringsten Latenzzeiten und die größten Bandbreiten erreichen, was für eine maximale Beschleunigung sorgt. Das System unterstützt zudem bis zu zwei zusätzliche hochleistungsfähige PCI-E 4.0-Erweiterungsslots für eine Vielzahl von Anwendungsfällen, wie etwa hochleistungsfähige Netzwerkverbindungen mit bis zu 200 Gb/s. Ein zusätzlicher AIOM-Slot bietet Platz für eine AIOM-Karte bzw. eine OCP NIC 3.0-Karte von Supermicro. Zudem werden diese Systeme unmittelbar für die NVIDIA GPU Cloud (NGC) einsatzbereit sein, wodurch Kunden eine nahtlos umsetzbare Möglichkeit erhalten, ihre KI-Arbeitslasten im großen Maßstab auszubauen und einzurichten. NGC-fähigen Systeme sind erfolgreich für die Funktions- und Leistungsanforderungen des KI-Stacks der NGC-Registry von NVIDIA getestet worden.

„Die NVIDIA A100 ist als erste flexibel und auf einer Vielzahl von Instanzen verwendbare GPU, die so vielfältige Bereiche wie Training, Inferencing, Hochleistungsrechner und Datenanalysen zusammenbringt, so konstruiert, dass sie mit Arbeitslasten jeder Größe zurechtkommt", sagte Paresh Kharya, Leiter des Bereichs Product Marketing der Abteilung Acclerated Computing bei NVIDIA. „Mit dem NVIDIA A100 PCIe GPU-Server können Kunden einige der komplexesten Herausforderungen der Datenwissenschaften, bei Hochleistungsrechnern und bei der KI angehen."

Supermicro bietet als führendes Unternehmen für KI-Systemtechnologie für eine Vielzahl von GPUs optimierte thermische Leistungsdesigns, wodurch eine für KI-, Deep-Learning- und Hochleistungsrechner-Anwendungen die heute benötigte Leistungsfähigkeit und Zuverlässigkeit entsteht. Supermicro bietet mit 1U-, 2U-, 4U- und 10U-GPU-Schranksystemen, Ultra-, BigTwin™- und eingebetteten Systemen, die GPUs unterstützen, sowie GPU-Blade-Modulen für unseren 8U SuperBlade®, die in der Branche größte und profundeste Auswahl an GPU-Systemen für den Betrieb von Anwendungen, die vom Edge- bis zum Cloud-Computing reichen.