Direkt zum Inhalt

Supermicro gibt 2 PetaFLOPS Super-Server basierend auf neuer NVIDIA HGX-2 bekannt, der weltweit leistungsfähigsten Cloud-Server-Plattform für KI und HPC

Entwickelt für die nächste Generation von KI setzt das neue HGX-2-System mit 16 Tesla V100 GPUs und NVSwitch über 80.000 CUDA Cores ein, um beispiellose Leistung für Deep Learning zu bieten und Betriebsbelastung umsetzen.

TAIPEI, Taiwan, 30. Mai 2018 /PRNewswire/ -- Super Micro Computer, Inc. (NASDAQ: SMCI), ein Weltmarktführer im Business-Computing, in der Datenspeicherung, von Netzwerklösungen und im Green IT für Unternehmen gab heute bekannt, dass es als eines der ersten Unternehmen die NVIDIA® HGX-2 Cloud-Server-Plattform einführt, um die weltweit leistungsfähigsten Systeme für künstliche Intelligenz (KI) und High Performance Computing (HPC) zu entwickeln.

Supermicro präsentiert sich auf einem Platinum Sponsor Messestand auf der GPU Technology Conference (GTC) Taiwan 2018, Taipei Marriott Hotel vom 30. bis 31. Mai.

"Um der schnell wachsenden Größe von KI-Modellen, die manchmal wochenlanges Training erfordern, gerecht zu werden, entwickelt Supermicro Cloud-Server basierend auf der HGX-2-Plattform, die mehr als die doppelte Leistung bieten werden", so Charles Liang, Geschäftsführer und CEO von Supermicro. „Das HGX-2-System ermöglicht effizientes Training von komplexen Modellen. Das System kombiniert 16 Tesla V100 32GB SXM3 GPUs, das über NVLink und NVSwitch verbunden ist, um in einer Einheit als 2 PetaFlop Beschleuniger mit einem halben Terabyte an aggregiertem Speicher beispiellose Arbeitsleitung zu bieten."

Von Computern, die natürliche Sprache produzieren, hin zu selbstfahrenden Kraftfahrzeugen hat der schnelle Fortschritt in KI ganze Branchen grundlegend verändert. Um diese Kompetenzen zu schaffen, explodieren KI-Modelle größenmäßig. HPC-Applikationen nehmen ähnlich schnell an Komplexität zu und eröffnen neue wissenschaftliche Einblicke.

Die auf HGX-2 basierenden Systeme von Supermicro werden Datencentern Supersätze bieten und damit KI und HPC in der Wolke beschleunigen. Mit fein abgestimmten Optimierungen wird der HGX-2-Server von Supermicro die höchste Arbeitsleistung und den größten Speicher für schnelles Modell-Training bieten.

"Da die Komplexität und Größe von KI explodiert, benötigen Forscher und Daten-Wissenschaftler neue Ebenen von GPU-beschleunigter Verarbeitung", sagte Ian Buck, Vice President und Geschäftsführer von beschleunigter Verarbeitung bei NVIDIA. „HGX-2 bietet die Leistung, um diese massiven neuen Modelle für das Training von hochentwickelter KI einsetzen zu können und gleichzeitig signifikant Kosten, Platz und Energie im Datencenter zu sparen."

Umfassende Informationen zu Supermicro NVIDIA GPU System Produktlinien finden Sie unter https://www.supermicro.com/products/nfo/gpu.cfm.