Zum Hauptinhalt springen
End-to-End KI Data Center Lösungen

Im Zeitalter der KI wird eine Recheneinheit nicht mehr nur an der Anzahl der Server gemessen. Verbundene GPUs, CPUs, Arbeitsspeicher, Speicher und diese Ressourcen über mehrere Knoten in Racks bilden die heutige Künstliche Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeits- und latenzarme Netzwerk-Fabrics sowie sorgfältig konzipierte Kühltechnologien und Stromversorgung, um optimale Leistung und Effizienz für jede Rechenzentrumsumgebung aufrechtzuerhalten. Die SuperCluster-Lösung von Supermicro bietet End-to-End-KI-Rechenzentrumslösungen für sich schnell entwickelnde Generative KI und Large Language Models (LLMs).

  • Vollständige Integration in großem Maßstab

    Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat

  • Testen, Validieren, Bereitstellen mit Vor-Ort-Service

    Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich

  • Flüssigkeitskühlung/Luftkühlung

    Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern

  • Versorgung und Bestandsmanagement

    One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen

KI SuperClusters

Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.

Flüssigkeitsgekühlter 2-OU NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 144 Knoten und bis zu 1152 NVIDIA B300-GPUs

  • Unübertroffene KI dank NVIDIA HGX B300 mit kompakten 2-OU-Systemknoten mit Flüssigkeitskühlung
  • Supermicro Direct Liquid Cooling mit 1,8 MW Kapazität In-Row CDUs (In-Rack-CDU-Optionen verfügbar)
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierbarkeit mit NVIDIA Quantum-X800 InfiniBand für KI ultra und hoher Bandbreite
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro mit Flüssigkeitskühlung, NVIDIA® HGX™ B300 und 8 GPUs (SYS-222GS-NB3OT-ALC)
144 NVIDIA® HGX™ Supermicro mit 8 GPUs und 2 OU, flüssigkeitsgekühlt (1152 GPUs) in 11 Racks sowie zwei In-Row-Kühlverteilungseinheiten (CDUs)

Flüssigkeitsgekühlter 4U NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Setzen Sie leistungsstarkes KI und KI-Inferenz mit NVIDIA HGX B300 ein, das für Rechendichte und Wartungsfreundlichkeit optimiert ist.
  • Supermicro Direkte Flüssigkeitskühlung, entwickelt für den dauerhaften Hochleistungsbetrieb und verbesserte Energieeffizienz.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro -System mit Flüssigkeitskühlung, NVIDIA® HGX™ B300 und 8 GPUs (SYS-422GS-NB3RT-ALC oder SYS-422GS-NB3RT-LCC)
72 NVIDIA® HGX™ Supermicro mit 8 GPUs, 4U, flüssigkeitsgekühlt Supermicro (576 GPUs) in 11 Racks

Luftgekühlter 8U NVIDIA HGX B300 KI

Vollständig integrierter luftgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Skalierbares KI und Inferenz mit NVIDIA HGX B300 in einem luftgekühlten Design für eine breitere Kompatibilität mit Rechenzentren
  • Optimierter Luftstrom und thermisches Design ermöglichen einen leistungsstarken Betrieb ohne Flüssigkeitskühlung.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro luftgekühltes NVIDIA® HGX™ B300-System mit 8 GPUs (SYS-822GS-NB3RT oder AS-8126GS-NB3RT)
72 NVIDIA® HGX™ Supermicro mit 8 GPUs, 8U, luftgekühlt von Supermicro (576 GPUs) in 20 Racks

Flüssigkeitsgekühlter NVIDIA HGX B200 KI

Mit bis zu 32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Nutzen Sie die Spitzenleistung im Bereich KI und -Inferenz mit 256 NVIDIA B200-GPUs in einer skalierbaren Einheit (5 Racks).
  • Supermicro Direct Liquid Cooling mit einer 250 kW In-Rack Coolant Distribution Unit (CDU), redundanter PSU und zwei Hot-Swap-Pumpen
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA® HGX™ B200 mit 8 GPUs
NVIDIA HGX B200 Flüssigkeitsgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU-System (SYS-422GA-NBRT-LCC oder AS -4126GS-NBR-LCC)
32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Luftgekühlter NVIDIA HGX B200 KI

Mit 32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur mit neuer, thermisch optimierter, luftgekühlter Systemplattform
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA® HGX™ B200 mit 8 GPUs
NVIDIA HGX B200 Luftgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 10U Luftgekühltes 8-GPU-System (SYS-A22GA-NBRT oder AS -A126GS-TNBR)
32 NVIDIA® HGX™ Supermicro mit 8 GPUs, 10U, luftgekühlt von Supermicro (256 GPUs) in 9 Racks

NVIDIA GB300 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • Rack-Scale-Lösung mit dem NVIDIA GB300 Grace™ Blackwell Superchip, der 72 NVIDIA B300-GPUs und 36 Grace-CPUs pro Rack bereitstellt
  • NVIDIA Blackwell Ultra 288 GB HBM3e pro GPU
  • Direkte Flüssigkeitskühlung für bis zu 40 % geringere Stromkosten im Rechenzentrum
  • Umfassender Service von der Beratung bis zur vollständigen Implementierung, einschließlich aller erforderlichen Komponenten, Netzwerklösungen und Installationsdienstleistungen vor Ort
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Bis zu 800 Gb/s NVIDIA Quantum-2 InfiniBand oder Spectrum-X Ethernet mit integrierten NVIDIA ConnectX®-8 SuperNICs
NVIDIA GB300 Grace Blackwell Superchip
NVIDIA GB300 Grace Blackwell Superchip
Datenblatt herunterladen

Fach für Rechenleistung

Einzelnes Supermicro -Rechenmodul (ARS-121GL-NB3-LCC) mit NVIDIA® GB300 Grace Blackwell Superchip, 1 von 72
  • ARS-121GL-NB3-LCC
    (nicht einzeln erhältlich)
72 Supermicro auf Basis des NVIDIA® GB300 Grace Blackwell Superchip in 5 Racks

NVIDIA GB200 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • 72 NVIDIA Blackwell B200-GPUs, die als eine GPU mit einem riesigen Pool an HBM3e-Speicher (13,5 TB pro Rack) fungieren
  • 9x NVLink-Switch, 4 Ports pro Rechenfach, der 72 GPUs verbindet, um eine GPU-zu-GPU-Verbindung mit 1,8 TB/s bereitzustellen
  • Supermicro Direct Liquid Cooling mit einer 250 kW In-Rack Coolant Distribution Unit (CDU), redundanter PSU und zwei Hot-Swap-Pumpen
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Datenblatt herunterladen

Fach für Rechenleistung

Einzelnes Supermicro -Compute-Tray (ARS-121GL-NBO-LCC) mit NVIDIA® GB200 Grace Blackwell Superchip, 1 von 72
  • ARS-121GL-NBO-LCC
    (nicht einzeln erhältlich)
72 Supermicro auf Basis des NVIDIA® GB200 Grace Blackwell Superchip in 5 Racks

NVIDIA RTX PRO™ SuperCluster

  • Full-Stack-Lösungen auf Basis von Referenzarchitekturen, die Supermicro , NVIDIA-GPUs, NVIDIA-Software und NVIDIA-Netzwerkkomponenten umfassen
  • Bis zu 256 NVIDIA RTX PRO™ 6000 Blackwell Server Edition-GPUs mit bis zu 24 TB GDDR7-Speicher
  • Kompatibilität mit dem NVIDIA-Software-Stack (NVIDIA KI , NVIDIA Omniverse™ und NVIDIA Run:KI)
  • Plug-and-Play-Lösung mit Systemen, die vollständig in Racks integriert und vor dem Versand sowie vor der Inbetriebnahme vor Ort getestet werden
  • NVIDIA Spectrum-X Ethernet-Compute-Fabric, konvergentes Netzwerk und Out-of-Band-Management sind enthalten
  • Optionaler Hochleistungsspeicher auf Basis der NVIDIA KI Platform, Supermicro und führender Partner im Bereich Software-Defined Storage
NVIDIA® RTX PRO™ 6000 Blackwell Server Edition
NVIDIA RTX PRO 6000 Blackwell Server Edition
Datenblatt herunterladen

Rechenknoten

Führender flüssigkeitsgekühlter KI

Mit 32 flüssigkeitsgekühlten NVIDIA HGX H200-Systemen mit 8 GPUs (256 GPUs) in 5 Racks

  • Verdoppelung der Rechenleistungsdichte durch Supermicros kundenspezifische Flüssigkeitskühlungslösung mit bis zu 40 % Reduzierung der Stromkosten für Rechenzentren.
  • 256 NVIDIA H200-GPUs in einer skalierbaren Einheit
  • 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA® HGX™ H200 mit 8 GPUs
NVIDIA HGX H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU-System (SYS-421GE-TNHR2-LCC oder AS -4125GS-TNHR2-LCC)
32 NVIDIA® HGX™ Supermicro mit 8 GPUs, 4 HE, flüssigkeitsgekühlt Supermicro (256 GPUs) in 5 Racks

Bewährtes Design

Mit 32 luftgekühlten NVIDIA HGX H200-Systemen mit 8 GPUs (8U) (insgesamt 256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
  • 256 NVIDIA H200-GPUs in einer skalierbaren Einheit
  • 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Anpassbare KI -Speicherstruktur mit branchenführenden parallelen Dateisystemoptionen
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA® HGX™ H200 mit 8 GPUs
NVIDIA HGX H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro 8U luftgekühltes 8-GPU-System (SYS-821GE-TNHR oder AS -8125GS-TNHR)
32 NVIDIA® HGX™ Supermicro mit 8 GPUs, 8U, luftgekühlt von Supermicro (256 GPUs) in 9 Racks
Ausgewählte Ressourcen

Bestimmte Produkte sind möglicherweise in Ihrer Region nicht erhältlich.