Zum Hauptinhalt springen
End-to-End KI Data Center Lösungen

Im Zeitalter der KI wird die Rechenleistung nicht mehr nur anhand der Anzahl der Server gemessen. Miteinander verbundene GPUs, CPUs, Speicher und diese Ressourcen über mehrere Knoten in Racks hinweg bilden die Grundlage der heutigen künstlichen Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeits-Netzwerkstrukturen mit geringer Latenz sowie sorgfältig konzipierte Kühltechnologien und Stromversorgungslösungen, um eine optimale Leistung und Effizienz für jede Rechenzentrumsumgebung zu gewährleisten. Die SuperCluster-Lösung Supermicrobietet End-to KI für sich schnell entwickelnde generative KI große Sprachmodelle (LLMs).

  • Vollständige Integration in großem Maßstab

    Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat

  • Testen, Validieren, Bereitstellen mit Vor-Ort-Service

    Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich

  • Flüssigkeitskühlung/Luftkühlung

    Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern

  • Versorgung und Bestandsmanagement

    One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen

KI SuperClusters

Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.

Flüssigkeitsgekühlter 2-OU NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 144 Knoten und bis zu 1152 NVIDIA B300-GPUs

  • Unübertroffene KI dank NVIDIA HGX B300 mit kompakten 2-OU-Systemknoten mit Flüssigkeitskühlung
  • Supermicro Liquid Cooling mit 1,8 MW Leistung in Reihe geschalteten CDUs (CDU-Optionen im Rack verfügbar)
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierbarkeit mit NVIDIA Quantum-X800 InfiniBand für KI ultra und hoher Bandbreite
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro flüssigkeitsgekühltes NVIDIA HGX B300 8-GPU-System (SYS-222GS-NB3OT-ALC)
144 NVIDIA HGX B300 8-GPU, 2-OU flüssigkeitsgekühlte Systeme (1152 GPUs) in 11 Racks zusammen mit zwei In-Row-Kühlverteilungseinheiten (CDUs)

Flüssigkeitsgekühlter 4U NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Setzen Sie leistungsstarkes KI und KI-Inferenz mit NVIDIA HGX B300 ein, das für Rechendichte und Wartungsfreundlichkeit optimiert ist.
  • Supermicro Liquid Cooling wurde für einen dauerhaften Hochleistungsbetrieb und eine verbesserte Energieeffizienz entwickelt.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro flüssigkeitsgekühltes NVIDIA HGX B300 8-GPU-System (SYS-422GS-NB3RT-ALC oder SYS-422GS-NB3RT-LCC)
72 NVIDIA HGX B300 8-GPU, 4U flüssigkeitsgekühlte Systeme (576 GPUs) in 11 Racks

Luftgekühlter 8U NVIDIA HGX B300 KI

Vollständig integrierter luftgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Skalierbares KI und Inferenz mit NVIDIA HGX B300 in einem luftgekühlten Design für eine breitere Kompatibilität mit Rechenzentren
  • Optimierter Luftstrom und thermisches Design ermöglichen einen leistungsstarken Betrieb ohne Flüssigkeitskühlung.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro luftgekühltes NVIDIA HGX B300 8-GPU-System (SYS-822GS-NB3RT oder AS-8126GS-NB3RT)
72 NVIDIA HGX B300 8-GPU, 8U luftgekühlte Systeme (576 GPUs) in 20 Racks

Flüssigkeitsgekühlter NVIDIA HGX B200 KI

Mit bis zu 32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Nutzen Sie die Spitzenleistung im Bereich KI und -Inferenz mit 256 NVIDIA B200-GPUs in einer skalierbaren Einheit (5 Racks).
  • Supermicro Liquid Cooling mit einer Kühlmittelverteilungseinheit (CDU) mit einer Kapazität von 250 kW im Rack, redundanter Stromversorgung und zwei Hot-Swap-Pumpen
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA HGX B200 Flüssigkeitsgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro flüssigkeitsgekühltes 8-GPU-System (SYS-422GA-NBRT-LCC oder AS-4126GS-NBR-LCC)
32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Luftgekühlter NVIDIA HGX B200 KI

Mit 32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur mit neuer, thermisch optimierter, luftgekühlter Systemplattform
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX B200 Luftgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro luftgekühltes 8-GPU-System (SYS-A22GA-NBRT oder AS-A126GS-TNBR)
32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

NVIDIA GB200 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • 72 NVIDIA Blackwell B200-GPUs, die als eine GPU mit einem riesigen Pool an HBM3e-Speicher (13,5 TB pro Rack) fungieren
  • 9x NVLink-Switch, 4 Ports pro Rechenfach, der 72 GPUs verbindet, um eine GPU-zu-GPU-Verbindung mit 1,8 TB/s bereitzustellen
  • Supermicro Liquid Cooling mit einer Kühlmittelverteilungseinheit (CDU) mit einer Kapazität von 250 kW im Rack, redundanter Stromversorgung und zwei Hot-Swap-Pumpen
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Datenblatt herunterladen

Fach für Rechenleistung

Einzelnes Supermicro GB200 Grace Blackwell GPU-System (ARS-121GL-NBO-LCC), 1 von 72
  • ARS-121GL-NBO-LCC
    (nicht einzeln erhältlich)
72 NVIDIA Blackwell B200 GPU-Systeme in 5 Racks

Führender flüssigkeitsgekühlter KI

Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlten Systemen (256 GPUs) in 5 Racks

  • Verdopplung der Rechendichte durch die maßgeschneiderte Flüssigkeitskühlungslösung Supermicromit einer Senkung der Stromkosten für Rechenzentren um bis zu 40 %.
  • 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
  • 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX H100/H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro flüssigkeitsgekühltes 8-GPU-System (SYS-421GE-TNHR2-LCC oder AS-4125GS-TNHR2-LCC)
32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Bewährtes Design

Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
  • 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
  • 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Anpassbare KI -Speicherstruktur mit branchenführenden parallelen Dateisystemoptionen
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX H100/H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro luftgekühltes 8-GPU-System (SYS-821GE-TNHR oder AS-8125GS-TNHR)
32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks
Ausgewählte Ressourcen

Bestimmte Produkte sind möglicherweise in Ihrer Region nicht erhältlich.