GPU-Server-Systeme
Unerreichte GPU-Systeme: Deep Learning-optimierte Server für das moderne Rechenzentrum
NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro JumpStart Testbericht: Eine Woche mit einem NVIDIA HGX B200
Supermicros JumpStart-Programm verfolgt einen ganz anderen Ansatz bei der Hardware-Evaluierung. Anstatt einer kurzen, geskripteten Demo in einer gemeinsam genutzten Laborumgebung bietet JumpStart qualifizierten Kunden kostenlosen, zeitlich begrenzten Bare-Metal-Zugriff auf einen Katalog echter Produktionsserver.
Absicherung von KI-Workloads mit Intel® TDX, NVIDIA Confidential Computing und Supermicro Servern mit NVIDIA HGX™ B200 GPUs: Eine Grundlage für vertrauliche KI im großen Maßstab
Dieses Whitepaper untersucht, wie Intels Trust Domain Extensions (TDX) und NVIDIA Confidential Computing zusammen mit Supermicros HGX B200-basierten Systemen gemeinsam eine leistungsstarke, sichere und skalierbare Plattform für die KI-Infrastruktur der nächsten Generation bieten.
Sakura Internet Koukaryoku Cloud Services beschleunigen KI
Sakura Internet Koukaryoku schafft neue Dienste mit dem 8U SYS-821GE-TNR System von Supermicro, das die NVIDIA HGX™ 8-GPU KI-Supercomputing-Plattform integriert und generative KI-Anwendungen beschleunigt.
Supermicro SYS-821GE-TNHR 8x NVIDIA H200 GPU Luftgekühlter KI-Server
Heute setzen wir unsere Betrachtung massiver KI-Server fort mit einem Blick auf den Supermicro SYS-821GE-TNHR. Wenn über die KI-Server-Leistungsfähigkeit von Supermicro gesprochen wird, ist dies eines der Systeme, das sich auf dem Markt als luftgekühlter NVIDIA-Server abhebt.
Supermicro mit GAUDI 3 KI liefert skalierbare Leistung für KI-Anforderungen
Optimierte Lösungen für Rechenzentren jeder Größe und Arbeitslast für neue Services und höhere Kundenzufriedenheit
Supermicro und Intel GAUDI 3 Systeme fördern die Enterprise KI-Infrastruktur
KI mit hoher Bandbreite unter Verwendung von Intel Xeon 6 Prozessoren für effizientes LLM- und GenAI-Training und Inferenz über Unternehmensskalen hinweg
Lamini wählt Supermicro GPU-Server für sein LLM-Tuning-Angebot.
Durch den Einsatz von Supermicro GPU-Servern mit den AMD Instinct™ MI300X Beschleunigern ist Lamini in der Lage, LLM-Tuning mit hoher Geschwindigkeit anzubieten.
Supermicro Grace System bietet die 4-fache Leistung für ANSYS® LS-DYNA®
Supermicro Grace CPU Superchip Systeme liefern die 4-fache Leistung bei gleichem Stromverbrauch
Applied Digital errichtet eine massive KI-Cloud mit Supermicro GPU-Servern
Applied Digital bietet Nutzern die neueste skalierbare KI- und HPC-Infrastruktur für KI-Training und HPC-Simulationen mit Supermicro Hochleistungsservern
Supermicro 4U AMD EPYC GPU-Server bieten KI-Flexibilität (AS-4125GS-TNRT)
Supermicro bietet seit langem GPU-Server in einer größeren Vielfalt an Konfigurationen an, als wir in diesem Review besprechen können. Heute betrachten wir ihren relativ neuen luftgekühlten 4U-GPU-Server, der zwei AMD EPYC 9004 Series CPUs, PCIe Gen5 und wahlweise acht Double-Width- oder zwölf Single-Width-Add-in-GPU-Karten unterstützt.
Supermicro und NVIDIA entwickeln Lösungen zur Beschleunigung von CFD-Simulationen für die Automobil- und Luftfahrtindustrie.
Supermicro Server mit NVIDIA Datacenter GPUs liefern eine signifikante Beschleunigung für CFD-Simulationen, wodurch die Markteinführungszeit für produzierende Unternehmen verkürzt wird.
Ein Blick auf den flüssigkeitsgekühlten Supermicro SYS-821GE-TNHR 8x NVIDIA H100 KI-Server
Heute wollten wir uns den flüssigkeitsgekühlten Supermicro SYS-821GE-TNHR Server ansehen. Dies ist Supermicros 8x NVIDIA H100 System mit einer Besonderheit: Es ist flüssigkeitsgekühlt für geringere Kühlkosten und Stromverbrauch. Da uns die Fotos vorlagen, dachten wir, wir würden dies in einem Artikel vorstellen.
Optionen für den Zugriff auf PCIe-GPUs in einer Hochleistungsserverarchitektur
Konfigurationsoptionen für Supermicro GPU-Server zur Maximierung der Workload-Leistung
Petrobras erwirbt von Atos integrierte Supermicro-Server zur Kostensenkung und Steigerung der Explorationsgenauigkeit
Supermicro Systeme ermöglichen Petrobras den 33. Platz in den Top500-Rankings vom November 2022
Supermicro und ProphetStor maximieren die GPU-Effizienz für das Multitenant LLM-Training
In der dynamischen Welt der KI und des maschinellen Lernens ist die effiziente Verwaltung von GPU-Ressourcen in mandantenfähigen Umgebungen von größter Bedeutung, insbesondere beim Training von Large Language Models (LLM).
Supermicro Server erweitern das GPU-Angebot für SEEWEB, um anspruchsvollen Kunden schnellere Ergebnisse für KI- und HPC-Workloads zu liefern.
Seeweb setzt auf Supermicro GPU Server, um den Kundenanforderungen für HPC- und KI-Workloads gerecht zu werden.
H12 Universal GPU Server
Offenes, auf Standards basierendes Serverdesign für architektonische Flexibilität
3000W AMD EPYC Server Zerlegung, mit Wendell von Level1Techs
Wir betrachten einen Server, der für KI und maschinelles Lernen optimiert ist. Supermicro hat erhebliche Anstrengungen unternommen, um so viel wie möglich in den 2114GT-DNR (2U2N) zu integrieren – einen auf Dichte optimierten Server. Dies ist eine bemerkenswerte Konstruktion: Es befinden sich zwei Systeme in diesem 2U-Gehäuse. Die beiden redundanten Netzteile liefern jeweils 2.600 W, und wir werden sehen, warum so viel Leistung benötigt wird. Er beherbergt sechs AMD MI210 Instinct GPUs und die Dual-EPYC-Prozessoren. Dies verdeutlicht die Ingenieursleistung, die Supermicro in das Design dieses Servers investiert hat.
H12 2U 2-Knoten Multi-GPU
Multi-Node-Design für Rechen- und GPU-Beschleunigungsdichte
NEC fördert die KI-Forschung mit fortschrittlichen GPU-Systemen von Supermicro
NEC verwendet Supermicro GPU-Server mit NVIDIA® A100s zum Bau eines Supercomputers für die KI-Forschung (Auf Japanisch)
Supermicro TECHTalk: Hochdichte KI-Trainings-/Deep-Learning-Server
Unser neuestes Rechenzentrumssystem bietet die höchste Dichte an fortschrittlichen NVIDIA Ampere-GPUs mit schneller GPU-GPU-Verbindung und Intel® Xeon® Scalable-Prozessoren der 3. In diesem TECHTalk zeigen wir, wie wir unvergleichliche KI in einem 4U-Rack-Höhenpaket ermöglichen.
Hybride 2U2N GPU Workstation-Server-Plattform Supermicro SYS-210GP-DNR Praxistest
Heute schließen wir unsere neueste Serie ab, indem wir einen Blick auf das Supermicro SYS-210GP-DNR werfen, ein 2U, 2-Node 6 GPU-System, das Patrick kürzlich in der Supermicro-Zentrale praktisch testen konnte.
Supermicro SYS-220GQ-TNAR+, ein NVIDIA Redstone 2U Server
Heute sehen wir uns den Supermicro SYS-220GQ-TNAR+ an, den Patrick kürzlich in der Supermicro-Zentrale praktisch testen konnte.
Enthüllung des GPU-Systemdesign-Sprungs – Supermicro SC21 TECHTalk mit IDC
Präsentiert von Josh Grossman, Principal Product Manager, Supermicro und Peter Rutten, Research Director, Infrastructure Systems, IDC
Mission Critical Server-Lösungen
Maximierung der KI und -Bereitstellung mit virtualisierten NVIDIA A100-GPUs
Supermicro Systeme mit NVIDIA HGX A100 bieten eine flexible Reihe von Lösungen zur Unterstützung von NVIDIA Virtual Compute Server (vCS) und NVIDIA A100 GPUs, die KI-Entwicklungen und -Bereitstellung ermöglichen, um kleine und große KI-Modelle auszuführen.
Supermicro SuperMinute: 2U 2-Knoten-Server
Supermicros bahnbrechende Multi-Node GPU/CPU-Plattform unterscheidet sich von allen bestehenden Produkten auf dem Markt. Mit unserem fortschrittlichen Building Block Solutions® Design und der ressourcenschonenden Architektur nutzt dieses System die modernsten CPU- und GPU-Engines zusammen mit fortschrittlichem High-Density-Speicher in einem platzsparenden Formfaktor und bietet unübertroffene Energieeffizienz und Flexibilität.
SuperMinute: 4U-System mit HGX A100 8-GPU
Für die anspruchsvollsten KI-Workloads entwickelt Supermicro die leistungsstärksten und schnellsten Server auf dem Markt, basierend auf NVIDIA A100™ Tensor Core GPUs. Mit der neuesten Version der NVIDIA® NVLink™ und NVIDIA NVSwitch™ Technologien können diese Server bis zu 5 PetaFLOPS KI-Leistung in einem einzigen 4U-System liefern.
SuperMinute: 2U-System mit HGX A100 4-GPU
Der neue AS -2124GQ-NART Server bietet die Leistung der NVIDIA A100 Tensor Core GPUs und des HGX A100 4-GPU Baseboards. Das System unterstützt PCI-E Gen 4 für schnelle CPU-GPU-Verbindungen und Hochgeschwindigkeits-Netzwerkerweiterungskarten.