Systèmes de serveurs GPU
Systèmes GPU inégalés : Serveurs optimisés pour le Deep Learning conçus pour les centres de données modernes
NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Sécurisation des charges de travail d'IA avec Intel® TDX, NVIDIA Confidential Computing et les serveurs Supermicro équipés de GPU NVIDIA HGX™ B200 : Une fondation pour l'IA confidentielle à l'échelle
Ce livre blanc explique comment les extensions de domaine de confiance (TDX) d'Intel et l'informatique confidentielle de NVIDIA, associées aux systèmes HGX B200 de Supermicro, constituent une plateforme puissante, sécurisée et évolutive pour l'infrastructure d'IA de la prochaine génération.
Les services en nuage de Sakura Internet Koukaryoku accélèrent les services d'IA
Sakura Internet Koukaryoku crée de nouveaux services avec le système 8U SYS-821GE-TNR de Supermicro, qui intègre la plate-forme de supercalculateur NVIDIA HGX™ 8-GPU AI, accélérant les applications d'IA générative.
Supermicro SYS-821GE-TNHR Serveur AI 8x NVIDIA H200 GPU refroidi par air
Aujourd'hui, nous poursuivons notre examen des serveurs d'IA massifs avec le Supermicro SYS-821GE-TNHR. Lorsque l'on parle des prouesses de Supermicroen matière de serveurs IA, il s'agit d'un des systèmes qui se distingue sur le marché en tant que serveur NVIDIA refroidi par air.
Supermicro et GAUDI 3 AI offrent des performances évolutives pour les besoins de l'IA
Gamme de solutions optimisées pour les centres de données de toute taille et de toute charge de travail Pour de nouveaux services et une plus grande satisfaction des clients
Les systèmes GAUDI 3 de Supermicro et Intel font progresser l'infrastructure d'IA des entreprises
Système d'IA à large bande passante utilisant des processeurs Intel Xeon 6 pour une formation et une inférence LLM et GenAI efficaces à l'échelle de l'entreprise
Lamini choisit les serveurs GPU de Supermicro pour son offre LLM Tuning
En utilisant les serveurs GPU Supermicro avec les accélérateurs AMD Instinct™ MI300X, Lamini est capable d'offrir un réglage LLM à grande vitesse.
Le système Grace de Supermicro offre une performance 4X pour ANSYS® LS-DYNA®.
Les systèmes Superchip Grace CPU de Supermicro offrent des performances quadruplées pour une même consommation d'énergie
Applied Digital construit un nuage d'IA massif avec des serveurs GPU Supermicro
Applied Digital offre aux utilisateurs la dernière infrastructure évolutive d'IA et de HPC pour la formation à l'IA et les simulations HPC avec les serveurs haute performance de Supermicro
Les serveurs Supermicro 4U AMD EPYC GPU offrent une flexibilité AI (AS-4125GS-TNRT)
Supermicro propose depuis longtemps des serveurs GPU dans plus de formes et de tailles que nous n'avons le temps d'en discuter dans cette revue. Aujourd'hui, nous examinons leur relativement nouveau serveur GPU 4U refroidi par air qui prend en charge deux CPU AMD EPYC 9004 Series, PCIe Gen5, et un choix de huit cartes GPU double largeur ou 12 cartes GPU simple largeur.
Supermicro et Nvidia créent des solutions pour accélérer les simulations CFD dans les secteurs de l'automobile et de l'aérospatiale
Les serveurs Supermicro équipés de GPU NVIDIA Datacenter accélèrent considérablement les simulations CFD, réduisant ainsi le temps de mise sur le marché pour les entreprises manufacturières.
Aperçu du serveur Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AI refroidi par liquide
Aujourd'hui, nous avons voulu jeter un coup d'œil au serveur Supermicro SYS-821GE-TNHR refroidi par liquide. Il s'agit du système 8x NVIDIA H100 de Supermicroavec une particularité : il est refroidi par liquide pour réduire les coûts de refroidissement et la consommation d'énergie. Comme nous avions les photos, nous nous sommes dit que nous allions en faire un article.
Options d'accès aux GPU PCIe dans une architecture de serveur à haute performance
Comprendre les options de configuration des serveurs GPU Supermicro permet d'obtenir des performances maximales pour les charges de travail.
Petrobras acquiert des serveurs Supermicro intégrés par Atos pour réduire les coûts et accroître la précision de l'exploration
Les systèmes Supermicro propulsent Petrobras à la 33e place du Top500, classement de novembre 2022
Supermicro et ProphetStor maximisent l'efficacité des GPU pour la formation LLM multitenant
Dans le monde dynamique de l'IA et de l'apprentissage automatique, la gestion efficace des ressources GPU dans les environnements multi-locataires est primordiale, en particulier pour l'apprentissage de grands modèles de langage (LLM).
Les serveurs Supermicro augmentent l'offre de GPU pour SEEWEB, permettant aux clients exigeants d'obtenir des résultats plus rapides pour l'IA et les charges de travail HPC.
Seeweb choisit les serveurs GPU de Supermicro pour répondre aux exigences des clients en matière de charges de travail HPC et IA
Serveur universel de GPU H12
Conception de serveur basée sur des normes ouvertes pour une flexibilité architecturale
Démontage d'un serveur AMD Epyc 3000W, par Wendell de Level1Techs
Nous sommes en présence d'un serveur optimisé pour l'IA et l'apprentissage automatique. Supermicro a fait beaucoup d'efforts pour rassembler le plus de choses possibles dans le 2114GT-DNR (2U2N) - un serveur à densité optimisée. Il s'agit d'une construction vraiment cool : il y a deux systèmes dans ce châssis 2U. Les deux alimentations redondantes ont une puissance de 2 600 W chacune et nous verrons pourquoi nous avons besoin de tant de puissance. Il héberge six GPU AMD MI210 Instinct et les deux processeurs Epyc . Voyez le niveau d'ingénierie que Supermicro a mis dans la conception de ce serveur.
Serveur GPU H12 4U
Serveur GPU flexible et haute densité pour l'IA, le ML et le HPC
H12 2U 2-Node Multi-GPU
Conception multi-nœuds pour une densité de calcul et d'accélération GPU
NEC fait progresser la recherche sur l'IA grâce aux systèmes GPU avancés de Supermicro
NEC utilise des serveurs GPU Supermicro avec des NVIDIA® A100 pour construire un supercalculateur destiné à la recherche sur l'IA (en japonais)
Supermicro TECHTalk : Serveur haute densité pour l'apprentissage de l'IA et le deep learning
Notre tout nouveau système de centre de données intègre la plus haute densité de GPU NVIDIA Ampere avec une interconnexion GPU-GPU rapide et des processeurs Intel® Xeon® Scalable de 3ème génération. Dans ce TECHTalk, nous montrerons comment nous permettons des performances d'IA inégalées dans un rack de 4U.
Plate-forme hybride station de travail-serveur GPU 2U2N Supermicro SYS-210GP-DNR Hands-on
Aujourd'hui, nous terminons notre dernière série en examinant le Supermicro SYS-210GP-DNR, un système 2U, 2 nœuds 6 GPU que Patrick a récemment eu l'occasion de tester au siège de Supermicro
Supermicro SYS-220GQ-TNAR+ un serveur 2U NVIDIA Redstone
Aujourd'hui, nous examinons le Supermicro SYS-220GQ-TNAR+ que Patrick a récemment eu l'occasion de tester au siège de Supermicro .
Lever le voile sur le saut de conception des systèmes GPU - Supermicro SC21 TECHTalk avec IDC
Présenté par Josh Grossman, Principal Product Manager, Supermicro et Peter Rutten, Research Director, Infrastructure Systems, IDC
Solutions pour serveurs critiques
Optimiser le développement et le déploiement de l'IA avec les GPU NVIDIA A100 virtualisés
Les systèmes Supermicro équipés de NVIDIA HGX A100 offrent un ensemble de solutions flexibles pour prendre en charge NVIDIA Virtual Compute Server (vCS) et les GPU NVIDIA A100, permettant aux développeurs et aux fournisseurs d'IA d'exécuter des modèles d'IA de petite et de grande taille.
Supermicro SuperMinute : Serveur 2U à 2 nœuds
La plateforme GPU/CPU multi-nœuds de Supermicro ne ressemble à aucun produit existant sur le marché. Grâce à notre conception avancée Building Block Solutions® et à notre architecture économe en ressources, ce système exploite les moteurs CPU et GPU les plus avancés ainsi qu'un stockage haute densité avancé dans un format peu encombrant, offrant ainsi une efficacité énergétique et une flexibilité inégalées.
SuperMinute : Système 4U avec HGX A100 8-GPU
Pour les charges de travail d'IA les plus exigeantes, Supermicro construit les serveurs les plus performants et les plus rapides à commercialiser basés sur les GPU NVIDIA A100™ Tensor Core. Avec la dernière version des technologies NVIDIA® NVLink™ et NVIDIA NVSwitch™, ces serveurs peuvent fournir jusqu'à 5 PetaFLOPS de performances IA dans un seul système 4U.
SuperMinute : Système 2U avec HGX A100 4-GPU
Le nouveau serveur AS -2124GQ-NART bénéficie de la puissance des GPU NVIDIA A100 Tensor Core et de la carte de base HGX A100 4-GPU. Le système supporte le PCI-E Gen 4 pour une connexion rapide CPU-GPU et des cartes d'extension réseau à haut débit.