Systèmes de serveurs GPU
Systèmes GPU inégalés : Serveurs optimisés pour le Deep Learning conçus pour les centres de données modernes
NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Revue Supermicro JumpStart : Une semaine avec un NVIDIA HGX B200
Le programme JumpStart de Supermicro adopte une approche très différente de l'évaluation matérielle. Au lieu d'une courte démonstration scénarisée dans un environnement de laboratoire partagé, JumpStart offre aux clients qualifiés un accès gratuit, limité dans le temps et bare-metal à un catalogue de serveurs de production réels.
Sécurisation des charges de travail d'IA avec Intel® TDX, NVIDIA Confidential Computing et les serveurs Supermicro équipés de GPU NVIDIA HGX™ B200 : Une base pour l'IA confidentielle à l'échelle.
Ce livre blanc explore comment les extensions de domaine de confiance (TDX) d'Intel et le calcul confidentiel NVIDIA, associés aux systèmes basés sur HGX B200 de Supermicro, fournissent ensemble une plateforme puissante, sécurisée et évolutive pour l'infrastructure d'IA de nouvelle génération.
Les services en nuage de Sakura Internet Koukaryoku accélèrent les services d'IA
Sakura Internet Koukaryoku crée de nouveaux services avec le système 8U SYS-821GE-TNR de Supermicro, qui intègre la plateforme de supercalcul d'IA NVIDIA HGX™ 8-GPU, accélérant les applications d'IA générative
Supermicro SYS-821GE-TNHR : serveur d'IA refroidi par air avec 8 GPU NVIDIA H200
Aujourd'hui, nous poursuivons notre examen des serveurs d'IA massifs avec le Supermicro SYS-821GE-TNHR. Lorsque l'on évoque les prouesses de Supermicro en matière de serveurs d'IA, ce système se distingue sur le marché en tant que serveur NVIDIA refroidi par air.
Supermicro avec GAUDI 3 AI offre des performances évolutives pour les exigences de l'IA
Gamme de solutions optimisées pour les centres de données de toute taille et de toute charge de travail Pour de nouveaux services et une plus grande satisfaction des clients
Les systèmes Supermicro et Intel GAUDI 3 font progresser l'infrastructure d'IA d'entreprise.
Système d'IA à large bande passante utilisant des processeurs Intel Xeon 6 pour une formation et une inférence LLM et GenAI efficaces à l'échelle de l'entreprise
Lamini choisit les serveurs GPU Supermicro pour son offre de réglage de LLM.
En utilisant les serveurs GPU Supermicro avec les accélérateurs AMD Instinct™ MI300X, Lamini est en mesure d'offrir un réglage (tuning) de LLM à haute vitesse.
Le système Grace Supermicro offre des performances 4 fois supérieures pour ANSYS® LS-DYNA®
Les systèmes Superchip Grace CPU Supermicro offrent des performances 4 fois supérieures pour la même consommation d'énergie
Applied Digital développe un cloud d'IA massif avec des serveurs GPU Supermicro
Applied Digital propose aux utilisateurs la dernière infrastructure évolutive d'IA et de HPC pour l'entraînement d'IA et les simulations HPC avec les serveurs haute performance Supermicro
Les serveurs GPU Supermicro 4U AMD EPYC offrent une flexibilité pour l'IA (AS-4125GS-TNRT)
Supermicro propose depuis longtemps des serveurs GPU dans une diversité de formes et de tailles que nous n'avons pas le temps d'aborder dans cette revue. Aujourd'hui, nous examinons leur serveur GPU 4U à refroidissement par air, relativement nouveau, qui prend en charge deux CPU AMD EPYC série 9004, PCIe Gen5, et un choix de huit cartes GPU additionnelles à double largeur ou de 12 à simple largeur.
Supermicro et NVIDIA créent des solutions pour accélérer les simulations CFD pour les industries automobile et aérospatiale
Les serveurs Supermicro équipés de GPU NVIDIA Datacenter offrent une accélération significative pour les simulations CFD, réduisant ainsi le délai de mise sur le marché pour les entreprises manufacturières
Présentation du serveur d'IA Supermicro SYS-821GE-TNHR 8x NVIDIA H100 à refroidissement liquide
Aujourd'hui, nous voulions examiner le serveur Supermicro SYS-821GE-TNHR refroidi par liquide. Il s'agit du système 8x NVIDIA H100 de Supermicro avec une particularité : il est refroidi par liquide pour réduire les coûts de refroidissement et la consommation d'énergie. Puisque nous avions les photos, nous avons pensé en faire un article.
Options d'accès aux GPU PCIe dans une architecture de serveur à haute performance
Comprendre les options de configuration pour les serveurs GPU Supermicro pour des performances maximales pour les charges de travail
Petrobras acquiert des serveurs Supermicro intégrés par Atos afin de réduire les coûts et d'améliorer la précision de l'exploration.
Les systèmes Supermicro propulsent Petrobras à la 33e position dans le Top500, classement de novembre 2022
Supermicro et ProphetStor maximisent l'efficacité des GPU pour l'entraînement de LLM multilocataires
Dans le monde dynamique de l'IA et de l'apprentissage automatique, la gestion efficace des ressources GPU dans les environnements multi-locataires est primordiale, en particulier pour l'apprentissage de grands modèles de langage (LLM).
Les serveurs Supermicro augmentent les offres de GPU pour SEEWEB, offrant aux clients exigeants des résultats plus rapides pour les charges de travail d'IA et de HPC
Seeweb choisit les serveurs GPU Supermicro pour répondre aux exigences de ses clients en matière de charges de travail HPC et IA
Serveur universel de GPU H12
Conception de serveur basée sur des normes ouvertes pour une flexibilité architecturale
Démontage d'un serveur AMD Epyc 3000W, avec Wendell de Level1Techs
Nous examinons un serveur optimisé pour l'IA et l'apprentissage automatique. Supermicro a déployé des efforts considérables pour intégrer un maximum de composants dans le 2114GT-DNR (2U2N) – un serveur optimisé pour la densité. C'est une conception vraiment ingénieuse : il y a deux systèmes dans ce châssis 2U. Les deux alimentations redondantes sont de 2 600 W chacune, et nous verrons pourquoi une telle puissance est nécessaire. Il héberge six GPU AMD MI210 Instinct et les processeurs dual Epyc. Voyez le niveau d'ingénierie que Supermicro a investi dans la conception de ce serveur.
Serveur GPU H12 4U
Serveur GPU flexible et haute densité pour l'IA, le ML et le HPC
H12 2U 2-Node Multi-GPU
Conception multi-nœuds pour une densité de calcul et d'accélération GPU
NEC fait progresser la recherche en IA avec des systèmes GPU avancés de Supermicro.
NEC utilise des serveurs GPU Supermicro équipés de NVIDIA® A100 pour la construction d'un supercalculateur dédié à la recherche en IA (En japonais)
Supermicro TECHTalk : Serveur haute densité pour l'entraînement d'IA/l'apprentissage profond
Notre tout nouveau système de centre de données intègre la plus haute densité de GPU NVIDIA Ampere avec une interconnexion GPU-GPU rapide et des processeurs Intel® Xeon® Scalable de 3ème génération. Dans ce TECHTalk, nous montrerons comment nous permettons des performances d'IA inégalées dans un rack de 4U.
Plateforme hybride de station de travail-serveur GPU 2U2N Supermicro SYS-210GP-DNR : Prise en main
Aujourd'hui, nous concluons notre dernière série en examinant le Supermicro SYS-210GP-DNR, un système 2U à 2 nœuds et 6 GPU que Patrick a récemment eu l'occasion de tester au siège de Supermicro.
Supermicro SYS-220GQ-TNAR+, un serveur NVIDIA Redstone 2U
Aujourd'hui, nous examinons le Supermicro SYS-220GQ-TNAR+ que Patrick a récemment eu l'occasion de tester au siège de Supermicro.
Dévoilement de l'avancée de la conception des systèmes GPU – TECHTalk Supermicro SC21 avec IDC
Présenté par Josh Grossman, Responsable produit principal, Supermicro et Peter Rutten, Directeur de recherche, Systèmes d'infrastructure, IDC
Solutions pour serveurs critiques
Optimiser le développement et le déploiement de l'IA avec les GPU NVIDIA A100 virtualisés
Les systèmes Supermicro avec NVIDIA HGX A100 offrent un ensemble de solutions flexibles pour prendre en charge NVIDIA Virtual Compute Server (vCS) et les GPU NVIDIA A100, permettant le développement et le déploiement de l'IA pour exécuter des modèles d'IA de petite et grande taille.
Supermicro SuperMinute : Serveur 2U à 2 nœuds
La plateforme multi-nœuds GPU/CPU révolutionnaire de Supermicro est unique sur le marché. Grâce à notre conception avancée Building Block Solutions® et à notre architecture économe en ressources, ce système exploite les moteurs CPU et GPU les plus avancés ainsi qu'un stockage haute densité avancé dans un format compact, offrant une efficacité énergétique et une flexibilité inégalées.
SuperMinute : Système 4U avec HGX A100 8-GPU
Pour les charges de travail d'IA les plus exigeantes, Supermicro conçoit les serveurs les plus performants et les plus rapides à commercialiser, basés sur les GPU NVIDIA A100™ Tensor Core. Grâce à la dernière version des technologies NVIDIA® NVLink™ et NVIDIA NVSwitch™, ces serveurs peuvent offrir jusqu'à 5 PetaFLOPS de performances d'IA dans un seul système 4U.
SuperMinute : Système 2U avec HGX A100 4-GPU
Le nouveau serveur AS -2124GQ-NART bénéficie de la puissance des GPU NVIDIA A100 Tensor Core et de la carte de base HGX A100 4-GPU. Le système supporte le PCI-E Gen 4 pour une connexion rapide CPU-GPU et des cartes d'extension réseau à haut débit.