Systèmes de serveurs GPU
Systèmes GPU inégalés : Serveurs optimisés pour le Deep Learning conçus pour les centres de données modernes
NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Test Supermicro : une semaine avec un NVIDIA HGX B200
Le programme JumpStart Supermicroadopte une approche très différente de l'évaluation du matériel. Au lieu d'une courte démonstration scénarisée dans un environnement de laboratoire partagé, JumpStart offre aux clients qualifiés un accès gratuit, limité dans le temps et sans restriction à un catalogue de serveurs de production réels.
Sécurisation des charges de travail IA avec Intel® TDX, NVIDIA Confidential Computing et Supermicro équipés de GPU NVIDIA HGX™ B200 : une base pour une IA confidentielle à grande échelle
Ce livre blanc explore comment les extensions de domaine de confiance (TDX) d'Intel et le calcul confidentiel de NVIDIA, associés aux systèmes HGX B200 Supermicro, fournissent ensemble une plateforme puissante, sécurisée et évolutive pour l'infrastructure IA de nouvelle génération.
Les services en nuage de Sakura Internet Koukaryoku accélèrent les services d'IA
Sakura Internet Koukaryoku crée de nouveaux services grâce au système 8U SYS-821GE-TNR Supermicro, qui intègre la plateforme de supercalcul AI NVIDIA HGX™ à 8 GPU, accélérant ainsi les applications d'IA générative.
Serveur IA Supermicro 8x NVIDIA H200 GPU refroidi par air
Aujourd'hui, nous poursuivons notre examen des serveurs IA massifs en nous intéressant au Supermicro . Lorsque l'on évoque les performances des serveurs IA Supermicro, celui-ci se distingue sur le marché en tant que serveur NVIDIA refroidi par air.
Supermicro GAUDI 3 AI offre des performances évolutives pour les besoins en matière d'IA
Gamme de solutions optimisées pour les centres de données de toute taille et de toute charge de travail Pour de nouveaux services et une plus grande satisfaction des clients
Les systèmes Supermicro Intel GAUDI 3 font progresser l'infrastructure IA des entreprises
Système d'IA à large bande passante utilisant des processeurs Intel Xeon 6 pour une formation et une inférence LLM et GenAI efficaces à l'échelle de l'entreprise
Lamini choisit les serveurs Supermicro pour son offre de réglage LLM
Grâce aux serveurs Supermicro équipés des accélérateurs AMD Instinct™ MI300X, Lamini est en mesure d'offrir un réglage LLM à grande vitesse.
Le système Supermicro offre des performances 4 fois supérieures pour ANSYS® LS-DYNA®
Les systèmes Superchip équipés du processeur Supermicro offrent des performances 4 fois supérieures pour une consommation électrique identique
Applied Digital construit un immense cloud IA avec les serveurs Supermicro
Applied Digital offre aux utilisateurs la toute dernière infrastructure évolutive d'IA et de HPC pour la formation en IA et les simulations HPC avec les serveurs Supermicro performance Supermicro .
Les serveursEPYC Supermicro AMD EPYC offrent une grande flexibilité en matière d'IA (AS-4125GS-TNRT)
Supermicro longtemps des serveurs GPU dans plus de formes et de tailles qu'il n'est possible d'énumérer dans cette revue. Aujourd'hui, nous nous intéressons à leur serveur GPU 4U à refroidissement par air relativement récent, qui prend en charge deux processeurs AMD EPYC sérieEPYC , PCIe Gen5 et un choix de huit cartes GPU supplémentaires à double largeur ou 12 à simple largeur.
Supermicro Nvidia créent des solutions pour accélérer les simulations CFD dans les secteurs automobile et aérospatial
Supermicro équipés de GPU NVIDIA Datacenter accélèrent considérablement les simulations CFD, réduisant ainsi les délais de mise sur le marché pour les entreprises manufacturières.
Présentation du serveur IA Supermicro 8x NVIDIA H100 à refroidissement liquide
Aujourd'hui, nous avons voulu examiner le serveur Supermicro à refroidissement liquide. Il s'agit du système 8x NVIDIA H100 Supermicro, avec une particularité : il est refroidi par liquide afin de réduire les coûts de refroidissement et la consommation d'énergie. Comme nous avions les photos, nous avons pensé que nous pourrions en faire un article.
Options d'accès aux GPU PCIe dans une architecture de serveur à haute performance
Comprendre les options de configuration des serveurs Supermicro pour optimiser les performances des charges de travail
Petrobras acquiert Supermicro intégrés par Atos afin de réduire ses coûts et d'améliorer la précision de ses explorations
Supermicro propulsent Petrobras à la 33e place du classement Top500 de novembre 2022
Supermicro ProphetStor optimisent l'efficacité des GPU pour la formation LLM multi-locataires
Dans le monde dynamique de l'IA et de l'apprentissage automatique, la gestion efficace des ressources GPU dans les environnements multi-locataires est primordiale, en particulier pour l'apprentissage de grands modèles de langage (LLM).
Supermicro élargissent l'offre GPU pour SEEWEB, offrant aux clients exigeants des résultats plus rapides pour les charges de travail IA et HPC
Seeweb choisit les serveurs Supermicro pour répondre aux demandes de ses clients en matière de charges de travail HPC et IA
Serveur universel de GPU H12
Conception de serveur basée sur des normes ouvertes pour une flexibilité architecturale
Démontage d'un serveur AMD Epyc 3000W, par Wendell de Level1Techs
Nous examinons un serveur optimisé pour l'IA et l'apprentissage automatique. Supermicro déployé beaucoup d'efforts pour intégrer autant que possible dans le 2114GT-DNR (2U2N), un serveur à densité optimisée. Il s'agit d'une construction vraiment intéressante : ce châssis 2U contient deux systèmes. Les deux alimentations redondantes ont chacune une puissance de 2 600 W, et nous verrons pourquoi nous avons besoin d'une telle puissance. Il héberge six GPU AMD Instinct et deux Epyc . Découvrez le niveau d'ingénierie que Supermicro dans la conception de ce serveur.
Serveur GPU H12 4U
Serveur GPU flexible et haute densité pour l'IA, le ML et le HPC
H12 2U 2-Node Multi-GPU
Conception multi-nœuds pour une densité de calcul et d'accélération GPU
NEC fait progresser la recherche en IA grâce aux systèmes GPU avancés de Supermicro
NEC utilise des serveurs Supermicro équipés de cartes NVIDIA® A100 pour construire un supercalculateur destiné à la recherche en intelligence artificielle (en japonais)
Supermicro : Serveur haute densité pour l'entraînement IA/apprentissage profond
Notre tout nouveau système de centre de données intègre la plus haute densité de GPU NVIDIA Ampere avec une interconnexion GPU-GPU rapide et des processeurs Intel® Xeon® Scalable de 3ème génération. Dans ce TECHTalk, nous montrerons comment nous permettons des performances d'IA inégalées dans un rack de 4U.
Plateforme serveur-station de travail GPU hybride 2U2N Supermicro Prise en main
Aujourd'hui, nous terminons notre dernière série en nous intéressant au Supermicro , un système 2U à 2 nœuds et 6 GPU que Patrick a récemment pu tester au Supermicro .
Supermicro un serveur NVIDIA Redstone 2U
Aujourd'hui, nous nous intéressons au Supermicro que Patrick a récemment pu tester au Supermicro .
Présentation des avancées en matière de conception de systèmes GPU - Supermicro TECHTalk avec IDC
Présenté par Josh Grossman, chef de produit principal Supermicro Peter Rutten, directeur de recherche chez Infrastructure Systems, IDC.
Solutions pour serveurs critiques
Optimiser le développement et le déploiement de l'IA avec les GPU NVIDIA A100 virtualisés
Supermicro équipés de NVIDIA HGX A100 offrent un ensemble flexible de solutions prenant en charge NVIDIA Virtual Compute Server (vCS) et les GPU NVIDIA A100, permettant ainsi le développement et la mise en œuvre d'IA pour exécuter des modèles d'IA de petite et grande envergure.
Supermicro : serveur 2U à 2 nœuds
La plateforme GPU/CPU multi-nœuds révolutionnaire Supermicro ne ressemble à aucun autre produit existant sur le marché. Grâce à notre conception avancée Building Block Solutions® et à notre architecture économe en ressources, ce système exploite les moteurs CPU et GPU les plus avancés ainsi qu'un stockage haute densité avancé dans un format compact, offrant une efficacité énergétique et une flexibilité inégalées.
SuperMinute : Système 4U avec HGX A100 8-GPU
Pour les charges de travail IA les plus exigeantes, Supermicro les serveurs les plus performants et les plus rapides du marché, basés sur les GPU NVIDIA A100™ Tensor Core. Grâce aux dernières versions des technologies NVIDIA® NVLink™ et NVIDIA NVSwitch™, ces serveurs peuvent offrir jusqu'à 5 pétaflops de performances IA dans un seul système 4U.
SuperMinute : Système 2U avec HGX A100 4-GPU
Le nouveau serveur AS -2124GQ-NART bénéficie de la puissance des GPU NVIDIA A100 Tensor Core et de la carte de base HGX A100 4-GPU. Le système supporte le PCI-E Gen 4 pour une connexion rapide CPU-GPU et des cartes d'extension réseau à haut débit.