À l'ère de l'IA, une unité de calcul ne se mesure plus seulement par le nombre de serveurs. Les GPU, les CPU, la mémoire, le stockage et ces ressources interconnectés sur plusieurs nœuds dans des racks construisent l'intelligence artificielle d'aujourd'hui. L'infrastructure nécessite des réseaux à grande vitesse et à faible latence, ainsi que des technologies de refroidissement et d'alimentation électrique soigneusement conçues pour maintenir des performances et une efficacité optimales dans chaque environnement de centre de données. La solution SuperCluster de Supermicro offre des solutions de centre de données d'IA de bout en bout pour l'IA générative et les grands modèles de langage (LLM) qui évoluent rapidement.
Intégration complète à grande échelle
Conception et construction de baies et de clusters complètes avec une capacité de production globale allant jusqu'à 5,000 racks par mois
Tester, valider, déployer avec un service sur site
Les processus d'essai de niveau L11 et L12 éprouvés permettent de valider en profondeur l'efficacité opérationnelle et l'efficience avant l'expédition.
Refroidissement parliquide/refroidissement par air
Solution de refroidissement liquide ou par air entièrement intégrée avec plaques froides pour GPU et CPU, unités de distribution de refroidissement et collecteurs.
Gestion des approvisionnements et des stocks
Un guichet unique pour fournir des baies entièrement intégrées rapidement et dans les délais afin de réduire le temps de mise en œuvre de la solution et de permettre un déploiement rapide.
La solution complète de centre de données clé en main accélère le délai de livraison pour les cas d'utilisation critiques des entreprises et élimine la complexité de la construction d'un grand cluster, qui n'était auparavant réalisable que par le biais d'un design et optimisation fastidieuse des supercalculateurs.
Cluster IA NVIDIA HGX B200 refroidi par liquide
Avec jusqu'à 32 systèmes NVIDIA HGX B200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks
- Déployez le summum des performances d'apprentissage et d'inférence en IA avec 256 GPU NVIDIA B200 dans une unité évolutive(5 racks).
- Refroidissement liquide direct Supermicro comprenant une unité de distribution du liquide de refroidissement (CDU) de 250 kW de capacité dans le rack avec PSU redondant et deux pompes remplaçables à chaud.
- 45 To de mémoire HBM3e dans une unité évolutive
- Évolution avec l'Ethernet NVIDIA Spectrum™-X à 400 Gb/s ou l'InfiniBand NVIDIA Quantum-2
- Infrastructure de stockage personnalisable intégrant des systèmes de fichiers parallèles reconnus du marché
- Prise en charge de la plate-forme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM

Nœud de calcul


Cluster IA NVIDIA HGX B200 refroidi par air
Avec 32 systèmes NVIDIA HGX B200 8-GPU, 10U refroidis par air (256 GPU) dans 9 racks
- Architecture de référence reconnue dans l’industrie, intégrant une nouvelle plateforme à refroidissement par air optimisée pour les performances thermiques
- 45 To de mémoire HBM3e dans une unité évolutive
- Évolution avec l'Ethernet NVIDIA Spectrum-X à 400 Gb/s ou l'InfiniBand NVIDIA Quantum-2
- Infrastructure de stockage personnalisable intégrant des systèmes de fichiers parallèles reconnus du marché
- Prise en charge de la plate-forme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM

Nœud de calcul


NVIDIA GB200 NVL72
Un calculateur Exascale à refroidissement liquide dans un seul rack
- 72x NVIDIA Blackwell B200 GPUs agissant comme un seul GPU avec un pool massif de mémoire HBM3e(13.5TB par rack)
- 9x NVLink Switch, 4 ports par serveur de calcul connectant 72 GPU pour fournir une interconnexion GPU-to-GPU de 1,8 To/s
- Refroidissement liquide direct Supermicro comprenant une unité de distribution du liquide de refroidissement (CDU) de 250 kW de capacité dans le rack avec PSU redondant et deux pompes remplaçables à chaud.
- Solution de refroidissement liquide de bout en bout de Supermicro et services complets de déploiement sur site
- Prêt pour les technologies réseau avancées pour l'évolutivité, y compris NVIDIA BlueField®-3 SuperNIC, Spectrum-X, Quantum-2, et les plates-formes réseau 800 Gb/s de la prochaine génération.

Serveur de calcul

- ARS-121GL-NBO-LCC
(non vendu individuellement)

Premier cluster d'IA à refroidissement
Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks
- Doublement de la densité de calcul grâce à la solution de refroidissement liquide personnalisée de Supermicro, avec une réduction de 40 % des coûts d'électricité pour le centre de données
- 256 GPU NVIDIA H100/H200 dans une unité évolutive
- 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
- Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
- Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
- Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
- Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.

Nœud de calcul


Conception éprouvée
Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 8U refroidis par air (256 GPU) dans 9 racks
- Architecture de pointe éprouvée pour les déploiements d'infrastructure d'IA à grande échelle.
- 256 GPU NVIDIA H100/H200 dans une unité évolutive
- 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
- Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
- Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
- Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
- Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.

Nœud de calcul

