Aller au contenu principal
Solutions de centre de données IA de bout en bout

À l'ère de l'IA, une unité de calcul ne se mesure plus seulement par le nombre de serveurs. Les GPU, les CPU, la mémoire, le stockage et ces ressources interconnectés sur plusieurs nœuds dans des racks construisent l'intelligence artificielle d'aujourd'hui. L'infrastructure nécessite des réseaux à grande vitesse et à faible latence, ainsi que des technologies de refroidissement et d'alimentation électrique soigneusement conçues pour maintenir des performances et une efficacité optimales dans chaque environnement de centre de données. La solution SuperCluster de Supermicro offre des solutions de centre de données d'IA de bout en bout pour l'IA générative et les grands modèles de langage (LLM) qui évoluent rapidement.

  • Intégration complète à grande échelle

    Conception et construction de baies et de clusters complètes avec une capacité de production globale allant jusqu'à 5,000 racks par mois

  • Tester, valider, déployer avec un service sur site

    Les processus d'essai de niveau L11 et L12 éprouvés permettent de valider en profondeur l'efficacité opérationnelle et l'efficience avant l'expédition.

  • Refroidissement parliquide/refroidissement par air

    Solution de refroidissement liquide ou par air entièrement intégrée avec plaques froides pour GPU et CPU, unités de distribution de refroidissement et collecteurs.

  • Gestion des approvisionnements et des stocks

    Un guichet unique pour fournir des baies entièrement intégrées rapidement et dans les délais afin de réduire le temps de mise en œuvre de la solution et de permettre un déploiement rapide.

Super Clusters d'IA

La solution complète de centre de données clé en main accélère le délai de livraison pour les cas d'utilisation critiques des entreprises et élimine la complexité de la construction d'un grand cluster, qui n'était auparavant réalisable que par le biais d'un design et optimisation fastidieuse des supercalculateurs.

Cluster IA NVIDIA HGX B200 refroidi par liquide

Avec jusqu'à 32 systèmes NVIDIA HGX B200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks

  • Déployez le summum des performances d'apprentissage et d'inférence en IA avec 256 GPU NVIDIA B200 dans une unité évolutive(5 racks).
  • Refroidissement liquide direct Supermicro comprenant une unité de distribution du liquide de refroidissement (CDU) de 250 kW de capacité dans le rack avec PSU redondant et deux pompes remplaçables à chaud.
  • 45 To de mémoire HBM3e dans une unité évolutive
  • Évolution avec l'Ethernet NVIDIA Spectrum™-X à 400 Gb/s ou l'InfiniBand NVIDIA Quantum-2
  • Infrastructure de stockage personnalisable intégrant des systèmes de fichiers parallèles reconnus du marché
  • Prise en charge de la plate-forme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA HGX B200 refroidie par liquide
Télécharger la fiche technique

Nœud de calcul

Système Supermicro 4U 8-GPU à refroidissement liquide (SYS-422GA-NBRT-LCC ou AS -4126GS-NBR-LCC)
32 systèmes NVIDIA HGX B200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks

Cluster IA NVIDIA HGX B200 refroidi par air

Avec 32 systèmes NVIDIA HGX B200 8-GPU, 10U refroidis par air (256 GPU) dans 9 racks

  • Architecture de référence reconnue dans l’industrie, intégrant une nouvelle plateforme à refroidissement par air optimisée pour les performances thermiques
  • 45 To de mémoire HBM3e dans une unité évolutive
  • Évolution avec l'Ethernet NVIDIA Spectrum-X à 400 Gb/s ou l'InfiniBand NVIDIA Quantum-2
  • Infrastructure de stockage personnalisable intégrant des systèmes de fichiers parallèles reconnus du marché
  • Prise en charge de la plate-forme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX B200 refroidie par air
Télécharger la fiche technique

Nœud de calcul

Système Supermicro 10U 8-GPU refroidi par air (SYS-A22GA-NBRT ou AS -A126GS-TNBR)
32 systèmes NVIDIA HGX B200 8-GPU, 10U refroidis par air (256 GPU) dans 9 racks

NVIDIA GB200 NVL72

Un calculateur Exascale à refroidissement liquide dans un seul rack

  • 72x NVIDIA Blackwell B200 GPUs agissant comme un seul GPU avec un pool massif de mémoire HBM3e(13.5TB par rack)
  • 9x NVLink Switch, 4 ports par serveur de calcul connectant 72 GPU pour fournir une interconnexion GPU-to-GPU de 1,8 To/s
  • Refroidissement liquide direct Supermicro comprenant une unité de distribution du liquide de refroidissement (CDU) de 250 kW de capacité dans le rack avec PSU redondant et deux pompes remplaçables à chaud.
  • Solution de refroidissement liquide de bout en bout de Supermicro et services complets de déploiement sur site
  • Prêt pour les technologies réseau avancées pour l'évolutivité, y compris NVIDIA BlueField®-3 SuperNIC, Spectrum-X, Quantum-2, et les plates-formes réseau 800 Gb/s de la prochaine génération.
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Télécharger la fiche technique

Serveur de calcul

Système individuel Supermicro 1U GB200 Grace Blackwell GPU (ARS-121GL-NBO-LCC), 1 sur 72
  • ARS-121GL-NBO-LCC
    (non vendu individuellement)
72 systèmes GPU NVIDIA Blackwell B200 dans 5 racks

Premier cluster d'IA à refroidissement

Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks

  • Doublement de la densité de calcul grâce à la solution de refroidissement liquide personnalisée de Supermicro, avec une réduction de 40 % des coûts d'électricité pour le centre de données
  • 256 GPU NVIDIA H100/H200 dans une unité évolutive
  • 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
  • Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
  • Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
  • Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
  • Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Télécharger la fiche technique

Nœud de calcul

Système Supermicro 4U 8-GPU à refroidissement liquide (SYS-421GE-TNHR2-LCC ou AS -4125GS-TNHR2-LCC)
32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks

Conception éprouvée

Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 8U refroidis par air (256 GPU) dans 9 racks

  • Architecture de pointe éprouvée pour les déploiements d'infrastructure d'IA à grande échelle.
  • 256 GPU NVIDIA H100/H200 dans une unité évolutive
  • 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
  • Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
  • Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
  • Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
  • Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Télécharger la fiche technique

Nœud de calcul

Système Supermicro 8U 8-GPU refroidi par air (SYS-821GE-TNHR ou AS -8125GS-TNHR)
32 systèmes NVIDIA HGX H100/H200 8-GPU, 8U refroidis par air (256 GPU) dans 9 racks
Ressources à la une

Certains produits peuvent ne pas être disponibles dans votre région