- Daten
- -
- Standort
- San Jose McEnery ConventionCenter • San Jose, Kalifornien
Entwickelt, um KI zu beschleunigen
Supermicro auf der GTC 2026
Supermicro kehrte zur NVIDIA GTC 2026 zurück und zeigte, wie NVIDIA-Plattformen zu produktionsreifen KI-Fabriken werden. Als langjähriger NVIDIA-Partner und GTC Diamond Sponsor demonstrierte Supermicro das branchenweit breiteste Portfolio an KI-Fabrik Building Blocks, die Training, Inferenz, Speicher und Edge umfassen. Die Teilnehmer konnten sehen, wie Supermicro eine Gesamtlösung entwirft, baut und implementiert, die vollständig in den KI-Software-Stack und die neuesten Plattformen von NVIDIA integriert ist.
Zu den Höhepunkten zählten unter anderem:
- Lösungen der nächsten Generation, basierend auf der NVIDIA Vera Rubin-Architektur
- KI mit maximaler Dichte, flüssigkeitsgekühlt und luftgekühlt, mit NVIDIA HGX B300-Systemen und NVIDIA GB300 NVL72
- KI und RAG-Systeme, die für den Einsatz in Unternehmen optimiert sind, einschließlich PCIe-GPU-Servern, die für NVIDIA RTX PRO™-Plattformen optimiert sind.
- KI mit hohem Durchsatz und geringer Latenz für Trainings-, Feinabstimmungs- und Inferenz-Pipelines
- Edge- und lokale Rechenzentrums KI , die Intelligenz näher an den Ort bringen, an dem Daten erstellt werden
- Validierte KI , die Rechenleistung, Netzwerke, Speicher und Software zu einsetzbaren Lösungen verbinden
Die Veranstaltung ist zu Ende gegangen. Wir hoffen, euch nächstes Jahr wiederzusehen!

EX82279 – Wem gehört die Intelligenz, wenn KI die Welt KI ? (Präsentiert von Global KI)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Charles Liang (Supermicro)
- Sami Issa (Global KI)
Sitzungsdetails
Da KI von Megawatt auf Gigawatt skalieren, verlagert sich der Schwerpunkt von Modellen auf die Infrastruktur. Begleiten Sie drei führende Persönlichkeiten aus den Bereichen Computing, Systeme und nationale Plattformen bei ihrer Untersuchung, wie Entscheidungen in Bezug auf Stromversorgung, Kühlung, Architektur und Bereitstellung heute die Leistung, Souveränität und Kontrolle von Intelligenz bestimmen. Die Teilnehmer erfahren, warum sich die primären Engpässe in fortschrittlichen KI von Algorithmen zu physischer Infrastruktur, einschließlich Leistungsdichte, Kühlung und Latenz, verlagert haben. Sie lernen, was erforderlich ist, um KI im Gigawatt-Maßstab einzusetzen, ohne dabei Kompromisse bei Zuverlässigkeit, Sicherheit oder Wirtschaftlichkeit einzugehen. Sie erkunden, wie Systemarchitektur und Integrationsentscheidungen Determinismus, Isolation und Vertrauen in groß angelegten KI beeinflussen, und gewinnen Einblicke, wie sich souveräne und unternehmensinterne KI in Bezug auf Governance und Kontrolle von traditionellen Hyperscale-Cloud-Modellen unterscheiden.
S82228 – Verteilte KI-Berechnung von KI-Fabriken bis zum Edge (Präsentiert von Supermicro)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Thomas Jorgensen (Supermicro)
- Steve Stein (NVIDIA)
- Mory Lin (Supermicro)
Sitzungsdetails
Unternehmen gehen von der KI-Experimentierphase zur Produktion über, wo der ROI ebenso wichtig ist wie die Leistung. Diese von Supermicro und NVIDIA präsentierte Session beleuchtet, wie KI-Fabriken, Edge-KI und On-Premise-Bereitstellungen zusammenwirken, um skalierbare, kosteneffiziente KI-Lösungen bereitzustellen. Wir werden hervorheben, wie Systeme, die von GPUs wie der NVIDIA RTX PRO 6000/4500 Blackwell Server Edition angetrieben werden, Inferenz-, Visualisierungs- und Retrieval-Augmented Generation (RAG)-Workloads in Rechenzentren und Edge-Umgebungen unterstützen. Die Session wird auch untersuchen, wie RAG-Pipelines von eng integrierten GPUs, Netzwerken und Speichern profitieren, um latenzarme, kontextbezogene Ergebnisse zu liefern – und Unternehmen dabei helfen, die Datenkontrolle zu verbessern, Betriebskosten zu senken und den ROI aus KI-Investitionen zu maximieren.
S82227 – Flüssigkeitsgekühlte KI für Plattformen der nächsten Generation (Präsentiert von Supermicro)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Alok Srivastava (Supermicro)
- Steven Huang (Supermicro)
Sitzungsdetails
Da KI-Fabriken zur Unterstützung größerer Modelle und höherer Clusterdichten skalieren, ist Flüssigkeitskühlung unerlässlich geworden. Diese von Supermicro und NVIDIA präsentierte Session beleuchtet, wie KI-Fabriken der nächsten Generation mit flüssigkeitsgekühlten NVIDIA HGX-Systemen und NVL72 Rack-Scale-Plattformen gebaut werden, die dichte, hochleistungsfähige GPU-Cluster für groß angelegtes KI-Training ermöglichen. Die Teilnehmer erhalten Einblicke in die Bereitstellung dieser Plattformen durch Supermicro als validierte Rack-Scale-Lösungen und nicht als eigenständige Server. Die Session behandelt wichtige Design- und Bereitstellungsüberlegungen, einschließlich Direkt-Chip-Kühlung und flüssigkeitsbasierter Rack-Integration, und zeigt, wie flüssigkeitsgekühlte Gesamtlösungen die Online-Zeit beschleunigen und gleichzeitig die Leistung und Energieeffizienz für moderne KI-Fabriken verbessern.

Charles Liang
Gründer, Präsident & CEO @ Supermicro

Sami Issa
Mitbegründer, Direktor und CEO bei Global KI

Thomas Jorgensen
Senior Director, Technology Enablement bei Supermicro

Steve Stein
Senior Produktmarketing-Manager bei NVIDIA

Mory Lin
Vizepräsident, IoT/Embedded & Edge Computing bei Supermicro

Alok Srivastava
Direktor, Lösungsmanagement KI @ Supermicro

Steven Huang
Projektmanager, Datacenter Liquid Cooling @ Supermicro
Supermicro, DDN und NVIDIA erwecken die KI-Fabrik auf der GTC 2026 zum Leben.
Dieses fesselnde interaktive Erlebnis veranschaulichte die Implementierung, Anwendungsfälle und Vorteile der KI sowie der KI Platform. Mit Anwendungsbeispielen, einer KI und einem generativen KI namens AMECA verdeutlichte dieses Erlebnis die Vorteile von KI im Unternehmensbereich.
