- Daten
- -
- Standort
- San Jose McEnery ConventionCenter • San Jose, Kalifornien
Entwickelt, um KI zu beschleunigen
Besuchen Sie Supermicro der GTC 2026
Supermicro zur NVIDIA GTC 2026 Supermicro und zeigt, wie NVIDIA-Plattformen zu produktionsreifen KI werden. Als langjähriger NVIDIA-Partner und GTC Diamond Sponsor Supermicro das branchenweit breiteste Portfolio an KI präsentieren, das Training, Inferenz, Speicher und Edge umfasst. Erfahren Sie, wie Supermicro eine Komplettlösung Supermicro , entwickelt und implementiert, die vollständig in KI und die neuesten Plattformen von NVIDIA integriert ist.
Einige Highlights sind:
- Lösungen der nächsten Generation, basierend auf der NVIDIA Vera Rubin-Architektur
- KI mit maximaler Dichte, flüssigkeitsgekühlt und luftgekühlt, mit NVIDIA HGX B300-Systemen und NVIDIA GB300 NVL72
- KI und RAG-Systeme, die für den Einsatz in Unternehmen optimiert sind, einschließlich PCIe-GPU-Servern, die für NVIDIA RTX PRO™-Plattformen optimiert sind.
- KI mit hohem Durchsatz und geringer Latenz für Trainings-, Feinabstimmungs- und Inferenz-Pipelines
- Edge- und lokale Rechenzentrums KI , die Intelligenz näher an den Ort bringen, an dem Daten erstellt werden
- Validierte KI , die Rechenleistung, Netzwerke, Speicher und Software zu einsetzbaren Lösungen verbinden
Besuchen Sie Supermicro der GTC 2026 und erfahren Sie, wie wir NVIDIA-Technologie in komplette, produktionsreife KI verwandeln!

EX82279 – Wem gehört die Intelligenz, wenn KI die Welt KI ? (Präsentiert von Global KI)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Charles Liang Supermicro)
- Sami Issa (Global KI)
Sitzungsdetails
Da KI von Megawatt auf Gigawatt skalieren, verlagert sich der Schwerpunkt von Modellen auf die Infrastruktur. Begleiten Sie drei führende Persönlichkeiten aus den Bereichen Computing, Systeme und nationale Plattformen bei ihrer Untersuchung, wie Entscheidungen in Bezug auf Stromversorgung, Kühlung, Architektur und Bereitstellung heute die Leistung, Souveränität und Kontrolle von Intelligenz bestimmen. Die Teilnehmer erfahren, warum sich die primären Engpässe in fortschrittlichen KI von Algorithmen zu physischer Infrastruktur, einschließlich Leistungsdichte, Kühlung und Latenz, verlagert haben. Sie lernen, was erforderlich ist, um KI im Gigawatt-Maßstab einzusetzen, ohne dabei Kompromisse bei Zuverlässigkeit, Sicherheit oder Wirtschaftlichkeit einzugehen. Sie erkunden, wie Systemarchitektur und Integrationsentscheidungen Determinismus, Isolation und Vertrauen in groß angelegten KI beeinflussen, und gewinnen Einblicke, wie sich souveräne und unternehmensinterne KI in Bezug auf Governance und Kontrolle von traditionellen Hyperscale-Cloud-Modellen unterscheiden.
S82228 – Verteiltes KI von KI bis zum Edge (präsentiert von Supermicro)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Thomas Jorgensen (Supermicro)
- Steve Stein (NVIDIA)
- Mory Lin (Supermicro)
Sitzungsdetails
Unternehmen gehen von KI zur Produktion über, wo der ROI genauso wichtig ist wie die Leistung. In dieser von Supermicro NVIDIA präsentierten Sitzung wird untersucht, wie KI , KI und lokale Bereitstellungen zusammenwirken, um skalierbare, kostengünstige KI zu liefern. Wir zeigen, wie Systeme mit GPUs wie der NVIDIA RTX PRO 6000/4500 Blackwell Server Edition Inferenz-, Visualisierungs- und RAG-Workloads (Retrieval-Augmented Generation) in Rechenzentren und Edge-Umgebungen unterstützen. Die Sitzung untersucht auch, wie RAG-Pipelines von eng integrierten GPUs, Netzwerken und Speichern profitieren, um kontextbezogene Ergebnisse mit geringer Latenz zu liefern – und so Unternehmen dabei zu helfen, die Datenkontrolle zu verbessern, die Betriebskosten zu senken und den ROI von KI zu maximieren.
S82227 – Flüssigkeitsgekühlte KI Plattformen der nächsten Generation (präsentiert von Supermicro)
- Standort
- San Jose, CA
- Datum
- zu
- Vortragende(r):
- Alok Srivastava (Supermicro)
- Steven Huang (Supermicro)
Sitzungsdetails
Da KI immer größer werden, um größere Modelle und höhere Clusterdichten zu unterstützen, ist Flüssigkeitskühlung unverzichtbar geworden. In dieser von Supermicro NVIDIA präsentierten Sitzung wird erläutert, wie KI der nächsten Generation mit flüssigkeitsgekühlten NVIDIA HGX-Systemen und NVL72-Rack-Scale-Plattformen aufgebaut werden, die dichte, leistungsstarke GPU-Cluster für groß angelegtes KI ermöglichen. Die Teilnehmer erhalten Einblicke in den Einsatz dieser Plattformen Supermicro als validierte Rack-Scale-Lösungen anstelle von eigenständigen Servern. Die Sitzung behandelt wichtige Aspekte der Konzeption und Bereitstellung, darunter die direkte Kühlung der Chips und die Integration der Flüssigkeitskühlung auf Rack-Ebene, und zeigt, wie flüssigkeitsgekühlte Komplettlösungen die Zeit bis zur Inbetriebnahme verkürzen und gleichzeitig die Leistung und Energieeffizienz moderner KI verbessern.

Charles Liang
Gründer, Präsident und CEO bei Supermicro

Sami Issa
Mitbegründer, Direktor und CEO bei Global KI

Thomas Jorgensen
Senior Director, Technologie-Enablement @ Supermicro

Steve Stein
Senior Produktmarketing-Manager bei NVIDIA

Mory Lin
Vizepräsident, IoT/Embedded & Edge Computing @ Supermicro

Alok Srivastava
Direktor, Lösungsmanagement KI Supermicro

Steven Huang
Projektmanager, Flüssigkeitskühlung für Rechenzentren @ Supermicro
Supermicro, DDN und NVIDIA erwecken die KI auf der GTC 2026 zum Leben
Dieses immersive interaktive Erlebnis präsentiert die Implementierung, Anwendungsfälle und Vorteile der KI und der KI Platform-Lösung. Mit Anwendungsfall-Demos, einer KI -Simulationserfahrung und einem generativen KI namens AMECA zeigt dieses Erlebnis die Vorteile von KI für Unternehmen.
Wenden Sie sich an Ihren Supermicro , um eine Führung zu vereinbaren, wenn Sie an der GTC teilnehmen.
