Supermicro, Intel und Microsoft zeigen, wie sich bei OLAP-Workloads unter Microsoft SQL Server auf Intel® Xeon® 6-Prozessoren Leistungssteigerungen von 35 % erzielen lassen
Der neue Intel® Flat Memory Mode vereinfacht die Speichererweiterung

Der neue Intel® Flat Memory Mode vereinfacht die Speichererweiterung

Deutliche Effizienzsteigerungen bei der Virtualisierung im Vergleich zu Systemen mit Intel Xeon der 3. Generation: 27 % geringere TDP, 33 % weniger Kerne, 50 % weniger Server

Supermicro, Red Hat, Senao, Lanner und Intel bündeln ihre Kräfte, um eine Familie von Edge-Computing-Lösungen zu schaffen, die KI-fähig und für die Workload-Konsolidierung skalierbar sind.

Der neue Intel® Flat Memory Mode vereinfacht die Speichererweiterung

Deutliche Effizienzsteigerungen bei der Virtualisierung im Vergleich zu Systemen mit Intel Xeon der 3. Generation: 27 % geringere TDP, 33 % weniger Kerne, 50 % weniger Server

Supermicro, Red Hat, Senao, Lanner und Intel bündeln ihre Kräfte, um eine Familie von Edge-Computing-Lösungen zu schaffen, die KI-fähig und für die Workload-Konsolidierung skalierbar sind.

KI und Effizienz am intelligenten Edge – mit Technologie von Intel
KI-Fabriken von Supermicro und NVIDIA sind komplette, schlüsselfertige Lösungen, die entwickelt wurden, um die Bereitstellung von Unternehmens-KI im großen Maßstab zu vereinfachen und eine schnellere Inbetriebnahme sowie Umsatzgenerierung ermöglichen. Diese End-to-End-KI-Infrastrukturlösungen kombinieren hochleistungsfähiges GPU-Compute, KI-Software, Hochgeschwindigkeitsnetzwerke und skalierbaren Speicher, um Rechenzentrums-taugliche KI-Workloads zu beschleunigen.

Die neue Supermicro Super KI Station für KI-Inferenz, Modelltraining und Feinabstimmung – mit dem NVIDIA BG300 Grace™ Blackwell Ultra Desktop Superchip

Leistungsstarke, flexible Beschleunigung für vielfältige Workloads – von KI über das Rechenzentrum bis hin zum Edge

KI-Fabriken von Supermicro und NVIDIA sind komplette, schlüsselfertige, marktführende Lösungen, die die Bereitstellung von KI in jedem Maßstab vereinfachen und durch Rack-Level-Integration vollständiges KI-Vertrauen gewährleisten.
Begleiten Sie Kitana und Rudy vom Technology Enablement Team bei Supermicro, wenn sie die ideale Lösung für die KI-Entwicklung vorstellen: die Super KI Station. Die ARS-511GD-NB-LCC von Supermicro, ausgestattet mit dem NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, ist ein flüssigkeitsgekühltes Deskside-System, das KI-Leistung der Rechenzentrumsklasse direkt unter Ihrem Schreibtisch für Training, Feinabstimmung und Inferenz mit hohem Durchsatz bei großen Modellen liefert.
Supermicro BigTwin® bietet maximale Rechen- und Speicherdichte bei hoher Energieeffizienz, was es zu einer überzeugenden Wahl für moderne Workloads macht, die Skalierbarkeit, Flexibilität und Leistung in energiebegrenzten Umgebungen erfordern.
Supermicro SuperBlade® bietet unübertroffene Rechenleistungsdichte und außergewöhnliche Performance in einem kompakten Formfaktor, wodurch Rechenzentren in die Lage versetzt werden, mit weniger mehr zu erreichen.

Supermicros Rear Door Heat Exchanger (RDHx) ist eine Plug-and-Cool-Luft-Flüssigkeits-Lösung für Rechenzentren, die eine Kühlleistung von bis zu 50 kW mit universeller Rack-Kompatibilität, redundanten Lüftern (6-10 Einheiten), intelligenter Anti-Kondensation und Protokollen wie Redfish, SNMP und Web-UI zur effizienten Wärmeableitung in hochdichten KI- und HPC-Umgebungen bietet.

Supermicros Rear Door Heat Exchanger (RDHx) ist eine Plug-and-Cool-Luft-Flüssigkeits-Lösung für Rechenzentren, die eine Kühlleistung von bis zu 80 kW mit universeller Rack-Kompatibilität, redundanten Lüftern (4-5 Einheiten), intelligenter Anti-Kondensation und Protokollen wie Redfish, SNMP und Web-UI zur effizienten Wärmeableitung in hochdichten KI- und HPC-Umgebungen bietet.

SteelDome auf Supermicro BigTwin® bietet einen validierten, hochdichten Pfad zu moderner Infrastruktur – der Speicher, Virtualisierung und Orchestrierung in einer einzigen Plattform vereint. Entwickelt für Skalierbarkeit ohne störende Migrationen und gebaut, um leistungsintensive Workloads mit hoher Ausfallsicherheit zu unterstützen, ermöglicht die Kombination aus cluster-first Software und cluster-freundlicher BigTwin Hardware Kunden, schnell bereitzustellen, zu betreiben und sicher zu skalieren.

Zweckgebundene KI-Fabriken, angetrieben von Supermicro Systemen und NVIDIA beschleunigtem Computing, ermöglichen Betreibern die Bereitstellung sicherer, skalierbarer, GPU-dichter KI-Umgebungen, die GenAI, RAG, LLM-Training und Echtzeit-Inferenz unterstützen – und gleichzeitig neue Umsatzmöglichkeiten wie Sovereign KI-as-a-Service eröffnen.