Die NVIDIA GH200 Superchip-Based Server Platform von Supermicro erhöht die Leistung von KI-Workloads durch eine eng integrierte CPU und GPU und integriert die neuesten DPU-Netzwerk- und Kommunikationstechnologien
SAN JOSE, Kalifornien, 19. Oktober 2023 — Supermicro, Inc. (NASDAQ: SMCI), ein Anbieter von Total-IT-Lösungen für KI, Cloud, Storage und 5G/Edge, kündigt eine der umfangreichsten Produktpaletten neuer GPU-Systeme an, die auf der NVIDIA-Referenzarchitektur basieren und die neuesten NVIDIA GH200 Grace Hopper und NVIDIA Grace CPU Superchips enthalten. Die neue, modulare Architektur ist dafür konzipiert, die KI-Infrastruktur und das beschleunigte Rechnen in kompakten 1U- und 2U-Formfaktoren zu standardisieren und gleichzeitig maximale Flexibilität und Erweiterbarkeit für aktuelle und zukünftige GPUs, DPUs und CPUs zu bieten. Die fortschrittliche Flüssigkeitskühlung von Supermicro ermöglicht sehr dichte Konfigurationen, wie z.B. eine 1U-Konfiguration mit 2 Knoten und 2 NVIDIA GH200 Grace Hopper Superchips, die über eine Hochgeschwindigkeitsverbindung verbunden sind. Supermicro kann monatlich Tausende rackfähige KI-Server aus weltweiten Produktionsstätten liefern und stellt die Plug-and-Play-Kompatibilität sicher.
MGX 1080
“Supermicro ist ein anerkannter Vorreiter bei der Förderung der heutigen KI-Revolution, die Rechenzentren transformiert, um das Versprechen von KI für viele Workloads einzulösen”, sagte Charles Liang, Präsident und CEO von Supermicro. “Es ist von entscheidender Bedeutung für uns, Systeme bereitzustellen, die hochgradig modular, skalierbar und universell für sich rasch weiterentwickelnde KI-Technologien sind. Unsere NVIDIA MGX-basierten Lösungen zeigen, dass unsere Bausteinstrategie es uns ermöglicht, die neuesten Systeme schnell auf den Markt zu bringen und sie sind die arbeitslastoptimiertesten der Branche. Durch die Zusammenarbeit mit NVIDIA helfen wir Unternehmen, die Markteinführungszeiten für neue KI-fähige Anwendungen zu beschleunigen, die Bereitstellung zu vereinfachen und die Umweltbelastung zu reduzieren. Die neue Produktreihe integriert die neuesten Branchentechnologien, die für KI optimiert sind, einschließlich NVIDIA GH200 Grace Hopper Superchips, BlueField und PCIe 5.0 EDSFF-Slots.”
Weitere Informationen zu den NVIDIA MGX-Systemen von Supermicro finden Sie unter: www.supermicro.com/mgx
Registrieren und das Supermicro MGX Webinar ansehen
“NVIDIA und Supermicro haben schon lange an einigen der leistungsfähigsten KI-Systeme zusammengearbeitet”, sagte Ian Buck, Vice President für Hyperscale und HPC bei NVIDIA. “Das modulare NVIDIA MGX-Referenzdesign in Kombination mit dem Server-Know-how von Supermicro wird neue Generationen von KI-Systemen schaffen, die unsere Grace- und Grace Hopper-Superchips enthalten, um Kunden und Branchen weltweit zugute zu kommen.”
Überblick über die NVIDIA MGX-Plattform von Supermicro
Die NVIDIA MGX-Plattformen von Supermicro sind dafür konzipiert, eine Reihe von Servern bereitzustellen, die künftige KI-Technologien aufnehmen können. Diese neue Produktreihe geht spezifisch auf die einzigartigen thermischen, stromversorgungs- und mechanischen Herausforderungen von KI-basierten Servern ein.
Zur neuen NVIDIA MGX-Produktlinie von Supermicro gehören:
- ARS-111GL-NHR – 1 NVIDIA GH200 Grace Hopper Superchip, Luftgekühlt
- ARS-111GL-NHR-LCC – 1 NVIDIA GH200 Grace Hopper Superchip, Flüssigkeitsgekühlt
- ARS-111GL-DHNR-LCC – 2 NVIDIA GH200 Grace Hopper Superchips, 2 Knoten, Flüssigkeitsgekühlt
- ARS-121L-DNR – 2 NVIDIA Grace CPU Superchips in jedem von 2 Knoten, 288 Kerne insgesamt
- ARS-221GL-NR – 1 NVIDIA Grace CPU Superchip in 2U
- SYS-221GE-NR – Dual-Socket 4. Gen Intel Xeon Scalable Prozessoren mit bis zu 4 NVIDIA H100 Tensor Core oder 4 NVIDIA PCIe GPUs
Jede MGX-Plattform kann mit NVIDIA BlueField®-3 DPU und/oder NVIDIA ConnectX®-7-Schnittstellen für Hochleistungs-InfiniBand oder Ethernet-Netzwerke aufgerüstet werden.
Technische Spezifikationen
Die 1U NVIDIA MGX-Systeme von Supermicro verfügen über bis zu 2 NVIDIA GH200 Grace Hopper Superchips mit 2 NVIDIA H100 GPUs und 2 NVIDIA Grace CPUs. Jedes kommt mit 480GB LPDDR5X-Speicher für den CPU und 96GB HBM3- oder 144GB HBM3e-Speicher für die GPU. Die speicherkoherente, hochbandbreite und niedriglatente NVIDIA-C2C-Schnittstelle verbindet den CPU, GPU und Speicher mit 900GB/s – das ist 7-mal schneller als PCIe 5.0. Die modulare Architektur bietet mehrere PCIe 5.0 x16 FHFL-Slots für DPUs für Cloud- und Datenmanagement und Erweiterbarkeit für zusätzliche GPUs, Netzwerke und Speicher.
Mit dem 1U-Doppelknoten-Design mit 2 NVIDIA GH200 Grace Hopper Superchips können die bewährten direkten Chip-Flüssigkeitskühllösungen von Supermicro die Betriebskosten um mehr als 40% senken und gleichzeitig die Rechenleistungsdichte erhöhen und den rackfähigen Einsatz großer Sprachmodell-(LLM)-Cluster und HPC-Anwendungen vereinfachen.
Die 2U-Supermicro-NVIDIA-MGX-Plattform unterstützt sowohl NVIDIA Grace- als auch x86-CPUs mit bis zu 4 vollwertigen Rechenbeschleuniger-GPUs wie NVIDIA H100 PCIe, H100 NVL oder L40S. Sie bietet auch drei zusätzliche PCIe 5.0 x16-Slots für I/O-Konnektivität und acht hot-swap EDSFF-Speicherschächte.
Supermicro bietet mit NVIDIA-Netzwerken die Absicherung und Beschleunigung von KI-Workloads auf der MGX-Plattform. Dazu gehören eine Kombination aus NVIDIA BlueField-3 DPUs, die 2x 200Gb/s-Konnektivität für die Beschleunigung von Benutzer-Cloud- und Datenspeicherzugriff bieten, sowie ConnectX-7-Adapter, die bis zu 400Gb/s InfiniBand oder Ethernet-Konnektivität zwischen GPU-Servern ermöglichen.
Entwickler können diese neuen Systeme und die NVIDIA-Softwareangebote schnell für jede Branchenanwendung nutzen. Dazu gehören NVIDIA AI Enterprise, eine unternehmensgerechte Software, die die NVIDIA KI-Plattform antreibt und die Entwicklung und Bereitstellung produktionsreifer generativer KI, Computer Vision, Sprach-KI und mehr vereinfacht. Darüber hinaus bietet das NVIDIA HPC Software Development Kit die entscheidenden Werkzeuge, um die Weiterentwicklung des wissenschaftlichen Rechnens voranzutreiben.
Jedes Aspekt der Supermicro NVIDIA MGX Systeme ist darauf ausgelegt, die Effizienz zu erhöhen, von der intelligenten Wärmeleitungsplanung bis zur Komponentenauswahl. Die NVIDIA Grace Superchip CPUs verfügen über 144 Kerne und liefern bis zu doppelt so viel Leistung pro Watt wie heutige Standard-x86-CPUs der Branche. Bestimmte Supermicro NVIDIA MGX Systeme können mit zwei Knoten in 1U konfiguriert werden, was insgesamt 288 Kerne auf zwei Grace CPU Superchips ermöglicht und bahnbrechende Rechenleistungsdichten und Energieeffizienz im Hyperscale- und Edge-Bereich bietet.