Socket Direct®
Eine innovative Netzwerkadapter-Architektur—NVIDIA® Mellanox® Socket Direct®— ermöglicht den direkten PCIe-Zugriff auf mehrere CPU-Sockel, so dass der Netzwerkverkehr nicht mehr über den Bus für prozeßübergreifenden Kommunikation erfolgen muss. Dadurch werden die Gesamtleistung des Systems und der maximale Durchsatz für die anspruchsvollsten Anwendungen und Märkte optimiert.
Beseitigung von Verkehrsengpässen
Basierend auf der NVIDIA Mellanox Multi-Host® Technologie ermöglicht die NVIDIA Mellanox Socket Direct Technologie mehreren CPUs innerhalb eines Multi-Socket-Servers eine direkte Verbindung zum Netzwerk, jede über ihre eigene dedizierte PCIe-Schnittstelle. Entweder durch einen Verbindungskabelstrang, der die PCIe-Lanes zwischen zwei Karten aufteilt, oder durch die Zweiteilung eines PCIe-Steckplatzes für eine einzelne Karte. Dadurch entfällt der Netzwerkverkehr, der über den internen Bus zwischen den Sockeln läuft, was den Overhead und die Latenzzeit erheblich reduziert, die CPU-Auslastung verringert und den Netzwerkdurchsatz erhöht. Mellanox Socket Direct verbessert zudem die Leistung von Anwendungen für künstliche Intelligenz und maschinelles Lernen, da es native GPU-Direct® Technologien ermöglicht.
HIGHLIGHTS
LATENZVERBESSERUNG
80% Reduzierung
CPU-AUSLASTUNG
50% weniger
DURCHSATZ
16-28% Verbesserung
NETZWERKPROTOKOLLE
Ethernet/InfiniBand
VORTEILE
Flexible Formfaktoren für verschiedene Datengeschwindigkeiten
– ConnectX-6 Dx Multi-Host OCP 3.0-Karten können einen 200GbE-Port mit bis zu 4 PCIe Gen4 x4-Steckplätzen verbinden
– ConnectX-6 Socket Direct-Karten bieten HDR 200Gb/s- oder 200GbE-Ports über zwei PCIe Gen3 x16-Steckplätze
– ConnectX-6 OCP3.0-Karten bieten HDR 200Gb/s- oder 200GbE-Ports für bis zu 4 PCIe Gen4 x4-Steckplätze
– ConnectX-5 Socket Direct-Karten bieten eine EDR-Übertragungsrate von 100Gb/s oder 100GbE über zwei PCIe Gen3 x8-Steckplätze
Verbesserte Leistung, die einfach zu verwalten ist
Socket Direct-Adapter können mit MCTP über SMBus oder MCTP über PCIe an einen BMC angeschlossen werden, ähnlich einem Standard-NVIDIA PCIe-Stand-up-Adapter. Die gewählte Verwaltungsschnittstelle erleichtert die Kommunikation zwischen der Plattformverwaltung sowie der Subsystemkomponente und die Socket Direct-Adapter können dann über die gewählte Serververwaltungslösung transparent konfiguriert werden.
Socket Direct entlastet den prozessorübergreifenden Bus
Die Socket Direct-Technologie verwendet die gleiche zugrunde liegende Technologie, die Multi Host nur für verschiedene CPUs innerhalb desselben Servers ermöglicht. Beim Vergleich des externen Durchsatzes der Server beim Anwenden der prozessorübergreifenden Last mit der Implementierung von Socket Direct, wird der Durchsatz im Vergleich zur Standardadapterverbindung mit einer einzelnen CPU um 16–28 % verbessert.
MULTI-HOST AND SOCKET DIRECT – VERGLEICH
Connectors | 400GbE Ports | 200GbE Ports | 100GbE Ports | 50GbE Ports | 40GbE Ports | 25/10/1GbE Ports | Height | Max Throughput | Total Packets per Second | |
SN4600C | 64x QSFP28 100GbE | 64 | 128** | 64 | 128** | 2U | 12.8Tb/s | 8.4Bpps | ||
SN4700 | 32x QSFPDD 400GbE | 32 | 64** | 128** | 128** | 64** | 128** | 1U | 25.6Tb/s | 8.4Bpps |
SN4410* | 32x QSFPDD 400GbE | 8 | 16** | 24/48** | 128** | 64** | 128** | 1U | 8Tb/s | 8.4Bpps |
SN4600* | 64x QSFP56 200GbE | 64 | 128** | 128** | 64 | 128** | 2U | 25.6Tb/s | 8.4Bpps | |
SN4800* | 128x QSFP28 100GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
SN4800* | 32x QSFPDD 400GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
SN4800* | 64x QSFP56 200GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
CONNECTX VERGLEICH
ORDERING PART NO. | MAX. SPEED | PORTS | CONNECTORS | ASIC & PCI DEV ID | PCI | LANES | |
ConnectX-6 Dx | MCX623435MN-CDAB | 100GbE | 1 | QSFP56 | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 Dx | Contact NVIDIA | 100GbE | 1 | DSFP | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 Dx | Contact NVIDIA | 100GbE | 1 | QSFP56 | ConnectX-6 Dx | Socket Direct PCIe 4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 Dx | Contact NVIDIA | 200GbE | 1 | QSFP56 | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 VPI | MCX653105A-EFAT | HDR100, EDR IB (100Gb/s) and 100GbE | 1 | QSFP56 | ConnectX-6 | Socket Direct 3.0/4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 VPI | MCX653106A-EFAT | HDR100, EDR IB (100Gb/s) and 100GbE | 2 | QSFP56 | ConnectX-6 | Socket Direct 3.0/4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 VPI | MCX653106A-EFAT | HDR IB (200Gb/s) and 200GbE | 1 | QSFP56 | ConnectX-6 | Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card | 2x16 |
ConnectX-6 VPI | MCX654106A-HCAT | HDR IB (200Gb/s) and 200GbE | 2 | QSFP56 | ConnectX-6 | Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card | 2x16 |
ConnectX-5 VPI | MCX556M-ECAT-S25 | EDR IB (100Gb/s) and 100GbE | 2 | QSFP28 | ConnectX-5 | Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 25cm harness | 2x8 |
ConnectX-5 VPI | MCX556M-ECAT-S35A | EDR IB (100Gb/s) and 100GbE | 2 | QSFP28 | ConnectX-5 | Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 35cm harness | 2x8 |
*For Socket Direct Ethernet virtualization or Socket Direct dual-port use cases please contact NVIDIA Mellanox Customer support
Kontaktieren Sie unser Team
Wenn Sie weitere Informationen zu unseren Produkten benötigen, zögern Sie nicht, unser engagiertes Team zu kontaktieren.
kontaktiere uns