Socket Direct®

Maximiser les performances du centre de données et augmenter le retour sur investissement

Une architecture innovante d’adaptateur réseau-NVIDIA® Mellanox® Socket Direct®- permet un accès PCIe direct à plusieurs sockets de CPU, ce qui évite d’avoir à faire passer le trafic réseau par le bus de communication interprocessus. Cela permet d’optimiser les performances globales du système et le débit maximal pour les applications et les marchés les plus exigeants.

Suppression des obstacles à la performance

Basée sur la technologie NVIDIA Mellanox Multi-Host®, la technologie NVIDIA Mellanox Socket Direct permet à plusieurs CPU au sein d’un serveur multi-socket de se connecter directement au réseau, chacune via sa propre interface PCIe dédiée. Soit par un faisceau de câbles de connexion qui répartit les voies PCIe entre deux cartes, soit par la division en deux d’un slot PCIe pour une seule carte. Cela élimine le trafic réseau qui passe par le bus interne entre les sockets, ce qui réduit considérablement l’overhead et le temps de latence, diminue l’utilisation du CPU et augmente le débit du réseau. Mellanox Socket Direct améliore également les performances des applications d’intelligence artificielle et d’apprentissage automatique en permettant l’utilisation de technologies GPU-Direct® natives.

En Savoir Plus
SOCKET DIRECT ADAPTERS

HIGHLIGHTS

AMÉLIORATION DE LA LATENCE

80% de réduction

UTILISATION DU CPU

50% de moins

TAUX DE RENDEMENT

16-28% d’amélioration

PROTOCOLES DE RÉSEAU

Ethernet/InfiniBand

AVANTAGES

Flexible Form Factors Across Multiple Data Speeds

Facteurs de forme flexibles pour différents débits de données

– Les cartes ConnectX-6 Dx Multi-Host OCP 3.0 peuvent connecter un port 200GbE à 4 slots PCIe Gen4 x4 au maximum.
– Les cartes ConnectX-6 Socket Direct offrent des ports HDR 200Gb/s ou 200GbE via deux slots PCIe Gen3 x16
– Les cartes ConnectX-6 OCP3.0 offrent des ports HDR 200Gb/s ou 200GbE sur un maximum de 4 slots PCIe Gen4 x4
– Les cartes ConnectX-5 Socket Direct offrent un taux de transfert EDR de 100Gb/s ou 100GbE sur deux slots PCIe Gen3 x8

Enhanced Performance That is Easy to Manage

Des performances améliorées faciles à gérer

Les adaptateurs Socket Direct peuvent être connectés à un BMC à l’aide de MCTP sur SMBus ou MCTP sur PCIe, similaire à un adaptateur stand-up NVIDIA PCIe standard. L’interface de gestion choisie facilite la communication entre la plate-forme de gestion et le composant de sous-système et les adaptateurs Socket Direct peuvent ensuite être configurés de manière transparente par la solution de gestion de serveur choisie.

Socket Direct Removes the Load on the Inter-processor Bus

Socket Direct soulage le bus interprocesseur

La technologie Socket Direct utilise la même technologie sous-jacente qui permet le multi-hôte uniquement pour différentes unités centrales au sein du même serveur. En comparant le débit externe des serveurs lors de l’application de la charge interprocesseur avec la mise en œuvre de Socket Direct, le débit est amélioré de 16 à 28 % par rapport à une connexion d’adaptateur standard avec une seule unité centrale.

MULTI-HOST AND SOCKET DIRECT COMPARAISON

Connectors 400GbE Ports 200GbE Ports 100GbE Ports 50GbE Ports 40GbE Ports 25/10/1GbE Ports Height Max Throughput Total Packets per Second
SN4600C 64x QSFP28 100GbE 64 128** 64 128** 2U 12.8Tb/s 8.4Bpps
SN4700 32x QSFPDD 400GbE 32 64** 128** 128** 64** 128** 1U 25.6Tb/s 8.4Bpps
SN4410* 32x QSFPDD 400GbE 8 16** 24/48** 128** 64** 128** 1U 8Tb/s 8.4Bpps
SN4600* 64x QSFP56 200GbE 64 128** 128** 64 128** 2U 25.6Tb/s 8.4Bpps
SN4800* 128x QSFP28 100GbE 32 64 128 128** 64 128 4U 25.6Tb/s 8.4Bpps
SN4800* 32x QSFPDD 400GbE 32 64 128 128** 64 128 4U 25.6Tb/s 8.4Bpps
SN4800* 64x QSFP56 200GbE 32 64 128 128** 64 128 4U 25.6Tb/s 8.4Bpps

CONNECTX COMPARAISON

ORDERING PART NO. MAX. SPEED PORTS CONNECTORS ASIC & PCI DEV ID PCI LANES
ConnectX-6 Dx MCX623435MN-CDAB 100GbE 1 QSFP56 ConnectX-6 Dx OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
ConnectX-6 Dx Contact NVIDIA 100GbE 1 DSFP ConnectX-6 Dx OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
ConnectX-6 Dx Contact NVIDIA 100GbE 1 QSFP56 ConnectX-6 Dx Socket Direct PCIe 4.0 x16, split into two x8 2x8 in a row
ConnectX-6 Dx Contact NVIDIA 200GbE 1 QSFP56 ConnectX-6 Dx OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
ConnectX-6 VPI MCX653105A-EFAT HDR100, EDR IB (100Gb/s) and 100GbE 1 QSFP56 ConnectX-6 Socket Direct 3.0/4.0 x16, split into two x8 2x8 in a row
ConnectX-6 VPI MCX653106A-EFAT HDR100, EDR IB (100Gb/s) and 100GbE 2 QSFP56 ConnectX-6 Socket Direct 3.0/4.0 x16, split into two x8 2x8 in a row
ConnectX-6 VPI MCX653106A-EFAT HDR IB (200Gb/s) and 200GbE 1 QSFP56 ConnectX-6 Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card 2x16
ConnectX-6 VPI MCX654106A-HCAT HDR IB (200Gb/s) and 200GbE 2 QSFP56 ConnectX-6 Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card 2x16
ConnectX-5 VPI MCX556M-ECAT-S25 EDR IB (100Gb/s) and 100GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 25cm harness 2x8
ConnectX-5 VPI MCX556M-ECAT-S35A EDR IB (100Gb/s) and 100GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 35cm harness 2x8

*Pour les cas d’utilisation de la virtualisation Ethernet Socket Direct ou du double port Socket Direct, veuillez contacter le support client NVIDIA Mellanox

Contactez notre équipe

Si vous avez besoin de plus d'informations sur nos produits, n'hésitez pas à contacter notre équipe dédiée.

Nous contacter