Socket Direct®
Une architecture innovante d’adaptateur réseau-NVIDIA® Mellanox® Socket Direct®- permet un accès PCIe direct à plusieurs sockets de CPU, ce qui évite d’avoir à faire passer le trafic réseau par le bus de communication interprocessus. Cela permet d’optimiser les performances globales du système et le débit maximal pour les applications et les marchés les plus exigeants.
Suppression des obstacles à la performance
Basée sur la technologie NVIDIA Mellanox Multi-Host®, la technologie NVIDIA Mellanox Socket Direct permet à plusieurs CPU au sein d’un serveur multi-socket de se connecter directement au réseau, chacune via sa propre interface PCIe dédiée. Soit par un faisceau de câbles de connexion qui répartit les voies PCIe entre deux cartes, soit par la division en deux d’un slot PCIe pour une seule carte. Cela élimine le trafic réseau qui passe par le bus interne entre les sockets, ce qui réduit considérablement l’overhead et le temps de latence, diminue l’utilisation du CPU et augmente le débit du réseau. Mellanox Socket Direct améliore également les performances des applications d’intelligence artificielle et d’apprentissage automatique en permettant l’utilisation de technologies GPU-Direct® natives.
HIGHLIGHTS
AMÉLIORATION DE LA LATENCE
80% de réduction
UTILISATION DU CPU
50% de moins
TAUX DE RENDEMENT
16-28% d’amélioration
PROTOCOLES DE RÉSEAU
Ethernet/InfiniBand
AVANTAGES
Facteurs de forme flexibles pour différents débits de données
– Les cartes ConnectX-6 Dx Multi-Host OCP 3.0 peuvent connecter un port 200GbE à 4 slots PCIe Gen4 x4 au maximum.
– Les cartes ConnectX-6 Socket Direct offrent des ports HDR 200Gb/s ou 200GbE via deux slots PCIe Gen3 x16
– Les cartes ConnectX-6 OCP3.0 offrent des ports HDR 200Gb/s ou 200GbE sur un maximum de 4 slots PCIe Gen4 x4
– Les cartes ConnectX-5 Socket Direct offrent un taux de transfert EDR de 100Gb/s ou 100GbE sur deux slots PCIe Gen3 x8
Des performances améliorées faciles à gérer
Les adaptateurs Socket Direct peuvent être connectés à un BMC à l’aide de MCTP sur SMBus ou MCTP sur PCIe, similaire à un adaptateur stand-up NVIDIA PCIe standard. L’interface de gestion choisie facilite la communication entre la plate-forme de gestion et le composant de sous-système et les adaptateurs Socket Direct peuvent ensuite être configurés de manière transparente par la solution de gestion de serveur choisie.
Socket Direct soulage le bus interprocesseur
La technologie Socket Direct utilise la même technologie sous-jacente qui permet le multi-hôte uniquement pour différentes unités centrales au sein du même serveur. En comparant le débit externe des serveurs lors de l’application de la charge interprocesseur avec la mise en œuvre de Socket Direct, le débit est amélioré de 16 à 28 % par rapport à une connexion d’adaptateur standard avec une seule unité centrale.
MULTI-HOST AND SOCKET DIRECT COMPARAISON
Connectors | 400GbE Ports | 200GbE Ports | 100GbE Ports | 50GbE Ports | 40GbE Ports | 25/10/1GbE Ports | Height | Max Throughput | Total Packets per Second | |
SN4600C | 64x QSFP28 100GbE | 64 | 128** | 64 | 128** | 2U | 12.8Tb/s | 8.4Bpps | ||
SN4700 | 32x QSFPDD 400GbE | 32 | 64** | 128** | 128** | 64** | 128** | 1U | 25.6Tb/s | 8.4Bpps |
SN4410* | 32x QSFPDD 400GbE | 8 | 16** | 24/48** | 128** | 64** | 128** | 1U | 8Tb/s | 8.4Bpps |
SN4600* | 64x QSFP56 200GbE | 64 | 128** | 128** | 64 | 128** | 2U | 25.6Tb/s | 8.4Bpps | |
SN4800* | 128x QSFP28 100GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
SN4800* | 32x QSFPDD 400GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
SN4800* | 64x QSFP56 200GbE | 32 | 64 | 128 | 128** | 64 | 128 | 4U | 25.6Tb/s | 8.4Bpps |
CONNECTX COMPARAISON
ORDERING PART NO. | MAX. SPEED | PORTS | CONNECTORS | ASIC & PCI DEV ID | PCI | LANES | |
ConnectX-6 Dx | MCX623435MN-CDAB | 100GbE | 1 | QSFP56 | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 Dx | Contact NVIDIA | 100GbE | 1 | DSFP | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 Dx | Contact NVIDIA | 100GbE | 1 | QSFP56 | ConnectX-6 Dx | Socket Direct PCIe 4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 Dx | Contact NVIDIA | 200GbE | 1 | QSFP56 | ConnectX-6 Dx | OCP3.0, Multi Host or Socket Direct, PCIe 4.0 x16 | 1x16/2x8/4x4 |
ConnectX-6 VPI | MCX653105A-EFAT | HDR100, EDR IB (100Gb/s) and 100GbE | 1 | QSFP56 | ConnectX-6 | Socket Direct 3.0/4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 VPI | MCX653106A-EFAT | HDR100, EDR IB (100Gb/s) and 100GbE | 2 | QSFP56 | ConnectX-6 | Socket Direct 3.0/4.0 x16, split into two x8 | 2x8 in a row |
ConnectX-6 VPI | MCX653106A-EFAT | HDR IB (200Gb/s) and 200GbE | 1 | QSFP56 | ConnectX-6 | Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card | 2x16 |
ConnectX-6 VPI | MCX654106A-HCAT | HDR IB (200Gb/s) and 200GbE | 2 | QSFP56 | ConnectX-6 | Socket Direct PCIe3.0 x16 + PCIe3.0x16 auxiliary card | 2x16 |
ConnectX-5 VPI | MCX556M-ECAT-S25 | EDR IB (100Gb/s) and 100GbE | 2 | QSFP28 | ConnectX-5 | Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 25cm harness | 2x8 |
ConnectX-5 VPI | MCX556M-ECAT-S35A | EDR IB (100Gb/s) and 100GbE | 2 | QSFP28 | ConnectX-5 | Socket Direct PCIe3.0 x8 + PCIe3.0x8 auxiliary card, 35cm harness | 2x8 |
*Pour les cas d’utilisation de la virtualisation Ethernet Socket Direct ou du double port Socket Direct, veuillez contacter le support client NVIDIA Mellanox
Contactez notre équipe
Si vous avez besoin de plus d'informations sur nos produits, n'hésitez pas à contacter notre équipe dédiée.
Nous contacter