SB7780/SB7880 Infiniband Series
Das beispiellose Wachstum des globalen HPC-Marktes in Verbindung mit den unersättlichen Anforderungen von Exascale Ökosystemen auf der ganzen Welt hat zu einem rasanten Anstieg der Anzahl der angeschlossenen Server geführt. Die NVIDIA Mellanox SB7780/SB7880 InfiniBand Router ermöglichen die Skalierung auf eine unbegrenzte Anzahl von Knoten und erfüllen gleichzeitig die Datenverarbeitungsanforderungen von Maschinenlernen, IoT, HPC und Cloud-Anwendungen.
Ausfallsicherheit und einfache Skalierung
Der InfiniBand-Router erweitert das Mellanox-Switch-Portfolio um zwei wichtige Aspekte: Zur Erhöhung der Ausfallsicherheit trennt der Router das Netzwerk des Rechenzentrums in mehrere Subnetze auf. Jedes Subnetz verfügt über einen eigenen Subnetz-Manager, wodurch jedes Subnetz effektiv von der Verfügbarkeit oder Instabilität der anderen isoliert wird. Darüber hinaus ermöglicht der Router die Skalierung der Fabric auf eine unbegrenzte Anzahl von Knoten.
![NVIDIA Mellanox SB7780/SB7880](https://networking.pny.eu/wp-content/uploads/2021/08/nvidia-mellanox-SB7780-2c50-d.jpg)
HÖHEPUNKTE
Maximale Port-Geschwindigkeit
100GB/S
ANZAHL DER PORTS
36EDR
MAX. DURCHSATZ
7.2Tb/s
SWITCH-GRÖSSE
1u
STROMVERBRAUCH (ATIS)
136W
WELTKLASSE INFINIBAND-LEISTUNG
![In-Network Computing](https://networking.pny.eu/wp-content/uploads/2021/08/nvidia-mellanox-in-network-3c33-d.jpg)
In-Network Computing
NVIDIA Mellanox InfiniBand SHARP, In-Network Computing verlagert kollektive Kommunikationsvorgänge von der CPU auf das Switch-Netzwerk, wodurch die Datenmenge, die das Netzwerk durchläuft, verringert wird, die Zeit für MPI-Operationen (Message Passing Interface) drastisch reduziert wird und die Anwendungsleistung um eine Größenordnung verbessert wird.
![Self-Healing Networking](https://networking.pny.eu/wp-content/uploads/2021/08/nvidia-mellanox-self-healing-network-3c33-d.jpg)
Selbstheilende Netzwerke
NVIDIA Mellanox InfiniBand mit selbstheilenden Netzwerkfunktionen überbrückt Verbindungsausfälle und erreicht eine 5.000 Mal schnellere Netzwerkwiederherstellung als jede softwarebasierte Lösung.
![UFM Management](https://networking.pny.eu/wp-content/uploads/2021/08/nvidia-mellanox-ufm-3c33-d.jpg)
UFM-Verwaltung
Die Plattformen von NVIDIA Mellanox Unified Fabric Management (UFM®) kombinieren erweiterte Echtzeit-Netzwerktelemetrie mit KI-gestützter Cyber-Intelligenz und -Analyse, um eine höhere Auslastung der Fabric-Ressourcen und einen Wettbewerbsvorteil zu erzielen und gleichzeitig die Betriebskosten zu senken.
Wesentliche Eigenschaften
Standard-Switches
- 36 EDR 100 GB/s Ports in einem 1U Switch
- Bis zu 7,2 TB/s aggregierter Switch-Durchsatz
- Extrem niedrige Latenzzeit zwischen InfiniBand-Subnetzen
- Konform mit den Spezifikationen 1.3 und 1.2.1 der InfiniBand Trade Association (IBTA)
- Durchsetzung von Quality-of-Service
- 1+1-Stromversorgung
Verwaltete Switches
- Integrierter Subnetzmanager-Agent (bis zu 2k Knoten)
- Schnelle und einfache Einrichtung und Verwaltung
- Intuitive CLI
- Kann mit dem Unified Fabric Manager (UFM®) von Mellanox erweitert werden
- Temperatursensoren und Spannungsüberwachung
- Steuerung der Lüftergeschwindigkeit durch Management-Software
Vorteile
- Branchenführende Switch-Plattform in Bezug auf Leistung, Stromverbrauch und Dichte
- Entwickelt für die nächste Stufe der Skalierung und Ausfallsicherheit
- Entwickelt für Energie- und Kosteneinsparungen
- Schnelle und einfache Einrichtung und Verwaltung
- Flexible Port-Zuweisung zur Unterstützung von bis zu sechs verschiedenen InfiniBand-Subnetzen
InfiniBand-Router Vergleichstabelle
Link Speed | Switch ASIC | Ports | Height | Switching Capacity | Cooling System | Interface | Number of PSUs | Management | Subnet Manager | |
SB7780 | 100Gb/s | Switch IB | 36 | 1U | 7.2Tb/s | Air cooled | QSFP28 | 2 | Inband/Outband | + |
SB7880 | 100Gb/s | Switch IB-2 | 36 | 1U | 7.2Tb/s | Air cooled | QSFP28 | 2 | Inband/Outband | + |
Contact Our Team
If you need more information about our products do not hesitate to contact our dedicated team.
Contact Us