Mellanox Interconnect und Switches: Unterschied zwischen den Versionen
Mest (Diskussion | Beiträge) |
Deko (Diskussion | Beiträge) (→RDMA over Converged Ethernet (RoCE)) |
||
(9 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 40: | Zeile 40: | ||
'''SX6000''' Switch-Systeme bieten die leistungsstärksten Fabric-Lösungen in einem 1-HE-Formfaktor, da sie 4 TB/s nicht blockierende Bandbreite für High Performance Computing und Enterprise Datacenter mit 200 ns Port-zu-Port-Latenz bereitstellen. Mit dem neuesten SwitchX InfiniBand-Switch von Mellanox ausgestattet, bieten diese Switche eine volle bidirektionale Bandbreite von bis zu 56 Gb/s pro Port. Diese Stand-alone-Switche eignen sich ideal für die Anbindung von Top-of-Rack-Systemen oder für den Aufbau kleiner bis mittelgroßer Cluster. Sie sind so konzipiert, dass sie konvergierten LAN- und SAN-Verkehr mit der Kombination aus gesicherter Bandbreite und granularer Quality of Service (QoS) übertragen. Die SX6000-Familie unterstützt VPI-Technologie, die es ermöglicht, InfiniBand und Ethernet mit jedem standardmäßigen Netzwerk-, Cluster-, Speicher- und Verwaltungsprotokoll zu verwenden und nahtlos über jedes konvergente Netzwerk zu arbeiten.<br /> | '''SX6000''' Switch-Systeme bieten die leistungsstärksten Fabric-Lösungen in einem 1-HE-Formfaktor, da sie 4 TB/s nicht blockierende Bandbreite für High Performance Computing und Enterprise Datacenter mit 200 ns Port-zu-Port-Latenz bereitstellen. Mit dem neuesten SwitchX InfiniBand-Switch von Mellanox ausgestattet, bieten diese Switche eine volle bidirektionale Bandbreite von bis zu 56 Gb/s pro Port. Diese Stand-alone-Switche eignen sich ideal für die Anbindung von Top-of-Rack-Systemen oder für den Aufbau kleiner bis mittelgroßer Cluster. Sie sind so konzipiert, dass sie konvergierten LAN- und SAN-Verkehr mit der Kombination aus gesicherter Bandbreite und granularer Quality of Service (QoS) übertragen. Die SX6000-Familie unterstützt VPI-Technologie, die es ermöglicht, InfiniBand und Ethernet mit jedem standardmäßigen Netzwerk-, Cluster-, Speicher- und Verwaltungsprotokoll zu verwenden und nahtlos über jedes konvergente Netzwerk zu arbeiten.<br /> | ||
+ | '''SB7700 / SB7790''' InfiniBand-Switche bieten im Vergleich zu SX6000 7,2 TB/s Bandbreite mit 90 ns Port-zu-Port-Latenz. Diese Switche sind mit dem neuesten InfiniBand-Switch von Mellanox ausgestattet und bieten bis zu 100 Gb/s volle bidirektionale Bandbreite pro Port. <br /> | ||
− | |||
+ | '''QM8700''' ist eine HDR 200Gb/s InfiniBand Smart Switch-Serie, die die höchste Fabric-Performance auf dem Markt mit bis zu 16 TB/s nicht blockierender Bandbreite mit einer Port-zu-Port-Latenz von 90 ns bietet. | ||
− | |||
=== ConnectX-4 VPI === | === ConnectX-4 VPI === | ||
* Unterstützung von EDR 100 Gb/s InfiniBand sowie 100 Gb/s Ethernet-Konnektivität | * Unterstützung von EDR 100 Gb/s InfiniBand sowie 100 Gb/s Ethernet-Konnektivität | ||
Zeile 51: | Zeile 51: | ||
* 150 Millionen Nachrichten pro Sekunde | * 150 Millionen Nachrichten pro Sekunde | ||
* Offloads von Anwendungshardware<br /><br /> | * Offloads von Anwendungshardware<br /><br /> | ||
− | Die '''Multi-Host-Technologie''', die zuerst mit ConnectX-4 eingeführt wurde, ermöglicht bei Aktivierung die Verbindung mehrerer Hosts zu einem einzigen Adapter, indem die PCIe-Schnittstelle in mehrere unabhängige Schnittstellen aufgeteilt wird. | + | Die '''Multi-Host-Technologie''', die zuerst mit ConnectX-4 eingeführt wurde, ermöglicht bei Aktivierung die Verbindung<br /> |
+ | mehrerer Hosts zu einem einzigen Adapter, indem die PCIe-Schnittstelle in mehrere unabhängige Schnittstellen aufgeteilt wird. | ||
=== ConnectX-5 VPI === | === ConnectX-5 VPI === | ||
Zeile 62: | Zeile 63: | ||
* Multipath-Zuverlässigkeit | * Multipath-Zuverlässigkeit | ||
* effiziente Unterstützung für alle Netzwerktopologien | * effiziente Unterstützung für alle Netzwerktopologien | ||
− | * innovatives Storage Rack-Design, genannt Host Chaining, bei dem verschiedene Server direkt miteinander verbunden werden können, ohne den Top of the Rack (ToR) Switch einzuschalten | + | * innovatives Storage Rack-Design, genannt Host Chaining, bei dem verschiedene Server direkt miteinander verbunden werden können, ohne den Top of the Rack (ToR) Switch einzuschalten geringere Gesamtbetriebskosten (TCO) im Rechenzentrum durch Reduktion der Investitionskosten (Kabel, Netzwerkkarten, Portkosten), indem das Switch-Port-Management und der gesamte Stromverbrauch reduziert werden<br /> |
− | geringere Gesamtbetriebskosten (TCO) im Rechenzentrum durch Reduktion der Investitionskosten (Kabel, Netzwerkkarten, Portkosten), indem das Switch-Port-Management und der gesamte Stromverbrauch reduziert werden | ||
<br /> | <br /> | ||
− | |||
− | |||
'''SN2000/SN3000'''-Ethernet-Switches bieten die vorhersehbarsten 100-GbE bzw. 200/400-GbE -Switching-Plattformen mit hoher Dichte, für die dynamischen Anforderungen moderner Rechenzentren sowie umfangreiche Visibility- und Programmierfunktionen für anspruchsvollste Rechenzentrums-Workloads. Die Switche eignen sich ideal für Rechenzentrums-Netzwerklösungen für Leaf- und Spine-Netzwerke und bieten maximale Flexibilität bei Portgeschwindigkeiten von 1 bis 100 Gb/s bzw. 10 bis 400 Gb/s pro Port (bis zu 32 Ports), auch in halber Baubreite. Die Portdichte ermöglicht eine volle Rack-Konnektivität zu jedem Server bei jeder Geschwindigkeit. Die Switche sind ideal für Hyper-Converged- und Storage-Umgebungen geeignet. Die Einführung der SN3000 erfolgt 2019. | '''SN2000/SN3000'''-Ethernet-Switches bieten die vorhersehbarsten 100-GbE bzw. 200/400-GbE -Switching-Plattformen mit hoher Dichte, für die dynamischen Anforderungen moderner Rechenzentren sowie umfangreiche Visibility- und Programmierfunktionen für anspruchsvollste Rechenzentrums-Workloads. Die Switche eignen sich ideal für Rechenzentrums-Netzwerklösungen für Leaf- und Spine-Netzwerke und bieten maximale Flexibilität bei Portgeschwindigkeiten von 1 bis 100 Gb/s bzw. 10 bis 400 Gb/s pro Port (bis zu 32 Ports), auch in halber Baubreite. Die Portdichte ermöglicht eine volle Rack-Konnektivität zu jedem Server bei jeder Geschwindigkeit. Die Switche sind ideal für Hyper-Converged- und Storage-Umgebungen geeignet. Die Einführung der SN3000 erfolgt 2019. | ||
=== RDMA over Converged Ethernet (RoCE) === | === RDMA over Converged Ethernet (RoCE) === | ||
− | Ein Standardprotokoll (im Standard der InfiniBand Trade Association (IBTA) definiert) das RDMAs effizienten Datentransfer über Ethernet-Netzwerke ermöglicht: | + | Ein Standardprotokoll (im Standard der InfiniBand Trade Association (IBTA) definiert) das RDMAs effizienten Datentransfer über Ethernet-Netzwerke ermöglicht:<br /> |
+ | |||
* Transport-Offload mit Hardware-RDMA-Engine-Implementierung | * Transport-Offload mit Hardware-RDMA-Engine-Implementierung | ||
* eine überlegene Leistung | * eine überlegene Leistung | ||
− | RoCE nutzt die UDP-Kapselung, um Layer-3-Netzwerke zu überbrücken. RDMA ist eine Schlüsselfunktion, die nativ von der InfiniBand-Verbindungstechnologie verwendet wird. Sowohl InfiniBand als auch Ethernet RoCE teilen sich eine gemeinsame Benutzer-API, verfügen jedoch über unterschiedliche physikalische Schichten und Verbindungsschichten. | + | RoCE nutzt die UDP-Kapselung, um Layer-3-Netzwerke zu überbrücken. RDMA ist eine Schlüsselfunktion, die nativ von der InfiniBand-Verbindungstechnologie verwendet wird. Sowohl InfiniBand als auch Ethernet RoCE teilen sich eine gemeinsame Benutzer-API, verfügen jedoch über unterschiedliche physikalische Schichten und Verbindungsschichten.<br /> |
− | + | <br /> | |
− | Alle Mellanox-Adapter werden von einer vollständigen Treibersuite für folgende Systeme unterstützt: | + | Alle Mellanox-Adapter werden von einer vollständigen Treibersuite für folgende Systeme unterstützt:<br /> |
* Microsoft Windows | * Microsoft Windows | ||
* Linux (Ubuntu, SLES, RHEL / CentOS, OEL, Fedora, Debian) | * Linux (Ubuntu, SLES, RHEL / CentOS, OEL, Fedora, Debian) | ||
* VMware (ESXi 5.0 -6.5)<br /> | * VMware (ESXi 5.0 -6.5)<br /> | ||
− | |||
− | |||
<br /> | <br /> | ||
== Weitere Informationen == | == Weitere Informationen == | ||
Mehr Informationen zu den Mehrwerten und Anwendungsbereichen finden Sie unter: | Mehr Informationen zu den Mehrwerten und Anwendungsbereichen finden Sie unter: | ||
− | https://www.max-it.de/maxCentral<br /> | + | [https://www.max-it.de/maxCentral www.max-it.de/maxCentral]<br /> |
<br /> | <br /> | ||
== Tags == | == Tags == | ||
Zeile 94: | Zeile 91: | ||
== Kontakt == | == Kontakt == | ||
+ | Wenn Sie Fragen oder Anmerkungen zu diesem Artikel haben, melden Sie sich bitte bei uns:<br /> | ||
+ | [http://mailto:techcorner@max-it.de techcorner@max-it.de].<br /> | ||
− | + | '''Über m.a.x. Informationstechnologie AG:'''<br> | |
− | |||
− | Über m.a.x. Informationstechnologie AG: | ||
Als etabliertes Münchner Systemhaus zeichnen wir uns seit 1989 als verlässlicher IT-Partner mittelständischer und großer Unternehmen aus. Unser Portfolio reicht von IT- Services über individuelle Softwareentwicklung bis hin zur ERP-Beratung. | Als etabliertes Münchner Systemhaus zeichnen wir uns seit 1989 als verlässlicher IT-Partner mittelständischer und großer Unternehmen aus. Unser Portfolio reicht von IT- Services über individuelle Softwareentwicklung bis hin zur ERP-Beratung. | ||
[[Kategorie: Netzwerk-Hardware]] | [[Kategorie: Netzwerk-Hardware]] |
Aktuelle Version vom 1. März 2021, 14:14 Uhr
Mellanox Technologies ist ein führender Anbieter von End-to-End-Ethernet- und InfiniBand-Lösungen für intelligente Verbindungen und Services für Server, Speicher und hyperkonvergente Infrastrukturen. Die intelligenten Interconnect-Lösungen von Mellanox erhöhen die Effizienz von Rechenzentren, da sie den höchsten Durchsatz und die geringste Latenzzeit bieten, Daten schneller an Anwendungen liefern und die Systemleistung verbessern. Mellanox bietet eine Auswahl an Hochleistungslösungen (Netzwerk- und Multicore-Prozessoren, Netzwerkadapter, Switches, Kabel, Software) die die Anwendungslaufzeit beschleunigen und Geschäftsprozesse für eine Vielzahl von Märkten maximieren, darunter Hochleistungsrechensysteme, Enterprise Data Center, Web 2.0, Cloud, Storage, Netzwerksicherheit, Telekommunikation und Finanzdienstleistungen.
Inhaltsverzeichnis
Mellanox InfiniBand Host Channel Adapter (HCA)
Die leistungsfähigste Interconnect-Lösung für:
- Enterprise Datacenter
- Web 2.0
- Cloud-Computing
- Hochleistungsrechner
- eingebettete Umgebungen
Signifikante Leistungsverbesserungen (Verkürzung der Ausführungszeit, niedrigere Kosten pro Operation) durch:
- geclusterte Datenbanken
- parallelisierte Anwendungen
- Transaktionsservices
- hochleistungsfähige Embedded I/O-Applications
Virtual Protocol Interconnect (VPI)
- Jedes standardmäßige Netzwerk-, Cluster-, Speicher- und Verwaltungsprotokoll kann nahtlos über jedes konvergente Netzwerk mit einem konsolidierten Software-Stack betrieben werden
- Jeder Port kann sowohl mit InfiniBand oder Ethernet als auch mit RDMA über Converged Ethernet (RoCEv1 und RoCE v2) betrieben werden
- Vereinfacht das I/O-Systemdesign und erleichtert es IT-Managern eine Infrastruktur bereitzustellen, die den Herausforderungen eines dynamischen Rechenzentrums gerecht wird
Remote Direct Memory Access (RDMA)
Direkter Zugriff vom Speicher eines Hosts (Speicher oder Computer) auf den eines anderen Hosts, ohne das Remote-Betriebssystem und die CPU zu involvieren, wodurch die Netzwerk- und Hostleistung geringere Latenz, geringere CPU-Last und höherer Bandbreite aufweist. Im Gegensatz dazu erfordert die TCP/IP-Kommunikation typischerweise Kopiervorgänge, die die Latenz erhöhen und erhebliche CPU- und Speicherressourcen verbrauchen.
Mellanox InfiniBand- und Ethernet-Switch-Systeme
InfiniBand-Switches
- höchste Leistung und Portdichte mit umfassenden Fabric-Management-Lösungen
- Betrieb von Rechen-Clustern und konvergierte Rechenzentren in jedem Umfang
- reduzierte Betriebskosten und Infrastrukturkomplexität
- breites Portfolio an Edge- und Director-Switches, die Portgeschwindigkeiten von 40, 56, 100 und 200 Gb/s unterstützen und von 8 bis 800 Ports reichen. Mit diesen Switches können IT-Manager kostengünstigste und skalierbarste Switch-Fabrics erstellen, die von kleinen Clustern bis hin zu Zehntausenden von Knoten reichen und konvergierten Traffic mit der Kombination aus gesicherter Bandbreite und granularer Servicequalität für höchste Produktivität bereitstellen.
Ethernet-Switches
- offene Switch-Familie mit einem breiten Portfolio von Top-of-Rack-Switches (ToR)
- 16 bis 64 Ports
- Ethernet-Datenraten von 1GbE, 10GbE, 25GbE, 40GbE, 50GbE, 100GbE, 200GbE und 400GbE pro Port
SX6000 Switch-Systeme bieten die leistungsstärksten Fabric-Lösungen in einem 1-HE-Formfaktor, da sie 4 TB/s nicht blockierende Bandbreite für High Performance Computing und Enterprise Datacenter mit 200 ns Port-zu-Port-Latenz bereitstellen. Mit dem neuesten SwitchX InfiniBand-Switch von Mellanox ausgestattet, bieten diese Switche eine volle bidirektionale Bandbreite von bis zu 56 Gb/s pro Port. Diese Stand-alone-Switche eignen sich ideal für die Anbindung von Top-of-Rack-Systemen oder für den Aufbau kleiner bis mittelgroßer Cluster. Sie sind so konzipiert, dass sie konvergierten LAN- und SAN-Verkehr mit der Kombination aus gesicherter Bandbreite und granularer Quality of Service (QoS) übertragen. Die SX6000-Familie unterstützt VPI-Technologie, die es ermöglicht, InfiniBand und Ethernet mit jedem standardmäßigen Netzwerk-, Cluster-, Speicher- und Verwaltungsprotokoll zu verwenden und nahtlos über jedes konvergente Netzwerk zu arbeiten.
SB7700 / SB7790 InfiniBand-Switche bieten im Vergleich zu SX6000 7,2 TB/s Bandbreite mit 90 ns Port-zu-Port-Latenz. Diese Switche sind mit dem neuesten InfiniBand-Switch von Mellanox ausgestattet und bieten bis zu 100 Gb/s volle bidirektionale Bandbreite pro Port.
QM8700 ist eine HDR 200Gb/s InfiniBand Smart Switch-Serie, die die höchste Fabric-Performance auf dem Markt mit bis zu 16 TB/s nicht blockierender Bandbreite mit einer Port-zu-Port-Latenz von 90 ns bietet.
ConnectX-4 VPI
- Unterstützung von EDR 100 Gb/s InfiniBand sowie 100 Gb/s Ethernet-Konnektivität
- eine unerreichte Kombination von 100 Gb/s Bandbreite in einem einzigen Port
- die niedrigste verfügbare Latenz
- 150 Millionen Nachrichten pro Sekunde
- Offloads von Anwendungshardware
Die Multi-Host-Technologie, die zuerst mit ConnectX-4 eingeführt wurde, ermöglicht bei Aktivierung die Verbindung
mehrerer Hosts zu einem einzigen Adapter, indem die PCIe-Schnittstelle in mehrere unabhängige Schnittstellen aufgeteilt wird.
ConnectX-5 VPI
- Unterstützung von zwei Ports mit 100 Gb/s InfiniBand- und Ethernet-Konnektivität
- Latenzzeiten von unter 600 Nanosekunden
- sehr hohe Nachrichtenraten
- PCIe-Switches und NVMe over Fabrics-Offloads
- höchste Leistung und Flexibilität für anspruchsvolle Anwendungen und Märkte
- verbesserte RDMA-Netzwerkfähigkeiten durch Vervollständigung der Switch-Adaptive-Routing-Funktionen und durch den Support von Daten, die out-of-order geliefert werden, während geordnete Vervollständigungssemantik beibehalten wird
- Multipath-Zuverlässigkeit
- effiziente Unterstützung für alle Netzwerktopologien
- innovatives Storage Rack-Design, genannt Host Chaining, bei dem verschiedene Server direkt miteinander verbunden werden können, ohne den Top of the Rack (ToR) Switch einzuschalten geringere Gesamtbetriebskosten (TCO) im Rechenzentrum durch Reduktion der Investitionskosten (Kabel, Netzwerkkarten, Portkosten), indem das Switch-Port-Management und der gesamte Stromverbrauch reduziert werden
SN2000/SN3000-Ethernet-Switches bieten die vorhersehbarsten 100-GbE bzw. 200/400-GbE -Switching-Plattformen mit hoher Dichte, für die dynamischen Anforderungen moderner Rechenzentren sowie umfangreiche Visibility- und Programmierfunktionen für anspruchsvollste Rechenzentrums-Workloads. Die Switche eignen sich ideal für Rechenzentrums-Netzwerklösungen für Leaf- und Spine-Netzwerke und bieten maximale Flexibilität bei Portgeschwindigkeiten von 1 bis 100 Gb/s bzw. 10 bis 400 Gb/s pro Port (bis zu 32 Ports), auch in halber Baubreite. Die Portdichte ermöglicht eine volle Rack-Konnektivität zu jedem Server bei jeder Geschwindigkeit. Die Switche sind ideal für Hyper-Converged- und Storage-Umgebungen geeignet. Die Einführung der SN3000 erfolgt 2019.
RDMA over Converged Ethernet (RoCE)
Ein Standardprotokoll (im Standard der InfiniBand Trade Association (IBTA) definiert) das RDMAs effizienten Datentransfer über Ethernet-Netzwerke ermöglicht:
- Transport-Offload mit Hardware-RDMA-Engine-Implementierung
- eine überlegene Leistung
RoCE nutzt die UDP-Kapselung, um Layer-3-Netzwerke zu überbrücken. RDMA ist eine Schlüsselfunktion, die nativ von der InfiniBand-Verbindungstechnologie verwendet wird. Sowohl InfiniBand als auch Ethernet RoCE teilen sich eine gemeinsame Benutzer-API, verfügen jedoch über unterschiedliche physikalische Schichten und Verbindungsschichten.
Alle Mellanox-Adapter werden von einer vollständigen Treibersuite für folgende Systeme unterstützt:
- Microsoft Windows
- Linux (Ubuntu, SLES, RHEL / CentOS, OEL, Fedora, Debian)
- VMware (ESXi 5.0 -6.5)
Weitere Informationen
Mehr Informationen zu den Mehrwerten und Anwendungsbereichen finden Sie unter:
www.max-it.de/maxCentral
Tags
Mellanox, InfiniBand, Ethernet, Interconnect, Switch, Switches, RDMA over Converged Ethernet, RoCE, IT-Netzwerke, Netzwerk-Komponenten
Kontakt
Wenn Sie Fragen oder Anmerkungen zu diesem Artikel haben, melden Sie sich bitte bei uns:
techcorner@max-it.de.
Über m.a.x. Informationstechnologie AG:
Als etabliertes Münchner Systemhaus zeichnen wir uns seit 1989 als verlässlicher IT-Partner mittelständischer und großer Unternehmen aus. Unser Portfolio reicht von IT- Services über individuelle Softwareentwicklung bis hin zur ERP-Beratung.