InfiniBand

image002

Mellanox Technologies (NASDAQ: MLNX) jest wiodącym dostawcą end-to-end rozwiązań InfiniBand i Ethernet i usług między-operatorskich dla serwerów i pamięci masowej. Rozwiązania połączeniowe Mellanox zwiększają wydajność przetwarzania w centrach danych, zapewniając najwyższą wydajność i najniższe opóźnienia, dostarczając danych do aplikacji i powodując szybsze odblokowanie możliwości wydajność systemu. Mellanox oferuje wybór szybkich produktów między-operatorskich: adaptery, przełączniki, oprogramowanie i krzem, które przyspieszają czas pracy aplikacji i prowadzą do maksymalizacji wyników biznesowych na wielu rynkach, w tym obliczeń o wysokiej wydajności, korporacyjnych centrach danych, Web 2.0, chmura magazynowania i usług finansowych.

ov_adapter_cards

InfiniBand/VPI Adapter Cards

Dedykowane dla centrów danych, systemów pamięci masowej o wysokiej skalowalności usług „cloud computing”  przy wymaganiach wysokiej przepustowości I/O, konsolidacji oraz elastyczności połączeń. Adaptery Mellanox InfiniBand zapewniają zaawansowane poziomy wydajności centrum danych IT, wydajność i skalowalność. Ponadto karty z technologią FDR 56Gb / s InfiniBand obsługują z powodzeniem konsolidację ruchu i zapewniają sprzętową akcelerację wirtualizacji serwerów.

Ordering Part No. Speed Ports Connectors ASIC & PCI Dev ID PCI Lanes
Mellanox ConnectX®-2 VPI Adapter Cards
MHQH19B-XTR QDR and 10GbE 1 QSFP ConnectX®-2 26428 PCIe 2.0 x8
MHQH29C-XTR QDR and 10GbE 2 QSFP ConnectX®-2 26428 PCIe 2.0 x8
MHRH19B-XTR DDR and 10GbE 1 QSFP ConnectX®-2 25418 PCIe 2.0 x8
MHRH29C-XTR DDR and 10GbE 2 QSFP ConnectX®-2 26418 PCIe 2.0 x8
MHZH29B-XTR QDR and 10GbE 1 and 1 QSFP and SFP+ ConnectX®-2 26428 PCIe 2.0 x8
Mellanox ConnectX®-3 VPI Adapter Cards
MCX353A-QCBT QDR and 10GbE 1 QSFP ConnectX®-3 4099 PCIe 3.0 x8
MCX354A-QCBT QDR and 10GbE 2 QSFP ConnectX®-3 4099 PCIe 3.0 x8
MCX353A-TCBT FDR10 and 10GbE 1 QSFP ConnectX®-3 4099 PCIe 3.0 x8
MCX354A-TCBT FDR10 and 10GbE 2 QSFP ConnectX®-3 4099 PCIe 3.0 x8
MCX353A-FCBT FDR and 40GbE 1 QSFP ConnectX®-3 4099 PCIe 3.0 x8
MCX354A-FCBT FDR and 40GbE 2 QSFP ConnectX®-3 4099 PCIe 3.0 x8
Mellanox ConnectX-IB™
MCB193A-FBAT FDR IB (56Gb/s) 1 QSFP ConnectX-IB PCIe 2.0 x16
MCB191A-FCAT FDR IB (56Gb/s) 1 QSFP ConnectX-IB PCIe 3.0 x8
MCB194A-FCAT FDR IB (56Gb/s) 2 QSFP ConnectX-IB PCIe 3.0 x16

switch_all_overview

InfiniBand Switch Systems

czwartej i piątej generacji Mellanox  InfiniScale IV i SwitchX  InfiniBand system urządzeń przełączających z przepystowością  20, 40 GB / s oraz  56Gb / s. Przełączniki InfiniBand zapewnieniają najwyższą skuteczności rozwiązania poprzez dostarczanie wysokiej przepustowości i małych opóźnień do zaawansowanych centrów danych o wysokiej wydajności obliczeniowej i środowisk wbudowanych. Sieci zbudowane z układów przełączających Mellanox mogą wykonywać połączenia konwergentne z systemami o gwarantowanej przepustowości i jakości usług.

Edge Switches

IS5022 IS5023 IS5024 IS5025 SX6005 SX6025
Ports 8 18 36 36 12 36
Height 1U 1U 1U 1U 1U 1U
Switching Capacity 640Gb/s 1.44Tb/s 2.88Tb/s 2.88Tb/s 1.34Tb/s 4.032Tb/s
Link Speed 40Gb/s 40Gb/s 40Gb/s 40Gb/s 56Gb/s 56Gb/s
Management No No No No No No
Management Port
Console Cables No No No No No
PSU Redundancy No Optional Optional Optional No Optional
Fan Redundancy No Optional Optional Optional No Optional
Integrated Gateway
SX6012 SX6018 IS5030 IS5035 4036 4036E SX6036
Ports 12 18 36 36 36 34 + 2Eth 36
Height 1U 1U 1U 1U 1U 1U 1U
Switching Capacity 1.346Tb/s 2.016Tb/s 2.88Tb/s 2.88Tb/s 2.88Tb/s 2.72Tb/s 4.032Tb/s
Link Speed 56Gb/s 56Gb/s 40Gb/s 40Gb/s 40Gb/s 40Gb/s 56Gb/s
Management Yes
648 nodes
Yes
648 nodes
Yes
108 nodes
Yes
648 nodes
Yes
648 nodes
Yes
648 nodes
Yes
648 nodes
Managment Port 1 2 1 2 1 1 2
Console Cables Yes Yes Yes Yes Yes Yes
PSU Redundancy Optional Optional Optional Optional Optional Optional Optional
Fan Redundancy No Optional Optional Optional Yes Yes Optional
Integrated Gateway Optional Optional Yes Optional

Director Switches

IS5100 SX6506 IS5200 SX6512 IS5300
Ports 108 108 216 216 324
Height 6U 6U 9U 9U 16U
Switching Capacity 8.64Tb/s 12.12Tb/s 17.28Tb/s 24.24Tb/s 25.9Tb/s
Link Speed 40Gb/s 56Gb/s 40Gb/s 56Gb/s 40Gb/s
Interface Type QSFP QSFP+ QSFP QSFP+ QSFP
Management 648 nodes 648 nodes 648 nodes 648 nodes 648 nodes
Management HA Yes Yes Yes Yes Yes
Console Cables Yes Yes Yes Yes Yes
Spine Modules 3 3 6 6 9
Leaf Modules (Max) 6 6 12 12 18
PSU Redundancy Yes (N+1) Yes (N+N) Yes (N+1) Yes (N+N) Yes (N+2)
Fan Redundancy Yes Yes Yes Yes Yes
SX6518 IS5600 SX6536 4200 4700
Ports 324 648 648 144/162 324 (648 HS)
Height 16U 29U 29U 11U 19U
Switching Capacity 36.36Tb/s 51.8Tb/s 72.52Tb/s 11.52Tb/s 25.92Tb/s (51.8Tb/s)
Link Speed 56Gb/s 40Gb/s 56Gb/s 40Gb/s 40Gb/s
Interface Type QSFP+ QSFP QSFP+ QSFP QSFP
Management 648 nodes 648 nodes 648 nodes 648 nodes 648 nodes
Management HA Yes Yes Yes Yes Yes
Console Cables Yes Yes Yes Yes Yes
Spine Modules 9 18 18 4 9
Leaf Modules (Max) 18 36 36 9 18
PSU Redundancy Yes (N+N) Yes (N+2) Yes (N+N) Yes (N+N) Yes (N+N)
Fan Redundancy Yes Yes Yes Yes Yes

intel_logo

Intel® True Scale Fabric

został zbudowany przez nabycie programu QLogic InfiniBand . Intel kontynuuje sprzedaż , serwis i wsparcie bieżącej struktury TrueScale InfiniBand * z całego portfolio produktów. W skład portfolio TrueScale wchodzi  TrueScale InfiniBand adaptery hostów,  przełączniki i  narzędzia monitorujące Suite.  TrueScale InfiniBand jako wiodąca technologia w obliczeniach o wysokiej wydajności ( HPC ) ma ugruntowaną pozycję na rynku . Zakup ten ma na celu zwiększenie portfolio Intela zapewniając skalowalność sieci i komputerów o wysokiej wydajności (HPC), jak również wizję  firmy Intel zaszycia technologii InfiniBand w architekturze procesora w celu osiągnięcia wydajności ExaFLOP / s do 2018 roku . ExaFLOP / s to trylion operacji na sekundę , sto razy więcej niż dzisiejsze najszybsze superkomputery .

250x250_qle7342-ck

Intel® True Scale Host Adapters

intel_infiniband_12200.jpg.rendition.cq5dam.webintel.288.144

Intel® True Scale Switches

Top