siennaxu’s blog

ここで通信分野と関連する記事を紹介していきます! よろしくお願いいたします。

InfiniBand: HPCネットワーキングを強化する

強力なインネットワーク・コンピューティング・プラットフォームであるInfiniBandは、高性能コンピューティング(HPC)、人工知能(AI)、ハイパースケールクラウドインフラを変革する上で極めて重要な役割を果たし、比類ないパフォーマンスを実現します。InfiniBandは、主にサーバーサイドの接続用に設計されており、サーバー間の通信を促進し、ストレージデバイスとネットワークを接続する上で重要な役割を果たしています。InfiniBand Industry Associationによって支持され、このテクノロジーは、権威あるTOP500リストの主要な相互接続ソリューションとして浮上しています。注目すべきは、システムの44.4%が相互接続にInfiniBandを利用していることで、リストの40.4%を占めるイーサネット技術を上回っています。この記事では、InfiniBandとイーサネットの違いを掘り下げます。

InfiniBandとイーサネットの違い

InfiniBandとは?

InfiniBandは、InfiniBand Trade Association(IBTA)の指導の下で育成され、標準化された通信仕様として機能しています。この仕様は、データセンターの広大なランドスケープにおいて、サーバー、通信インフラ機器、ストレージソリューション、および組み込みシステムを相互接続するために明示的に作成されたスイッチファブリックアーキテクチャを定義しています。標準化を重視することで、HPCネットワーキング環境における多様なコンポーネントのシームレスな統合と効率的な通信が保証されます。

帯域幅と低レイテンシーで定評のあるInfiniBandは、4倍のリンク幅接続で、FDR 56Gbps、EDR 100Gbps、HDR 200Gbps、NDR 400Gbps/800Gbps/秒のスループットといった驚異的な速度を誇ります。エキサイティングなことに、さらなる高速化が視野に入っています。

InfiniBandはスケーラビリティに優れ、1つのサブネット内に数万ノードを収容できるため、ハイパフォーマンス・コンピューティング(HPC)環境に最適です。サービス品質(QoS)とフェイルオーバー機能を備えたInfiniBandは、イーサネット、ファイバチャネル(FC)、TCP/IPネットワークと並んで、NVMe-oF(Non Volatile Memory Express over Fabrics)ストレージプロトコルの主要なネットワークファブリックです。データセンターにInfiniBandを採用することで、比類ないパフォーマンスとスケーラビリティを実現できます。

イーサネットとは?

XeroxIntel、DECによって考案されたイーサネットは、LAN仕様の標準として機能し、ケーブルを介したデータ伝送を行うローカルエリアネットワーク(LAN)で最も広く採用されている通信プロトコルです。ゼロックスは1970年代に有線通信技術としてのイーサネットを開発し、LANや広域ネットワーク(WAN)内の機器を接続しました。その多用途性は、プリンターからノートパソコンに至るまで、ビル、住宅、小規模コミュニティにまたがるさまざまなデバイスをつなぐことにまで及んでいます。ユーザーフレンドリーなインターフェースにより、ルーターイーサネット接続だけで、スイッチ、ルーター、PCなどのデバイスを組み込んだLANを簡単に構築できます。

多くの場所で無線ネットワークが普及しているにもかかわらず、イーサネットは、その信頼性と干渉への耐性により、有線ネットワーキングの有力な選択肢として存続しています。長年にわたり、イーサネットは何度も改良を重ね、常に適応し、その機能を拡張してきました。今日、イーサネットは世界的に最も広く利用されているネットワーク技術の1つとなっています。

現在、IEEE傘下のIEEE 802.3標準化機構は、100GE、200GE、400GE、800GEを含むイーサネットインターフェイス標準を発行しており、イーサネット技術の強化・進歩に向けた継続的な取り組みを反映しています。

 

InfiniBand vs イーサネット

InfiniBandは、ハイパフォーマンス・コンピューティング・シナリオにおけるクラスタ・データ伝送のボトルネックを緩和するという特定の目的で登場しました。時が経つにつれて、InfiniBandは広く採用される相互接続規格へと進化し、現代の要件に効果的に対応しています。InfiniBandとイーサネットの主な違いは、帯域幅レイテンシー、ネットワークの信頼性、ネットワーク手法に現れています。

帯域幅

帯域幅に関しては、InfiniBandはイーサネットよりも急速な進歩を遂げており、その主な理由はハイパフォーマンス・コンピューティング環境での利用やCPU負荷を軽減する能力にあります。これとは対照的に、イーサネットは端末機器の相互接続が主な用途であり、InfiniBandほど高い帯域幅を必要としません。

レイテンシー

ネットワーク遅延の領域では、InfiniBandとイーサネットの処理フローは大きく異なります。InfiniBandはスイッチのカットスルーテクノロジーを活用し、転送遅延を100ns未満に大幅に短縮します。対照的に、イーサネット スイッチでは、IP、MPLS、QinQなどのサービスによって導入される複雑さが原因で、処理フローが長くなります。

信頼性

ネットワークの信頼性が最優先される高性能コンピューティングの領域では、InfiniBandが、その明確に定義されたレイヤー1からレイヤー4までのフォーマットでリードし、エンドツーエンドのフロー制御によってロスレス・ネットワークを保証しています。逆に、イーサネットにはスケジューリングベースのフロー制御メカニズムがなく、メッセージを一時的に格納するために、より大きなチップ面積に依存しています。このアプローチは、イーサネットのコストと消費電力の増加を招きます。

ネットワーキング方法論

ネットワーク管理の面では、SDN(Software-Defined Networking)のコンセプトが統合されているため、InfiniBandはイーサネットよりも簡単です。InfiniBandでは、各レイヤー2ネットワーク上にサブネットマネージャーが存在し、ノードのコンフィグレーションと転送パス情報の計算を容易にします。対照的に、イーサネットMACエントリ、IP、ARPプロトコルを必要とし、複雑なレイヤーを追加します。また、イーサネットはエントリー更新のために定期的なパケット送信に依存し、仮想ネットワークをセグメント化してその規模を制限するためにVlanメカニズムを採用しています。このような複雑さは、ループネットワークの可能性を含む課題をもたらし、STPのような追加プロトコルを必要とします。

 

InfiniBand製品の調査

InfiniBandスイッチ & NIC

まとめると、InfiniBandとイーサネットの比較は、InfiniBandネットワークの顕著な利点を強調しています。高性能データセンターへのInfiniBandスイッチの導入を検討されている方には、さらに詳しい情報を提供します。InfiniBandネットワークは、SDR 10Gbps、DDR 20Gbps、QDR 40Gbps、FDR 56Gbps、EDR 100Gbps、そして現在ではHDR 200Gbps、NDR 400Gbps/800Gbps InfiniBandへと、急速な進化を遂げています。これらの進歩は、RDMA(リモート・ダイレクト・メモリー・アクセス)の統合によって可能になりました。

traditional-vs-rdma-mode

FSは、NVIDIA Quantum™-2 NDR InfiniBand 400GおよびNVIDIA Quantum™ HDR InfiniBand 200Gデータセンター・スイッチを提供しており、マネージドおよびアンマネージドの両方の構成で利用可能です。多様な顧客ニーズに対応するため、400Gスイッチには1年、3年、5年のサービスサポートオプションが用意されています。

FS-nvidia-quantum-infiniband-switches

種類 スピード スイッチチップ ポート 特徴 メーカー
MQM9790-NS2F 400G NVIDIA QUANTUM-2 64 x NDR 400G アンマネージド Mellanox
MQM9700-NS2F 400G NVIDIA QUANTUM-2 64 x NDR 400G マネージド Mellanox
MQM8790-HS2F 200G NVIDIA QUANTUM 40 x HDR QSFP56 アンマネージド Mellanox
MQM9790-NS2F 200G NVIDIA QUANTUM 40 x HDR QSFP56 マネージド Mellanox

InfiniBand Modules

製品 応用 コネクタ
40Gトランシーバー InfiniBand FDR10 MTP/MPO-12
100Gトランシーバー InfiniBand EDR MTP/MPO-12
200Gトランシーバー InfiniBand HDR MTP/MPO-12
400Gトランシーバー InfiniBand NDR MTP/MPO-12 APC
800G Transceiver InfiniBand NDR デュアルMTP/MPO-12 APC

InfiniBand DAC

製品 応用 コネクタ 長さ
40G DACケーブル InfiniBand FDR10 QSFP+/QSFP+ 0.5m、1m、1.5m、2m、3m、4m、5m
56G DACケーブル InfiniBand FDR QSFP+/QSFP+ 0.5m、1m、1.5m、2m、3m、4m、5m
100G DACケーブル InfiniBand EDR QSFP28/QSFP28 0.5m、1m、1.5m、2m、3m
200G DACケーブル InfiniBand HDR QSFP56/QSFP56;QSFP56/2 QSFP56 0.5m、1m、1.5m、2m、3m、5m、7m
400G DACケーブル InfiniBand HDR OSFP/2x QSFP56 1m、1.5m、2m
800G DACケーブル InfiniBand NDR OSFP/OSFP;OSFP to 2× OSFP;OSFP/4× OSFP 0.5m、1m、1.5m、2m

InfiniBand AOC

製品 応用 コネクタ 長さ
40G AOCケーブル InfiniBand FDR10 QSFP+/QSFP+ 1m、3m、5m、7m、10m、15m、20m、25m、30m、50m、100m
56G AOCケーブル InfiniBand FDR QSFP+/QSFP+ 1m、2m、3m、5m、10m、15m、20m、25m、30m、50m、100m
100G AOCケーブル InfiniBand EDR QSFP28/QSFP28 1m、2m、3m、5m、7m、10m、15m、20m、30m、50m、100m
200G AOCケーブル InfiniBand HDR QSFP56 /QSFP56;QSFP56/2 QSFP56; 2x QSFP56/2x QSFP56 1m、2m、3m、5m、10m、15m、20m、30m、50m、100m
400G AOCケーブル InfiniBand HDR OSFP/2x QSFP56 3m、5m、10m、15m、20m、30m

 

InfiniBand標準の概要

InfiniBand NDR (Next-Generation Data Rate):

InfiniBand NDRカテゴリには、InfiniBand 400Gbase/800GbaseトランシーバとDACが含まれ、MQM9700/MQM9790シリーズなどのメラノックスNDR 400Gbスイッチと互換性があるように設計されています。これらのコンポーネントは、GPU加速コンピューティングにおける高性能接続を可能にし、コストを最大50%削減する可能性があります。これらのコンポーネントは、InfiniBand 400Gb/800Gbネットワークにおける高性能コンピューティング(HPC)、クラウドコンピューティング、モデルレンダリング、ストレージに適しています。

InfiniBand HDR (High Data Rate):

FSのInfiniBand HDR接続製品ラインは、200Gb/秒および400Gb/秒QSFP56 IB HDR MMFアクティブ/パッシブ光ケーブル(AOC)、アクティブ/パッシブ直接接続銅線ケーブル(DAC)、光トランシーバ・ルーター、200Gスイッチなど、さまざまなソリューションを提供します。モジュールとケーブルは、MQM8700/MQM8790のようなスイッチをNVIDIA GPU(A100/H100/A30)やCPUサーバー、ConnectX-5/6/7 VPIのようなストレージネットワークアダプターに接続します。これらは、最大50%の節約の可能性があり、モデルレンダリング人工知能(AI)、ディープラーニング(DL)、InfiniBand HDRNVIDIAアプリケーションネットワーキングを含む、GPU加速ハイパフォーマンスコンピューティング(HPC)クラスタアプリケーションに有利です。

InfiniBand EDR (Enhanced Data Rate):

InfiniBand EDR製品ラインは、InfiniBand 100Gbase QSFP28EDR AOCEDR DACAOC、トランシーバで構成されています。これらの製品は、GPUアクセラレーション・コンピューティングにおける高性能接続のためのコスト効率に優れたソリューションを提供します。

InfiniBand FDR (Fourteen Data Rate):

InfiniBand FDR製品ラインには、InfiniBand 40Gbase QSFP+ FDR10 AOCDAC、トランシーバ、および56Gbase QSFP+ FDR DACAOCが含まれます。これらの製品は、メラノックスのEDRスイッチとシームレスに統合できます。

 

高性能コンピューティングネットワークにおけるInfiniBandの利点

データ通信、インターネット技術、ビジュアルプレゼンテーションの絶え間ない進化は、コンピューティングパワー、ストレージ容量、ネットワーク効率の進歩に依存しています。このような状況の中で、InfiniBandネットワークは、高帯域幅ネットワークサービス、低レイテンシープロトコル処理とデータ移動をCPUからインターコネクションにオフロードすることによるコンピューティングリソースの消費削減を提供する、極めて重要なプレーヤーとして浮上しています。これらのユニークな利点により、InfiniBandはHPCデータセンターにとって理想的なソリューションとして位置づけられ、Web 2.0クラウドコンピューティングビッグデータ、金融サービス、仮想化データセンター、ストレージアプリケーションなどの多様なアプリケーションにおいて、大幅なパフォーマンス向上を実現します。

速度の領域では、InfiniBandはEthernet 100Gに追いついただけでなく、さらに先を進んでおり、現在では100G/200Gから400G/800GのInfiniBandスイッチまで、HPCアーキテクチャの高性能要件にシームレスに適合するオプションを提供しています。InfiniBandスイッチの高帯域幅、高速性、低レイテンシの組み合わせは、サーバの効率とアプリケーションの生産性の向上に貢献します。

スケーラビリティは、InfiniBandのもう1つの重要な利点であり、1つのサブネットがネットワーク・レイヤ2で最大48,000ノードをサポートします。イーサネットとは対照的に、InfiniBandはARPのようなブロードキャスト・メカニズムへの依存を排除し、ブロードキャスト・ストームを緩和し、さらなる帯域幅の浪費を回避します。さらに、複数のサブネットをスイッチと関連付けることができるため、柔軟性が向上します。

FSは、高性能コンピューティングの重要性を認識し、Quantum InfiniBandスイッチデバイスで構築されたInfiniBand製品を提供しています。これらの製品は、最大16Tb/秒のノンブロッキング帯域幅をサポートし、130ns以下のポート間遅延を誇り、HPCデータセンターの高可用性とマルチサービスのサポートを保証します。イーサネット・ネットワークは、複数のデバイスにワークロードを分散してデータ転送を行うための有効な選択肢であることに変わりはありませんが、FSは、多用途で効率的なネットワーク構築を支援するマルチスピード・イーサネット・スイッチを幅広く提供しています。

 

正しいネットワークの選択

InfiniBandとイーサネットは、それぞれ異なるシナリオでそれぞれの用途を見つけます。InfiniBandネットワークは、データ転送レートを大幅に向上させることに優れているため、ネットワーク利用率を最適化し、ネットワークデータ処理のためのCPUリソースの負担を軽減することができます。この極めて重要な利点により、InfiniBandネットワークはハイパフォーマンス・コンピューティング業界における主要なソリューションとして位置づけられています。

しかし、データセンター・ノード間の通信遅延が重要視されず、柔軟なアクセスと拡張が重視される場合、イーサネット・ネットワークは、長期間にわたって実行可能なソリューションとして機能します。.

InfiniBandネットワークの比類ない性能は、その革新的な技術アーキテクチャと合理化された高性能ネットワーク設計と相まって、HPCデータセンターのユーザーにビジネスパフォーマンスを最適化する力を与えます。InfiniBandテクノロジーは、マルチレベルのアーキテクチャレイヤーに関連する遅延を最小限に抑え、主要なコンピューティングノードのアクセス帯域幅のシームレスなアップグレードを容易にすることで、全体的な運用効率を高める上で重要な役割を果たしています。InfiniBandネットワークは、その普及が進むにつれて、利用シーンが拡大することが予想されます。