NTC Newtechデータで未来をつなぐ

InfiniBandソリューションお客様へのInfiniBand関連コラムをご紹介します。

本ページに記載された技術情報は記事が出稿された時期に応じて推奨システムに対する考え方や実現方法が書かれています。
したがって、最新技術でのシステム構築を前提とし、この情報を利用する場合、その記事が時代に沿わない内容となる事もありますので予めご了承ください。

 

Mellanox Technologies社(メラノックス テクノロジーズ社)

メラノックステクノロジーズ社は、サーバやストレージを対象にInfiniBandのエンドトゥエンド接続ソリューションを提供するリーディングカンパニーです。

 
Mellanox Technologies社(メラノックス テクノロジーズ社)
 

複雑で膨大な計算を要するハイパフォーマンス コンピューティング(HPC)は、学術分野や研究分野さらには一般企業においてもビジネス上の大きなメリットをもたらすため、近年多くの業種に導入されています。HPCが普及している大きな理由の1つは、高速ネットワークを使用して複数の業界標準サーバをクラスタ化し、従来のスーパーコンピュータよりもはるかに少ないコストで、スーパーコンピュータのパフォーマンスを享受できることにあります。このHPCアプリケーションで重要な役割を果たしているのがInfiniBandソリューションであり、多くのお客様がメラノックス テクノロジーズ社製品を採用しております。

image

HPC環境で培ったテクノロジーを近年のクラウドコンピューティングを支えるデータセンター環境、ビックデータ時代のオフィスコンピューティング環境においても、I/Oボトルネックを解消するだけではなく、スケーラビリティ、仮想化技術、消費電力などTCOの改善に最適なソリューションを提供致します。

 

インフィニバンドはInfiniBand Trade Asociationで定義された標準規格で、イーサーネットやファイバーチャネルと同じIEEE802.3をベースとしております。 複数のレーン(接続)の集束が可能で、Node to Nodeの場合、4本のレーンを束ねて通信することで、QDRでは40Gbps(10Gbps×4)、FDRでは56Gbps(14Gbps×4)と、現在主流の1Gbpsのイーサーネットに比べ、早く安定した帯域でイーサーネットをはるかに上回るコストパフォーマンスを提供いたします。 また、単に56倍と規格上の数値もさることながら、リンクレベルフローコントロールや輻輳制御などパケットロスを可能な限り抑えたワイヤースピードに近い高品質で柔軟なネットワークを提供いたします。

 

クラウドサービス基盤の推移
 

RDMA(Remote Direct Memory Access)

RDMAのイメージ

独立したシステムのメインメモリ間、システムとストレージ間のデータ転送を効率 化するテクノロジ。メモリ間のデータ転送時にはホストCPUの割り込みがほとん ど発生しないため、ホストCPUのオーバーヘッド低下に加え、データ転送時のレ イテンシ短縮にもつながります。 Ethernet上でRDMA機能を実現する RDMA over EthernetもMellanox 社 HCAではサポートしており、non-HPC市場での導入が進んでいます。

 

CPU Offload

CPUオフロードのイメージ

TransportレイヤとNetworkレイヤを HCAのチップがハードウェアで処理することにより、CPUの負荷を軽減できます。

 

活用例(SupremacyⅡ iXの場合)

2000年初頭に登場し、HPC環境やデータセンターでの利用イメージの強いInfiniBandですが、一般のオフィス環境にこそ導入効果のあるプロダクトです。 現在では、1ポートあたり10万円を切るコンフィギュレーションも可能で、豊富なラインナップをご用意しております。是非一度お試しください。

 

サーバ仮想化の普及に伴うI/Oボトルネックの解消

サーバ仮想化の普及に伴うI/Oボトルネックの解消
 

データ量増加に伴うレプリケーション時間の増加を解消

データ量増加に伴うレプリケーション時間の増加を解消
 

(2011年11月掲載)