ホーム > トピックスサイト > コラム > InfiniBand関連コラム > InfiniBandソリューション

トピックスサイト
コラム一覧
導入事例
キャンペーン一覧

コラム: InfiniBand

InfiniBandソリューション

Mellanox Technologies社(メラノックス テクノロジーズ社)


メラノックステクノロジーズ社は、サーバやストレージを対象にInfiniBandのエンドトゥエンド接続ソリューションを提供するリーディングカンパニーです。

Mellanox Technologies社(メラノックス テクノロジーズ社)

複雑で膨大な計算を要するハイパフォーマンス コンピューティング(HPC)は、学術分野や研究分野さらには一般企業においてもビジネス上の大きなメリットをもたらすため、近年多くの業種に導入されています。HPCが普及している大きな理由の1つは、高速ネットワークを使用して複数の業界標準サーバをクラスタ化し、従来のスーパーコンピュータよりもはるかに少ないコストで、スーパーコンピュータのパフォーマンスを享受できることにあります。このHPCアプリケーションで重要な役割を果たしているのがInfiniBandソリューションであり、多くのお客様がメラノックス テクノロジーズ社製品を採用しております。
imageHPC環境で培ったテクノロジーを近年のクラウドコンピューティングを支えるデータセンター環境、ビックデータ時代のオフィスコンピューティング環境においても、I/Oボトルネックを解消するだけではなく、スケーラビリティ、仮想化技術、消費電力などTCOの改善に最適なソリューションを提供致します。

インフィニバンドはInfiniBand Trade Asociationで定義された標準規格で、イーサーネットやファイバーチャネルと同じIEEE802.3をベースとしております。 複数のレーン(接続)の集束が可能で、Node to Nodeの場合、4本のレーンを束ねて通信することで、QDRでは40Gbps(10Gbps×4)、FDRでは56Gbps(14Gbps×4)と、現在主流の1Gbpsのイーサーネットに比べ、早く安定した帯域でイーサーネットをはるかに上回るコストパフォーマンスを提供いたします。 また、単に56倍と規格上の数値もさることながら、リンクレベルフローコントロールや輻輳制御などパケットロスを可能な限り抑えたワイヤースピードに近い高品質で柔軟なネットワークを提供いたします。

クラウドサービス基盤の推移

RDMA(Remote Direct Memory Access)

RDMA独立したシステムのメインメモリ間、システムとストレージ間のデータ転送を効率 化するテクノロジ。メモリ間のデータ転送時にはホストCPUの割り込みがほとん ど発生しないため、ホストCPUのオーバーヘッド低下に加え、データ転送時のレ イテンシ短縮にもつながります。 Ethernet上でRDMA機能を実現する RDMA over EthernetもMellanox 社 HCAではサポートしており、non-HPC市場での導入が進んでいます。

CPU Offload

CPU OffloadTransportレイヤとNetworkレイヤを HCAのチップがハードウェアで処理することにより、CPUの負荷を軽減できます。

活用例(SupremacyII iXの場合)

2000年初頭に登場し、HPC環境やデータセンターでの利用イメージの強いInfiniBandですが、一般のオフィス環境にこそ導入効果のあるプロダクトです。 現在では、1ポートあたり10万円を切るコンフィギュレーションも可能で、豊富なラインナップをご用意しております。是非一度お試しください。

サーバ仮想化の普及に伴うI/Oボトルネックの解消

サーバ仮想化の普及に伴うI/Oボトルネックの解消

データ量増加に伴うレプリケーション時間の増加を解消

データ量増加に伴うレプリケーション時間の増加を解消

(2011年11月掲載)

ページの先頭へ戻る