サーバー間をつなぐネットワーク「InfiniBand」が100ギガビット/秒をうかがうまでに高速化してきた。垂直統合型システムなどで採用が進み、利用シーンはより広がりそうだ。同じ帯域幅のInfiniBandを使っても、通信プロトコルの違いでスピードに差が出る。ハードとソフトを組み合わせて、最適化することで実効速度は上がる。

 様々なハードやソフトをあらかじめ組み合わせた垂直統合型システム。サーバー間をつなぐネットワーク(インターコネクト)として、InfiniBandの利用が進んでいる。米オラクルの「Oracle Exadata Database Machine」や「Oracle Exalogic Elastic Cloud」は自社製のInfiniBandスイッチを内蔵。米IBMの「PureSystems」もInfiniBandが選択可能だ。

 日本オラクルが2012年11月26日に提供開始したExalogicの新版では、「新たなプロトコルを採用し、InfiniBand通信の高速化を図った」(日本オラクル システム事業統括 プロダクトソリューション本部の大曽根明 本部長)。InfiniBandは同じ帯域幅を使ってもスピードに差が出る。その仕組みを探ろう。

 InfiniBandはサーバー向けの高速なインターコネクトで、専用スイッチとInfiniBandホストチャネルアダプター(HCA)で構成する。広帯域、低レイテンシー(遅延)を特徴とし、元々はハイパフォーマンスコンピューティング(HPC)分野で利用されてきた。

 帯域幅には、5ギガビット/秒のDDR(Double Data Rate)、10ギガビット/秒のQDR(Quad Data Rate)、14ギガビット/秒のFDR(Fourteen Data Rate)などがある。通常はこれらチャネルを複数束ねて用いる。

 例えばExalogicはQDRを採用し、HCAは4多重(40ギガビット/秒)、スイッチ間は12多重(120ギガビット/秒)で帯域を確保している。ただしDDRやQDRでは、8ビットのデータを10ビット化して転送する「8ビット/10ビット変換」が使われている。そのため理論上の帯域は、それぞれ32ギガビット/秒と96ギガビット/秒になる。

 InfiniBandの高速化は今後も続く。規格団体「InfiniBand Trade Association」のロードマップによれば、今後26ギガビット/秒のEDR(Enhanced Data Rate)が登場し、さらにHDR(High Data Rate)が続く計画だ(図1)。4多重するHCAでは、EDRで100ギガビット/秒越えが見えてきた。

図1●InfiniBandのロードマップ
規格団体「InfiniBand Trade Association」がホームページで公開している
[画像のクリックで拡大表示]

この先は日経クロステック Active会員の登録が必要です

日経クロステック Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。