写真●米メラノックス・テクノロジーズCEOのエヤル・ワルドマン氏
写真●米メラノックス・テクノロジーズCEOのエヤル・ワルドマン氏
[画像のクリックで拡大表示]
図●OCPに準拠した米フェイスブックのサーバー機のアーキテクチャー
図●OCPに準拠した米フェイスブックのサーバー機のアーキテクチャー
[画像のクリックで拡大表示]

 メラノックステクノロジーズジャパンは、InfiniBand/イーサネット兼用のネットワークカード製品で100Gビット/秒の高速通信を実現した新版「ConnectX-4」を、2015年第2四半期(4月~6月)に出荷する。2017年には、200Gビット/秒の製品を投入する予定。2015年3月31日には都内で説明会を開き、国内でもConnectX-4のサンプル出荷を開始したことを発表した。100Gビット/秒のカードの価格は、現状の最速カードである56Gビット/秒の約1.5倍になる。

 同社の製品の特徴は、HPC(ハイパフォーマンスコンピューティング)などにおいてサーバー間を低遅延に接続するInfiniBand通信と、汎用のネットワーク接続に使われるイーサネット通信の両方に利用できること。このための半導体チップを自社開発している。イーサネットよりも先に広帯域化が求められるInfiniBandの用途で量産効果を得られるので、イーサネットを広帯域化する際に大量の発注を安価に導入できるという。

 「イーサネットカードの用途は現状では20%に満たないが、InfiniBandカードの用途よりもイーサネットカードの用途の方が伸びている」と、米メラノックス・テクノロジーズCEOのエヤル・ワルドマン氏(写真)はユーザーの動向を説明する。企業やデータセンターにおけるサーバーの集約など、広帯域なイーサネットカードを要求する需要が高まっている。

サーバー集約などで広帯域イーサネットの需要が高まる

 エヤル・ワルドマンCEOは、OCP(Open Compute Project)に準拠したデータセンター向けのサーバー機で、米フェイスブックが台湾クアンタ・コンピュータに作らせた最新サーバー機のアーキテクチャーを例に挙げ()、「複数のCPUから単一のイーサネットカードを共有する時代になる」とした。このサーバー機では、PCI Expressバスで接続した複数のCPUカードが1枚のネットワークカードを共有する。こうしたアーキテクチャーでは、イーサネットの広帯域化が重要になるとした。