写真1●Apollo 8000の外観
写真1●Apollo 8000の外観
[画像のクリックで拡大表示]
写真2●Apollo 8000のサーバー内部の様子。熱をトレー側面(写真の下方向)に逃がすヒートパイプが見える
写真2●Apollo 8000のサーバー内部の様子。熱をトレー側面(写真の下方向)に逃がすヒートパイプが見える
[画像のクリックで拡大表示]
写真3●Apollo 6000のシャーシの外観。上部は、シャーシと独立した電源ユニット。
写真3●Apollo 6000のシャーシの外観。上部は、シャーシと独立した電源ユニット。
[画像のクリックで拡大表示]

 日本ヒューレット・パッカード(HP)は2014年8月7日、ハイパフォーマンスコンピューティング(HPC)向けサーバーの新ファミリ「Apollo」を発売した。スーパーコンピュータの「Apollo 8000 System」と、幅広い企業に向けた「Apollo 6000 System」の2種類から成る。

 Apollo 8000では、水冷技術を利用して1ラックで250テラFLOPS超という高密度な配置を実現した(写真1)。「空冷では実現不可能なラック密度」(同社)という。サーバーのトレーを直接専用のラックに収容する構造となっており、ラック当たり144ノード(72個のトレー)を収容できる。サーバーは「ProLiant XL730f」で、2ソケットのXeon E5-2600を2ノード搭載している。

 Apollo 8000では、サーバー本体内には冷却水が通らない構造となっている。ラックの中央に「Thermal Bus Bar」という冷却水が垂直に通る部分があり、ここでサーバーの熱を受け取る。サーバー内のCPUやGPU、メモリにはヒートパイプを這わせ、熱をトレーの側面に集約し、そこから冷却水が通るThermal Bus Barに熱を伝える(写真2)。「Thermal Bus Barは完全密閉されており、万一、冷却水が漏れた際も、サーバー部分には水が入り込まないようになっている」(同社)。ノード間通信に使うInfiniBandスイッチもラック内に収容している。なお、計算用のサーバーラックとは別に、1ラック分を水冷装置向けに割り当てる必要がある。

 Apollo 8000は、米国の国立研究所であるNational Renewable Energy Laboratory(NREL)が採用している。NRELは、同サーバーの水冷式による高い冷却効率、およびサーバーの廃熱をオフィスの暖房などに利用して暖房費を削減するといった工夫により、データセンターの運用コストを年間100万ドル削減できるとしている。

 Apollo 6000は、1ラック当たり160ノードを搭載可能。20ノードを搭載できる5Uのラック型シャーシが基本単位である(写真3)。電源ユニット「Power Shelf」がシャーシから独立しているのが特徴で、1個のPower Shelfで4個のシャーシを駆動できる。サーバーは「ProLiant XL220a Gen8 v2」で、Xeon E3-1200を2ノード搭載する。

 価格(税別)は、Apollo 8000(144ノード)が2億3289万円から、Apollo 6000(20ノード)が484万4000円からである。Apollo 8000は、別途、水冷向けの配管工事などが必要である。