東京工業大学 学術国際情報センターは、スーパーコンピュータの次世代機「TSUBAME3.0」を2017年7月末頃に稼働させる。米エヌビディアのPascal世代GPU(グラフィックス処理プロセッサ)「Tesla P100」を2160個搭載。深層学習(ディープラーニング)の演算性能では、国内最大となる見通しだ。科学技術計算に加え、人工知能(AI)やビッグデータ分析といった産業用途に近い分野での活用を見込む。

 TSUBAME3.0の構築は、米ヒューレット・パッカード・エンタープライズのグループ企業である日本SGIが担う。5年間利用料は約34億円(税別)。

 理論演算性能は、深層学習の演算に使えるデータサイズ16ビットの半精度演算で47.2ペタFLOPS(1秒当たりの浮動小数点演算回数)。継続稼働する現行機「TSUBAME2.5」と合わせると64.3ペタFLOPSとなる。

 スパコンの一般的な性能指標となる64ビット倍精度での理論演算性能は12.15ペタFLOPS。国内のスパコンでは、東京大学情報基盤センターの「Oakforest-PACS」(24.91ペタFLOPS)に次ぐ規模となる()。LINPACKベンチマークに基づく実行演算性能では、Oakforest-PACS、理化学研究所「京」に続く国内3位になる見通し。消費電力は、京の10分の1となる1メガワット前後とみられる。

表●TSUBAME3.0の基本仕様
表●TSUBAME3.0の基本仕様
エヌビディアのプロセッサ間インタフェース技術「NVLink」は、1ノード内に最大8個のGPUを相互接続できる。TSUBAME3.0では、実装密度や冷却効率、ノード間接続など設計のバランスから、CPU2個、GPU4個の構成とした。各ノードのリソースはコンテナ技術で分割して利用できる。
[画像のクリックで拡大表示]

グーグルに伍する深層学習インフラを提供する

 TSUBAME3.0には、歴代のTSUBAMEシリーズにはなかった新たな任務がある。「人工知能の分野で、米グーグルなど海外勢に伍するだけのインフラを提供する」というものだ。国内の研究者やエンジニアは、産業技術総合研究所が構築する「AI橋渡しクラウド(ABCI)」と合わせ、2017年までに200ペタ、つまり0.2エクサFLOPSの演算性能を使えるようになる。