東京工業大学 学術国際情報センターは、スーパーコンピュータの次世代機「TSUBAME3.0」を2017年7月末頃に稼働させる。米エヌビディアのPascal世代GPU(グラフィックス処理プロセッサ)「Tesla P100」を2160個搭載。深層学習(ディープラーニング)の演算性能では、国内最大となる見通しだ。科学技術計算に加え、人工知能(AI)やビッグデータ分析といった産業用途に近い分野での活用を見込む。
TSUBAME3.0の構築は、米ヒューレット・パッカード・エンタープライズのグループ企業である日本SGIが担う。5年間利用料は約34億円(税別)。
理論演算性能は、深層学習の演算に使えるデータサイズ16ビットの半精度演算で47.2ペタFLOPS(1秒当たりの浮動小数点演算回数)。継続稼働する現行機「TSUBAME2.5」と合わせると64.3ペタFLOPSとなる。
スパコンの一般的な性能指標となる64ビット倍精度での理論演算性能は12.15ペタFLOPS。国内のスパコンでは、東京大学情報基盤センターの「Oakforest-PACS」(24.91ペタFLOPS)に次ぐ規模となる(表)。LINPACKベンチマークに基づく実行演算性能では、Oakforest-PACS、理化学研究所「京」に続く国内3位になる見通し。消費電力は、京の10分の1となる1メガワット前後とみられる。
グーグルに伍する深層学習インフラを提供する
TSUBAME3.0には、歴代のTSUBAMEシリーズにはなかった新たな任務がある。「人工知能の分野で、米グーグルなど海外勢に伍するだけのインフラを提供する」というものだ。国内の研究者やエンジニアは、産業技術総合研究所が構築する「AI橋渡しクラウド(ABCI)」と合わせ、2017年までに200ペタ、つまり0.2エクサFLOPSの演算性能を使えるようになる。