• ビジネス
  • IT
  • テクノロジー
  • 医療
  • 建設・不動産
  • TRENDY
  • WOMAN
  • ショッピング
  • 転職
  • ナショジオ
  • 日経電子版
  • 日経BP
  • PR

  • PR

  • PR

  • PR

  • PR

ニュース解説

東工大スパコン「TSUBAME3.0」が今夏稼働、深層学習の国内最強マシンに

浅川 直輝=日経コンピュータ 2017/02/17 日経コンピュータ

 東京工業大学 学術国際情報センターは、スーパーコンピュータの次世代機「TSUBAME3.0」を2017年7月末頃に稼働させる。米エヌビディアのPascal世代GPU(グラフィックス処理プロセッサ)「Tesla P100」を2160個搭載。深層学習(ディープラーニング)の演算性能では、国内最大となる見通しだ。科学技術計算に加え、人工知能(AI)やビッグデータ分析といった産業用途に近い分野での活用を見込む。

 TSUBAME3.0の構築は、米ヒューレット・パッカード・エンタープライズのグループ企業である日本SGIが担う。5年間利用料は約34億円(税別)。

 理論演算性能は、深層学習の演算に使えるデータサイズ16ビットの半精度演算で47.2ペタFLOPS(1秒当たりの浮動小数点演算回数)。継続稼働する現行機「TSUBAME2.5」と合わせると64.3ペタFLOPSとなる。

 スパコンの一般的な性能指標となる64ビット倍精度での理論演算性能は12.15ペタFLOPS。国内のスパコンでは、東京大学情報基盤センターの「Oakforest-PACS」(24.91ペタFLOPS)に次ぐ規模となる()。LINPACKベンチマークに基づく実行演算性能では、Oakforest-PACS、理化学研究所「京」に続く国内3位になる見通し。消費電力は、京の10分の1となる1メガワット前後とみられる。

表●TSUBAME3.0の基本仕様
エヌビディアのプロセッサ間インタフェース技術「NVLink」は、1ノード内に最大8個のGPUを相互接続できる。TSUBAME3.0では、実装密度や冷却効率、ノード間接続など設計のバランスから、CPU2個、GPU4個の構成とした。各ノードのリソースはコンテナ技術で分割して利用できる。
[画像のクリックで拡大表示]

グーグルに伍する深層学習インフラを提供する

 TSUBAME3.0には、歴代のTSUBAMEシリーズにはなかった新たな任務がある。「人工知能の分野で、米グーグルなど海外勢に伍するだけのインフラを提供する」というものだ。国内の研究者やエンジニアは、産業技術総合研究所が構築する「AI橋渡しクラウド(ABCI)」と合わせ、2017年までに200ペタ、つまり0.2エクサFLOPSの演算性能を使えるようになる。

あなたにお薦め

連載新着

連載目次を見る

今のおすすめ記事

ITpro SPECIALPR

What’s New!

経営

アプリケーション/DB/ミドルウエア

クラウド

運用管理

設計/開発

サーバー/ストレージ

クライアント/OA機器

ネットワーク/通信サービス

セキュリティ

もっと見る