• BPnet
  • ビジネス
  • IT
  • テクノロジー
  • 医療
  • 建設・不動産
  • TRENDY
  • WOMAN
  • ショッピング
  • 転職
  • ナショジオ
  • 日経電子版
  • PR

  • PR

  • PR

  • PR

  • PR

ニュース解説

東工大スパコン「TSUBAME3.0」が今夏稼働、深層学習の国内最強マシンに

浅川 直輝=日経コンピュータ 2017/02/17 日経コンピュータ

 東京工業大学 学術国際情報センターは、スーパーコンピュータの次世代機「TSUBAME3.0」を2017年7月末頃に稼働させる。米エヌビディアのPascal世代GPU(グラフィックス処理プロセッサ)「Tesla P100」を2160個搭載。深層学習(ディープラーニング)の演算性能では、国内最大となる見通しだ。科学技術計算に加え、人工知能(AI)やビッグデータ分析といった産業用途に近い分野での活用を見込む。

 TSUBAME3.0の構築は、米ヒューレット・パッカード・エンタープライズのグループ企業である日本SGIが担う。5年間利用料は約34億円(税別)。

 理論演算性能は、深層学習の演算に使えるデータサイズ16ビットの半精度演算で47.2ペタFLOPS(1秒当たりの浮動小数点演算回数)。継続稼働する現行機「TSUBAME2.5」と合わせると64.3ペタFLOPSとなる。

 スパコンの一般的な性能指標となる64ビット倍精度での理論演算性能は12.15ペタFLOPS。国内のスパコンでは、東京大学情報基盤センターの「Oakforest-PACS」(24.91ペタFLOPS)に次ぐ規模となる()。LINPACKベンチマークに基づく実行演算性能では、Oakforest-PACS、理化学研究所「京」に続く国内3位になる見通し。消費電力は、京の10分の1となる1メガワット前後とみられる。

表●TSUBAME3.0の基本仕様
エヌビディアのプロセッサ間インタフェース技術「NVLink」は、1ノード内に最大8個のGPUを相互接続できる。TSUBAME3.0では、実装密度や冷却効率、ノード間接続など設計のバランスから、CPU2個、GPU4個の構成とした。各ノードのリソースはコンテナ技術で分割して利用できる。
[画像のクリックで拡大表示]

グーグルに伍する深層学習インフラを提供する

 TSUBAME3.0には、歴代のTSUBAMEシリーズにはなかった新たな任務がある。「人工知能の分野で、米グーグルなど海外勢に伍するだけのインフラを提供する」というものだ。国内の研究者やエンジニアは、産業技術総合研究所が構築する「AI橋渡しクラウド(ABCI)」と合わせ、2017年までに200ペタ、つまり0.2エクサFLOPSの演算性能を使えるようになる。

ここから先はITpro会員(無料)の登録が必要です。

次ページ 「現状では、日本のAI研究は諸外国と比べて遅れて...
  • 1
  • 2
  • 3

あなたにお薦め

連載新着

連載目次を見る

今のおすすめ記事

  • 【AIと倫理】

    脳から学べば汎用AIの実現は近い、開発を萎縮させない議論を

     ドワンゴ人工知能研究所の山川宏所長は、最新の脳神経科学の成果を取り込んだ、汎用AIの研究開発に取り組んでいる。実現する手法として提唱するのが、脳が持つ部位ごとの機能をコンピュータに模倣させ、各機能を連携させることで汎用性の高い知性を実現するという「全脳アーキテクチャ(WBA)」だ。

  • 【ニュース解説】

    マイクロソフト、AIでOfficeを刷新

     米マイクロソフトは2017年5月に米国と日本で開催した開発者向け年次イベントで、新サービスや新機能を多岐にわたって発表した。重点的な強化ポイントは、AI(人工知能)、IoT(モノのインターネット)、データベースの三つ。なかでもAIについては、PowerPointなどに組み込んで、刷新といえる大きな…

ITpro SPECIALPR

What’s New!

経営

アプリケーション/DB/ミドルウエア

クラウド

運用管理

設計/開発

サーバー/ストレージ

クライアント/OA機器

ネットワーク/通信サービス

セキュリティ

もっと見る