データセンター分野への進出をたくらむ英アーム(ARM)だが、その道のりは険しい。ディープラーニング(深層学習)の活用が拡大し、GPU(グラフィックス処理プロセッサ)や深層学習専用チップなどの新たなプロセッサが台頭しているからだ。演算処理(コンピューティング)をほぼ独占していたインテル(Intel)に加えて、米グーグル(Google)など新たなライバルが現れた。

「Cloud TPU」を発表するグーグルのスンダー・ピチャイCEO
「Cloud TPU」を発表するグーグルのスンダー・ピチャイCEO
[画像のクリックで拡大表示]

 GPUや深層学習専用チップの強みは、特定の用途に特化することで圧倒的に高い性能を発揮できる点にある。グーグルが2017年5月に発表した「Cloud TPU」は深層学習専用チップ「TPU(テンサー・プロセッシング・ユニット)」の第2世代で、1枚のボードにプロセッサを4個搭載する。この1枚が1秒間にこなせる演算回数は180兆回、つまり処理性能は180テラFLOPSだ。

 さらに64枚のCloud TPUを独自の高速ネットワークで接続して「TPUポッド」を構成すると、演算回数は約64倍の11.5ペタ(1万1500テラ)FLOPS、つまり1秒当たり1京(1兆の1万倍)回を超える。

 理化学研究所のスーパーコンピュータ「京」は1秒間に1京回の演算ができることから京と名付けられた。つまり10ペタFLOPSである。京の10ペタFLOPSは「倍精度」の浮動小数点演算での数字だ。Cloud TPUの浮動小数点演算の精度は不明であるものの、1秒当たりの演算回数だけで比べるなら8万個のプロセッサによって構成する京を1個のTPUポッドが上回ることになる。

 第1世代のTPUは画像認識などの「推論」にのみ対応していたが、第2世代ではビッグデータからモデルを構築する「学習」にも対応する。