写真1●米GoogleのSundar Pichai CEO(最高経営責任者)
写真1●米GoogleのSundar Pichai CEO(最高経営責任者)
[画像のクリックで拡大表示]

 「ディープラーニング(深層学習)専用プロセッサ『Tensor Processing Unit(TPU)』を開発し、1年前から使用している」――。米GoogleのSundar Pichai CEO(最高経営責任者)は2016年5月18日、開発者会議「Google I/O 2016」の基調講演で、同社の人工知能(AI)の知られざる秘密を明らかにした(写真1)。

 TPUはディープラーニングのために開発したASIC(Application Specific Integrated Circuit、特定用途向けIC)で、GPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)といったディープラーニングの処理に使用する他の技術と比較して「消費電力当たりの性能は10倍」(Pichai CEO)だという(写真2)。

写真2●TPUの消費電力当たり性能を示したグラフ
写真2●TPUの消費電力当たり性能を示したグラフ
[画像のクリックで拡大表示]

 同社は2014年からTPUの開発を始め、2015年春から利用を開始。韓国のプロ棋士イ・セドル氏に勝利した囲碁AIの「AlphaGo(アルファ碁)」も、TPUを使用していたという。Googleが2016年3月にサービスを開始した機械学習のクラウドサービス「Google Cloud Machine Learning」にもTPUが使われている。

 TPUはGoogleが2015年11月にオープンソースソフトウエア(OSS)として公開した機械学習ソフトの「TensorFlow」に対応する。TensorFlowは機械学習の機能を組み込んだアプリケーションを開発するための「ライブラリ」で、従来はCPUとGPUに対応していた。CPUやGPU、TPUなどプロセッサの違いはTensorFlowが吸収するため、TensorFlowを使う開発者はそれらの違いを意識せずにアプリケーションを開発できる。

ムーアの法則終了が開発の動機

 これまで、ディープラーニングの処理には市販のCPUやGPUを使用するのが一般的で、米Microsoftなどごく一部の企業が、ディープラーニングの処理にFPGAを使用し始めているという状況だった。Googleのようにディープラーニングの処理のためだけにプロセッサを開発するのは極めて珍しい。

写真3●GoogleでITインフラ技術開発を統括するUrs Holzle氏
写真3●GoogleでITインフラ技術開発を統括するUrs Holzle氏
[画像のクリックで拡大表示]

 しかもGoogleは、米IBMや米Intelのような伝統的なプロセッサメーカーではなく、ソフトやクラウドサービスの会社である。そんなGoogleが専用プロセッサを開発したのはなぜか。GoogleでITインフラ技術開発を統括するUrs Holzle氏(写真3)は「(集積回路上のトランジスター数が1年半~2年ごとに2倍になるという)ムーアの法則が終了し、ソフトの進化にハードの進化が追いつかなくなってきたことがその理由だ」と語る。