(前回記事はこちら

 ディープラーニング向けGPUインフラの特性や使いこなしのノウハウを明らかにする特集。今回は、CPUから専用チップまで、GPU以外のITインフラの可能性について、PFN チーフアーキテクトの奥田遼介氏と、さくらインターネット代表取締役社長の田中邦裕氏、同社で高火力コンピューティングを担当する須藤武文氏に聞いた。

(聞き手は浅川 直輝=日経コンピュータ



将来、ディープラーニング向けITインフラの姿はどのように変わると見込んでいますか。当面は、コストパフォーマンスを含めてGPUクラスターの優位は続きそうでしょうか。

写真●右から、PFN チーフアーキテクトの奥田遼介氏、さくらインターネット代表取締役社長の田中邦裕氏、さくらインターネットで高火力コンピューティングを担当する須藤武文氏
写真●右から、PFN チーフアーキテクトの奥田遼介氏、さくらインターネット代表取締役社長の田中邦裕氏、さくらインターネットで高火力コンピューティングを担当する須藤武文氏
[画像のクリックで拡大表示]

PFNの奥田氏 うーん、難しい質問ですね。ディープラーニングには大きく2つのタスクがあります。1つは、学習データを入力してニューラルネットを鍛える「学習(learning)」。もう1つは、鍛えたニューラルネットに使って何かを分類、推測させる「推論(inference)」です。

 このうち学習に関しては、やはり今のようなGPUクラスターの進歩したものが必要だと思います。一定規模の台数も要りますし、Infinibandを使うかを含め、様々なスペックの検討が今後も求められそうです。

 一方で、推論のほうはやや事情が異なります。こちらはCPUなど、別のデバイスが有利になる道も残されていると思います。

 学習は、1つのニューラルネットワークを時間をかけて鍛えるものです。一方で推論は、何らかの機器やサービスに組み込んで使ってもらうことになるので、運用面では「低レイテンシーで」「効率よく」さばくことが重要になります。

 この目的のため、GPUが一番いいという時期もあれば、そうではない時期があるかもしれない。GPUに限らない形を考えていくことが必要なのかなと考えています。

さくらインターネットの田中氏 そうですね。実際、かつてのマルチコアCPUは「遅いコアを大量に並べた」というイメージでしたが、今では1個1個のコアも結構速くなっているので、一つの解になりそうです。

米グーグルは「TPU(Tensor Processing Unit)という専用デバイスを開発して自社クラウドに組み込み、「Google Translate」などの自社サービスに使っています。こうした専用ハードウエアの可能性はどうでしょうか。

 専用ハードウエアという解があるどうかについては、常に注視しています。特に、推論だけでなく学習を高速化できるかは、常に気になっているところです。

 加えて、クラウド型に組み込むTPUとは違う発想ですが、ネットワークのエッジ側にディープラーニングを導入する場合は、より小型で、電力当たりのパフォーマンスが高い専用デバイスが求められると考えています。

 クラウドとエッジ、という2つの方向性は、同時に、別々の問題として考えていかなければなりません。

 例えばエッジ側のデバイスとして、先頃発表された車載チップ「Xavier」(注:自動運転車への利用を想定して米エヌビディアが開発中の車載SoC。2017年第4四半期に出荷予定)は、20テラFLOPS(1秒当たり浮動小数点演算回数)を20Wで実現するとしています。恐らく、学習用ではない推論専用のユニットを入れることで、電力当たりパフォーマンスを高めていると考えています。

この先は日経クロステック Active会員の登録が必要です

日経クロステック Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。