GPUインフラの使いこなしこそ、IT企業の競争優位につながる――。

 

 大量のデータを学習させるディープラーニング(多層のニューラルネットによる機械学習)の技術開発に不可欠となるのが、GPU(グラフィックス・プロセッシング・ユニット)を中心に構成される大規模なITインフラである。

 とはいえ、米グーグルのように自前で大量のGPUインフラを用意する手法は、誰にでもできる話ではない。近年は、Amazon Web ServicesのGPUインスタンスや、さくらインターネットの「高火力コンピューティング」といったGPUインフラの時間貸しサービスを組み合わせることで、臨機応変にGPUインフラを確保できるようになった。

 本特集では、AI技術開発の第1人者であり、GPUインフラのヘビーユーザーであるPreferred Networksへのインタビューを通じ、GPUインフラの使いこなし方を紹介する。