【速報】

DeNA、GPUクラウドを使ったAI学習基盤の構築のコツを紹介

佐藤 雅哉=日経コンピュータ 2017/02/13


 ディー・エヌ・エー(DeNA)が2017年2月10日に開催した技術者向けイベント「DeNA Technology Conference 2017」において、同社AIシステム部 リードエンジニアの瀬尾直利氏が、クラウドを活用した機械学習基盤の構築事例を紹介した。企業のシステム資源が不十分でも、パブリッククラウドを使うことでAI学習基盤を安価、短期間に構築できたという。

ディー・エヌ・エーAIシステム部 リードエンジニアの瀬尾直利氏
[画像のクリックで拡大表示]

 DeNAでは現在、次世代事業の柱として、人工知能(AI)、特に深層学習(ディープラーニング)の開発に注力している。そのため、1カ月の間に五つのプロジェクトが立ち上がることもあり、機械学習基盤をいかに素早く構築、運用するかが重要な課題となっているという。

 瀬尾氏によれば、深層学習の学習基盤には「潤沢なGPU(グラフィックス処理プロセッサ)」に加えて「隔離した環境」「素早い構築」「運用の容易性」「高い自由度」「ミスが起きにくい環境」などの条件を満たす必要があるという。実際には、これらの条件を満たすシステム資源を有している企業はほとんどない。

 AI開発には、並列計算処理に優れるGPUが欠かせない。AIのアルゴリズムを開発し、パラメーターを並列で学習、チューニングさせたい場合、大規模なGPUリソースが必要になる。しかし、開発後はそうしたリソースは必要なくなるため、システム資産として大規模な投資は出来ない。そのため、AI学習用のリソースとして適しているのが、クラウドサービスだという。

 クラウドでは、契約内容によってGPUの数やメモリー容量を柔軟に選択できる利点がある。利用料も一時間単位、もしくは分単位で利用できるので、AI学習に必要な時だけ起動すれば良い。実際に、DeNAではAIのパラメーターチューニングなど、大量のGPUリソースが必要なときに活用しているという。

 同社では、主にAWS(Amazon Web Services)やGCP(Google Cloud Platform)のクラウドサービスを活用している。AWSでは、「NVIDIA GRID K520」、GCPでは「Tesla K80」「Tesla P100」「AMD FirePro S9300 x2」などのGPU環境がある。

GCPの提供するGPUサーバーの環境
[画像のクリックで拡大表示]

この続きはITpro会員(無料)の方のみお読みいただけます。

会員登録をするとITproのすべての記事がご覧いただけます。ぜひ登録をお願いします。



あなたにお薦め

  • 

連載新着

連載目次を見る

  • 
    

現在のアクセスランキング

ランキング一覧を見る