図●GPUボード8台構成のサーバー
図●GPUボード8台構成のサーバー
出所:米フェイスブックのEngineering Blog
[画像のクリックで拡大表示]

 米フェイスブックのAI(人工知能)研究組織であるFacebook AI Research(FAIR)は2015年12月11日、ニューラルネットワークの学習に特化したGPUベースのハードウエア「Big Sur」を開発し、設計図を公開することを明らかにした()。同日公開したブログで表明した。データセンターで使用する機器の設計を公開するプロジェクト「Open Compute Project(OCP)」に設計図を提供する。

 Big Surは、OCPが公開するラック仕様「Open Rack V2」と互換性のあるサーバー。消費電力300Wの米エヌビディア製GPUボード「NVIDIA Tesla M40」を8台載せる構成で、8台のGPUがニューラルネットワークの学習処理を分散して実行できる。フェイスブックが現在使用する専用サーバーと比較して2倍の処理速度を実現できるという。

 同サーバーは、データセンターでの運用の効率性を重視した設計になっており、データセンター側に特殊な冷却装置は不要であるほか、HDDやメモリーといった壊れやすい部品は数秒で交換できるという。