実名型口コミのグルメ情報サービスRetty(レッティ)では、独自のAI開発に取り組み、従来人手に頼ってきた仕事を着々とAI(人工知能)に置き換えています。といっても大きなコストを掛けているわけではありません。インターンシップのコスト、AIの開発に携わった社員エンジニアの人件費は別として、AI基盤に投じたのは約50万円のみです。今回は、RettyでどのようにAI基盤を構築したかについて紹介します。

写真●東京・秋葉原でパーツを買って組み立てたAI基盤
写真●東京・秋葉原でパーツを買って組み立てたAI基盤
[画像のクリックで拡大表示]

 Rettyで開発したAIの大半は、大量のデータを基に学習して精度を上げます。いわゆる機械学習を行います。

 機械学習では、膨大な行列計算を伴います。これを高速実行するプロセッサーとしては、GPU(グラフィックス処理ユニット)が適しています。そのためAI基盤として、GPU搭載仮想マシンのクラウドサービスを考えました。しかし高価で、導入に踏み切れませんでした。クラウドサービスとオフィスとのネットワーク遅延の問題で、開発の生産性が上がらないという問題もありました。

 求められていたのは、社員のエンジニアやインターン生が24時間好きなだけ定額でGPUを使える環境です。それには、クラウドではなくオンプレミス(自社所有)環境として導入したほうがよいと考えました。

 できる限り安くするため、GPUワークステーションを購入するのではなく、汎用PCに数万円のGPUボードを載せたものを調達することにしました。AIの開発を始めたばかりだったので、GPUを使う時間は限られます。GPUを使っていないときでも、通常の開発環境として利用できるようにしたのです。