「コストカットのためだけにITを使うのは間違っていると思う」。気がつけばコスト削減一辺倒。そんな閉塞感とは無縁に、ITを使ってチャレンジを続けるのが、カブドットコム証券の阿部吉伸事務・システム本部長だ。
最近のチャレンジの一つが「1秒保証」である。証券取引所などへの取次処理時間に1秒という基準を設けた。1秒を超過した場合は顧客の手数料を無料とする。
「きっかけは“やるぞ”という社長の一声。とにかくやるしかなかった」。厳しい課題をいきなり突きつけられた阿部本部長。しかし、当時の心境を語る顔はどこか楽しげだ。「達成できるかどうか分からなかったが、頑張れば何とかなるレベルだと思った」。そしてこう続ける。「でも、従来のDBを使っていたのでは3秒を切ることさえ難しかった」。
阿部本部長が頼ったのが、オンメモリー型の超高速データベース(DB)、米ジェムストーン・システムズの「GemFire」だ。メモリー上にデータをキャッシュし、高速なレスポンスを実現する。「正直に言うとピーク時には1秒を超えることもある。それでもITを使ってサービスの価値を高められた」と、納得の表情だ。
ビッグデータで潮目を変えよう
カブドットコム証券が採用した超高速DBをはじめ、圧倒的なスピードを誇る“新型IT”が注目を集めている。こうしたITを生かすことで、これまで不可能だと思っていたことが可能になったり、これまで考えもしなかったデータ活用のアイデアが生まれたりする(図1)。
“新型IT”が挑むのは「ビッグデータ」だ。ビッグデータは、データの量が大きいだけでなく、その多様性が増したり、発生頻度が上がったりするという側面がある。
例えば、従来の定型データに、TwitterやFacebookといったソーシャルメディアから非定型データが加わり、多様性は増す。「ユーザーのレビューといったソーシャルコンテンツと、従来の商品情報などを掛け合わせると情報は膨大になる。そうした情報からレコメンドやサーチの状況を把握し、リアルタイムに近いスピードでサービスを改善したい」(楽天技術研究所の森正弥所長)。
こうした新しいテーマに取り組むための武器が次々と登場している。それは、処理方式の高速化だったり、ハード/ソフトの高速化だったりする。ビッグデータは眺めていても何も語らない。迎え撃ってこそはじめて、価値を引き出せる(図2)。
「業務ありきで必要なデータを集めるプロセス指向の情報システムは成熟してきた。これからはとりあえず全データを取っておき、そのデータの使い道を考えるデータ指向が注目だ」(NTTデータ 基盤システム事業本部の濱野賢一朗シニアエキスパート)。