これまでに比べ1000倍速くする──東京大学と日立製作所はビッグデータ活用をにらみ、高速なデータ処理エンジンを2014年3月に向けて研究開発中だ。研究開発は、内閣府の「最先端研究開発支援プログラム」に基づく。共同研究成果を生かし、まず従来比約100倍の性能を持つ処理エンジンを「Hitachi Advanced Data Binder プラットフォーム」として日立が製品化。これにDTSのBIツールを組み合わせた「Hitachi Advanced Data Binder プラットフォーム BIアプライアンス」は2012年10月、日経BPが主催する「ITpro EXPO AWARD 2012」で大賞を受賞した(関連記事)。研究開発を率いる喜連川氏は、「非順序型実行原理」であくまで1000倍を狙うと力を込める。

(聞き手は、森山 徹=日経コンピュータ


なぜ、1000倍高速なデータ処理エンジンを作ろうと考えたのか。

東京大学 生産技術研究所 教授 喜連川優氏
東京大学 生産技術研究所 教授 喜連川優氏

 米国では、科学技術政策局(OSTP)などが、ビッグデータ活用に向けた取り組みを進めている。情報が爆発的に増えることで、サイエンス、インダストリー、そしてソサエティーが変わると。だが僕らは、そうしたことを「情報爆発」プロジェクトや「情報大航海プロジェクト」など過去のプロジェクトで既にもうずいぶん言ってきた。

 大切なのは、そこで何がキーコンポーネントになるかだ。誰が考えても、情報がべらぼうに多いことは確か。じゃ、べらぼうに多いとは、どれくらい多いのだろう。今より10倍多いというのは、多いうちに入らない。僕らが考えるのは、ユニット(単位)が変わるところだ。キロからメガ、メガからギガと1000倍になると、根本的に世界が変わる。だから、我が国で唯一商用のデータベースコードをメインテインしている日立の実装をベースに、ゴールとして1000倍を目指そうと決めた。

 情報が膨大になって何が必要になるかを考えると、データが1000倍大きくなったら、1000倍速くすれば、少なくとも前と同じことが大きなデータに対してできる。ところが、データが1000倍大きくなったのに、従来と同じテクノロジーを使って1000倍も時間がかかるなら、誰もやらない。

 少なくとも3桁くらい速いものを作ることがコンピタンスになる。ビッグデータ活用に際して「1000倍大きなデータを使ってもいいんだよ」と言えるような技術がなければ、ユーザーはそっち側に動かない。

 もう一つ、IT屋、コンピュータ屋さんから見ても、1000倍という単位の切れ目を狙うことは、ものすごくエキサイティング。10倍や100倍ではだめ。1000倍の爽快感がある。