「ビッグデータっていい言葉だと思いますか?」

 昨年秋から、ビッグデータ関連の取材をするたびに、何度かこの質問をベンダーの方にしてみた。結論からいうと、この言葉を「いい言葉だ」と思っている人は、意外に少ない。

 筆者の知る限り、「いい言葉だと思わない」という意見は主に以下の三つに大別される。

・データが大きいかどうかは本質ではない。非構造化データと構造化データをどう組み合わせて扱えるかのほうが本質だ

・インメモリー技術などでバッチ処理が高速に行えるようになった側面をもっと強調するべきだ

・セミナーを開催してみると、ビッグデータという言葉に具体的なイメージを持てていない人が多いように感じる

 つまるところ、ベンダーサイドの主な心配は「『ペタバイト級のデータを扱う』ことだけがビッグデータの範囲だという認識が広がると、関心や活用イメージを抱いてくれるユーザーが少なくなってしまうのではないか」という点にある。それよりは「テキストや画像をRDB(リレーショナルデータベース)のデータと組み合わせて何か新しい発見ができる」「何時間もかかっていたバッチ処理が数分でできるようになる」といった面を訴求するほうが、ユーザーにとって新たな利用イメージが浮かびやすいのでは、というわけだ。

ユーザーの情報活用力を信頼しきれないベンダー

 とは言うものの、多くのベンダーは、この言葉を使ってセミナーや広告を打ち出すことが、現状は無難だと考えてもいる。そもそもベンダーの本当の心配事はほかにある。それに比べれば、言葉の良しあしはさしたる問題ではない。

 ベンダー各社が口をそろえて本当に心配しているのは「大量のデータから、何か意味のある発見を行える情報活用力が、日本企業に備わっているのかどうか」という点にある。

 例えばこんな意見をこれまでに聞いた。

・日本のビジネスパーソンは、既にあるものを組み合わせながら新しいものを作ることは得意だが、新しい仮説を立てて検証するという思考が苦手なのではないか

・仮説検証での使い方を強調すると、データウエアハウスのブームの繰り返しのようなものだと受け止め「これはスムーズに進展しないかも」と思っている人もいるだろう

・そもそも日本では大企業でも見える化までの取り組みが大半で、スモールデータの分析さえちゃんとやってない

 ユーザーのCIOクラスと接する機会の多い、日本情報システム・ユーザー協会のある関係者はこう語る。「ビッグデータという言葉のイメージは、データウエアハウスをほうふつとさせる。当時、時流に乗って、巨大な蓄積データを強力なサーバーで処理すれば何か前向きな結果が導き出せるのではないかと考えて、痛い目にあった大企業は多い。実際には、分析結果を使いこなせないことに問題があったような気もするが、そうした経験を思い出して慎重になる人もいるだろう」。

 もちろんIT業界側は、こうした課題をただ傍観しているわけではない。前向きに取り組もうとしている動きはある。例えば、複数のインテグレーターが、“データサイエンティスト”たる人材を社内に確保・育成して、顧客の情報活用を支援するサービスを提供できる体制の構築を進めている。EMCが「パートナー向けの人材育成プログラムを始める」と表明している(関連記事:「データサイエンティスト」を育成する)のも、そうした動きの一例と言っていいだろう。

 仮説検証の取り組みを活性化させるうえで、技術発展が後押しできる部分もありそうだ。「これまで分析に120時間かかっていたことが5分でできるようになる、というくらいの変化が起これば、ユーザーの目の色が変わる分野も出てくるはずだ」(ガートナー ジャパンの堀内秀明リサーチ部門アプリケーションズマネージングバイスプレジデント)という意見や、「海外ではHadoopをGUI(グラフィカル・ユーザー・インタフェース)で操作できるようにするソリューションが出てきている。また、M2M(Machine to Machine)関連技術の発展はビッグデータ関連で期待している分野の一つ」(野村総合研究所 情報技術本部イノベーション開発部上級研究員の城田真琴氏)といった意見もある。