新しいITキーワードの常として、必ず「反対派」が登場する。最近では「ビッグデータ」が槍玉にあげられており、「・・・だからビッグデータは失敗する」という論調も目立ってきた。

 ビッグデータのセミナーや展示会が大賑わいということは、それだけ期待が高いのだろう。IT業界にとって久しぶりの大型キーワードであり、ここ数年、クラウド以外に強烈な話題がなかったIT業界には、活気を取り戻す頼もしい存在なのかもしれない。

 折しも、政府の新たなIT戦略として、「行政データを民間に開放し、新ビジネス創出を促す」といった計画が出てきているという。データをどう活かし、ビジネスとして成功させるかが、いまや国家戦略としても問われている。

 筆者は猛烈な賛成派でも反対派でもないが、これまでの取材経験からデータを扱う難しさは知っているつもりだ。大量のビッグデータとなると、なおさらである。

 筆者の周辺でもビッグデータについて、さまざまな人がさまざまに語り、さまざまな点を指摘している。IT業界に携わる読者にとっては当たり前のことばかりで「釈迦に説法」かもしれないが、その当たり前のことがいつも重要なので、今回も改めてビッグデータの「落とし穴」を指摘して「どうすれば失敗しないのか」を、前向きな姿勢で考えてみたい。

本当に大量データが必要なのか

 1つ目は、本当にビッグデータが必要なのか、目的が明確なのか、である。

 ある統計分析の専門家がイベントの席上、ビッグデータについて、こんな趣旨のことを話していた。「本来、統計分析の学問というのは、いかに少ないサンプリング数で全体を捉えるか、を追究したものである。テレビの視聴率調査がいい例で、わずかなサンプリング数で日本全国の状況を把握できている。目的さえ明確であれば、必ずしも大量のデータはいらない」。

 ビッグデータのブームで「データサイエンティスト」として脚光を浴びているはずの統計分析の専門家が言うので、びっくりしてしまった。ある一定のデータ量さえあれば、データ量に関係なく、分析結果はあまり変わらないのだ。となると、いったい何のためのビッグデータなのだろうか。

 イベントでこの話を聞いて、ビッグデータが抱える矛盾を感じたのは、筆者だけではなかったはずだ。大量のデータを分析すれば、今まで見えなかった新しい何かを発見できるでのはと期待してしまうが、出てきた結果は既に分かっていたことだったりする。システム開発に何十億円を投じて導入したものの、「やっぱりね」とベテラン社員の「経験」を裏付ける結果が出るだけでは寂しすぎる。

 なぜビッグデータが必要なのかを、改めて考えなければいけない。たとえば、取引先やソーシャルメディアといった自社以外の大量データと組み合わせることで何を狙うのかなど、ビッグデータならではの目標を事前に詰めておく必要がある。