「ビッグデータ」は今、最も引きの強いキーワードだ。ユーザー企業のシステム担当者の関心も高いとあって、ITベンダーは続々とビッグデータソリューションなるものを発表している。ただし、企業経営者のビッグデータに対する印象はそんなに良くない。むしろ、直感的に胡散臭いと思う経営者が多いようだ。

 ビッグデータ、もっと正確に言えば「ビッグデータ分析」だが、このキーワードが意味するものは、Twitterなどソーシャルメディアの“つぶやき”も含めた企業内外の膨大なデータを分析し、ビジネス上で有意な情報(インテリジェンス)を得ようというもの。つまり、本質的にBIと変わらず、言うならば「2012年版のBI」にほかならない。

 では、従来のBIの話と何が違うのかというと、より膨大なデータを活用できること、分析用のシステムが汎用のPCサーバーやOSS(オープンソースソフトウエア)を活用することで安く済みそうなことである。このため、従来はデータ不足、資金不足でBIに取り組めなかった企業でも、今回は「ビッグデータを分析してビジネスインテリジェンスを得る」ことができるかもしれない。

 というわけで、ビッグデータに対する期待は高まる。特にマーケティングに使えるのではないかということで、ユーザー企業の経営者も当初は強い関心を持ってくれる。そしてCIOやシステム部長に「ビッグデータの件を調べろ」ということになる。そこでビッグデータ関連のセミナーはいずこも盛況。ITベンダーも顧客からお呼びがかかって、ビッグデータの“ご説明”に出向くことになる。

 問題はこれからだが、ビッグデータに感化されたCIOやシステム部長が、あるいはITベンダーの営業が直接、経営者に対して“夢のようなビッグデータ活用物語”を説明する。そうすると、多くの経営者の気持ちは一気にさめる。「この世の全てを分かるようにしてやる」みたいな話をしやがって、というわけだ。

 日本企業の経営者は「現場」「現物」「現実」の三現主義の信奉者が多い。徹底的に現場や現物、現実を自分の眼で見て、最終的には自分の直感に意思決定することを良しとする経営者に、「データをぶん回すと凄いことが分かる」的な話をしても、全く響かない。むしろ、データに頼ることで現場力や直感力が衰えると“危険視”されるのがオチである。

 ならばと、既にBIを使いこなしている企業にビッグデータソリューションを提案しても、相手にされない可能性が高い。こうしたデータ活用で先行する企業はPOSなどを使って大量のデータを取得している。そして、大半のデータを分析に使わず、そのまま捨てている。システムの問題で分析できないからではなくて、分析する必要が無いからだ。

 結局のところ、ビッグデータであろうがBIであろうが、ユーザー側で「どのようなインテリジェンスを得たいのか」が明確でないと、話は前に進まない。インテリジェンスとは、意思決定に必要な決定的な情報のことだ。しかも、日々の意思決定に使えるように、インテリジェンスを得る仕組みが業務プロセスに組み込まれている必要がある。一度きりの意思決定に必要な情報なら、調査機関に頼めば済む話だからだ。

 ということで、ビッグデータの商談は既存のBIの商談と同様、極めて難易度が高い。ほかの商談以上に顧客の課題を聞き出せなければ、今流行りのデータサイエンティストを何人そろえても意味がない。隗より始めよ、である。ITベンダーはまず自社でビッグデータ活用を始めたらどうか。えっ、何を分析したらよいのか分からないって、そりゃダメだ。