ビッグデータに関する問い合わせが、このところ相次いでいる。そもそもどんな代物なのか、どう使いこなせばいいのか、といった具合だ。共通するのは、「この波に乗り遅れてはならない」という焦燥感だろうか。

 一方でデータさえ大量に集めておけば、いずれビジネスに役立つのではないか、というような幻想も見え隠れする。そのため、ビッグデータという概念を「使い道はよく分からないが、とにかくデータを何でも集めておくこと」と解釈するケースさえ、しばしば見受けられる。

 厄介なのは、このような考え方やアプローチが必ずしも間違いではない点。ビッグデータは確かにデータを大量に集めることそのものだし、それを解析するデータマイニングの本来の言葉の意味を踏まえると、大量のデータという鉱山から金脈を見つける、という理解は、当たらずといえども遠からずだ。かくしてビッグデータという言葉が一人歩きし、IT/ICT業界にまた一つ、〈バズワード〉が生まれる。

詳細を求めるとプライバシーに近づく

 やみくもに掘り返しても金や石油は出ないように、ビッグデータもそれを使いこなしてビジネスを発展させるには条件が整っていなければならない。

 まず、何のためにビッグデータを収集・分析するのかという〈目的〉の明確化が、なにより重要だ。すなわち「何を知りたいのか」を明確にし、そこに向けて必要なデータやその組み合わせはどのようなものかを定めていく必要がある。

 そんなの当然と思われるかもしれないが、実は多くはここでつまずいている。知りたいことの本質を突き詰めるには、相当に綿密な検討が必要だ。しかし現実には時間やコストの資源制約を受け、形式的な指標として採用するといった「易き」に流れやすい。データを経営に生かせる事業者と、そうでない事業者の差は、大抵このあたりに要因がある。

 次に、ねばり強い〈分析〉も必要である。前述の〈目的〉を達するためのデータやその組み合わせは、結果が得られない限り、あくまで仮説にすぎない。だとしたらその妥当性を検証し、必要に応じて仮説を柔軟に変え、また新たな検証を重ねる、という作業の繰り返しが求められる。

 そして分析の担い手は〈人間〉だ。もちろん既知の分析手法やそのアルゴリズムは概ね確立しており、そうしたオーソドックスな分析であれば、計算機でも十分できるだろう。しかし新たなデータを駆使して発見を求めるのがビッグデータの本質だとすれば、トライ&エラーの担い手となる「データ・サイエンティスト」が必要だ。以前から、データマイニング専門会社は、優れた分析者をどれくらい擁しているかが、勝負の分かれ目となっている。

 さらに、データを大量に取得・処理することの〈リスク〉も、理解しておかなければならない。集めるデータの量が増えれば、同時にノイズが増える可能性も高まる。分析が煩雑となったり、精度が低下したりといった結果を招きかねない。

 また、詳細なデータを追い求めるほど、個人情報やプライバシー情報のようなセンシティブな情報に近づく。こうしたデータの管理には相当なコストを要するし、それでも情報が流出したら、事業はおろか、組織もろとも崩壊するおそれがある。

 ビッグデータが定着する流れに水を差そうというのではない。次世代のビジネスを支える重要な概念なのは間違いなく、取り組むべき企業は積極的に推進すべきだ。

 しかし、相当丁寧な分析で確実に便益を重ねなければ、ビッグデータが内包するリスクやコストには見合わない。新たな一歩を踏み出す前に、どこに向かおうとする一歩なのかを、見定める必要がある。