ざっと50~60年前、コンピュータが企業で使われ始めたとき、二つの問題が生じた。一つは、業務を処理するアプリケーションを誰がどのように作り、維持していくかという問題である。もう一つは、業務で使うデータを誰がどのように集めて入力し、結果を保存し、利用するかという問題である。
2010年になっても二つの問題は解決していない。それでもアプリケーションについては数々の開発手法やツールが登場し、パッケージソフトの利用も進んできた。しかし、データの問題について目立つ改善があったと言い切れるだろうか。
やるべきことは明確である。ビジネスに役立つデータを集め、正確に入力し、結果を正しく保存する。適切な人が適切なデータを適切な時に扱える仕組みを用意する一方、データの流出や悪意ある変更を防ぐ。当たり前のようだが、当たり前のことほど難しく、しっかりこなしている「データ優良企業」はまだまだ少ない。
データの取り扱いは極めて重要な問題であるだけに、ITの世界においてデータにかかわるキーワードが繰り返し登場している。ここ数年を見わたせば、「データインテグレーション(統合)」と「データクオリティー(品質)」の二つが挙げられよう(図1)。
データ統合は、システムごとに分散していた同種のデータをまとめたり、関連するデータを組み合わせて新たな価値を生むデータを作り出す取り組みである。対象とするデータによって、CDI(顧客データ統合)やPIM(製品情報マネジメント)と呼ばれることもある。重要なマスターデータを物理的あるいは論理的に統一する取り組みを指す「MDM(マスター・データ・マネジメント)」という言葉も登場した。
いずれも、ビジネスに直接貢献することを狙った取り組みである。事業部門間や拠点間でばらばらに持っていた顧客データを統合できれば、より効率的な営業活動が可能になる。顧客データを整理し、ダイレクトメールの発送量を減らしながら、注文を取る率を高めた例もある。
複数の事業部門が部品の購買を一本化しようとする際には、部品マスターの統一が必要になる。M&A(合併・買収)があったときに、統合効果を早く出すために、顧客データの統合は避けて通れない。
データ統合はビジネスの要請
つまり、データ統合の取り組みは、IT主導というより、ビジネス上の要請から進められることが多い。もちろん、データ統合の背景には、メインフレーム上にデータが集約されていた時代から、サーバーやパソコンにデータが分散した時代に移行した経緯がある。
今後、社外のアプリケーションをインターネット経由で利用する動き(最近ではクラウドと呼ばれる)が進むと、データ統合はますます重要になってくる。社外にある顧客データと社内にある顧客データを組み合わせて利用するためには、論理的に顧客マスターを統合しておく必要がある(データの関連付けをしておく)。
しかし、データ統合の取り組みの結果、分かったのは、企業が保有しているデータにはいい加減なものが多いという現実であった。データ入力時に数字を間違えていたり、各種の更新時にデータを誤った数値に書き換えてしまったり、ひどい場合はデータを丸ごと消してしまい、しかもバックアップデータがないといったこともあった。最たる悪例が、社会保険庁の年金システムであった。
データ品質を高める取り組みとしては、入力時のチェック機能を高める、データのコード体系を見直すとともにデータを整理しコードを振り直す、といったものがある。