データベース(DB)をはじめ、様々なデータソースを“仮想的に”統合する「データ仮想化」。論理モデルを作ることで、複数のデータソースにある最新データに統一的な手法でアクセスできる。物理的なDB統合に比べ、実現までの時間が短く、データソースの変更が容易なことがメリットだ。米レッドハットでミドルウエア・プロダクトマネージャーを務めるケン・ジョンソン氏に、データ仮想化のニーズや製品戦略を聞いた。

(聞き手は森山 徹=日経コンピュータ

なぜ今、データ仮想化が注目されるのか

米レッドハット ミドルウエア・プロダクトマネージャーのケン・ジョンソン氏

 ビッグデータの盛り上がりで、様々なデータを素早く集めて、分析したいというニーズがより強くなってきた。分散処理ソフト「Hadoop」を使った非構造データの分析や「NoSQL」の活用などにより、企業内で利用するデータソースの種類が増えてきた。従来のようにDBやデータマート、データウエアハウス(DWH)などを相手にしていればよかった時代とは違う。今が、データ仮想化を加速させるタイミングだ。

 ユーザーは異機種システムへのアクセスや統合されたデータへのビューを求めている。しかもアプリケーションの変化に追随するため、データベース環境の構築スピードを上げる必要がある。ETL(抽出・変換・書き出し)ツールを使ったバッチ処理のアプローチでは、必要な情報をユーザーに提供することは難しい。ETLバッチはいまだよく使われるソリューションだが、制限がある。俊敏性の不足、複雑さ、コスト、データの重複などだ。

 データ仮想化なら、ユーザーのデータ活用ニーズを満たせる。