仮想化技術を導入する企業が増えている。サーバー統合によるITコストの削減や、運用管理の効率化、本番環境と開発環境の一元化など、IT部門が抱え続けてきた積年の課題を一掃できるとの期待があるからだ。しかし、適用事例の多くは、いわゆる情報系システムを統合するもの。サーバー統合を進めるなら、基幹系と情報系の別を問わず、全社システムを支えるIT基盤の実現を目指したい。基幹系に踏み込めない課題は、どこにあるのだろうか。
特定ベンダーによる囲い込みから解き放つ“救世主”として、20年ほど前に登場したオープンシステム。PCサーバーの性能向上と歩調を合わせるように、その適用範囲をどんどんと拡大。今や、情報システムのプラットフォームとしては、オープンではない環境を採用することのほうが珍しく感じるほどになった。
しかし、オープンシステムの浸透は、企業内に多数のPCサーバーを生み出し、運用管理上の負荷を逆に増やしている。昨今の経済不況の中、“守り”のITコストの代表とされる運用コストを抑えるためには、増え続けてきたオープン系サーバーの物理的な削減が不可欠だ。そこで大きく期待されるのが仮想化技術である。
既存環境に仮想化技術を適用すれば、新しいハードウエアでは動作保証が得られないアプリケーションを延命できたり、多数のサーバーを統合することで稼働率を高めたり運用負荷を低減したりできるとされる。各種ソフトウエアのライセンス料が下がることもある。そこから得た余剰金を、“攻め”のIT投資に振り分けることも可能になる。オープンシステムに代わる、現代の救世主というわけだ。
適用範囲が情報系にとどまっていないか
しかし、仮想化技術を採り入れるなら、情報系や基幹系の別を問わず、企業情報システム全体を支えるIT基盤の構築を目指すべきだ。残念ながら、仮想化技術の適用事例の多くは、いわゆる情報系システムを対象にしたものが多い。散在していた多数のPCサーバーを統合したものの、“PCサーバー島”とも呼べる固まりができただけで、残念ながら全社統合基盤にはなり得ていない。
その理由も十分に理解できる。現行の仮想化技術によって、メインフレームやUNIXサーバーと同等の信頼性や可用性、保守性が確保できるのかどうかについての不安は隠せない。また、仮想化技術の導入により、新たな“複雑さ”が顕在化することが指摘されている。アプリケーション実行環境の集積度が高まることで、運用管理が難しくなったり、障害発生時の原因切り分けが困難になったりするなどだ。物理的な複雑さが解消されたとしても、論理的な複雑さが増えるとすれば、見えづらいと言う意味では、論理的な複雑さのほうがやっかいだ。
読者のみなさんは、仮想化技術を、よりミッションクリティカルな領域へ適用することをどう考えられているだろうか。上記の杞憂は記者だけのものなのか、あるいはみなさんも共通に抱いておられるのか。みなさんの見方をお聞かせいただきたく、以下にいくつかの質問を設けてみました。仮想化技術の今後に向けた論点を定めるためにも、是非ともご回答ください。よろしくお願いします。