サーバー統合にも歴史がある

 一極集中管理のメインフレーム時代には、当然ではあるがサーバー統合の問題はなかった。1990年以降のダウンサイジングやオープン化の流れは多くのサーバーを分散化することに繋(つな)がった。サーバーの数が増えるに従いサーバーの管理にかかわる人員やコストが課題になり、コスト削減を目的とするサーバー統合が取り上げられるようになってくる。

 2000年問題によって、企業内のコンピュータ意識と実態が共有されるようになり、行き過ぎた分散化による運用管理上の弊害がより鮮明にもなってきた。このころから分散配置されたコンピュータをデータセンターなどに集約して管理を容易にしようとする活動も活発になり、データセンター移管が本格化してくる。いわゆる物理的な統合といわれるものである。

 私の所属していた会社でも2001年から取り組んだ情報基盤の再構築に際して、全面的なデータセンター移管を決定し実行した。まだこの時期の都市型IDC(インターネット・データセンター)には受け入れ容量にも余裕があり、移管はスムースに運んだ。しかし、その後5~6年で電気容量がネックになって拡張性が保証できなくなり、再移設を余儀なくされた。その経過を見ても、日本でもデータセンターを活用した物理的な統合が一気に進んだことが分かる。

 サーバー統合の考え方には物理的な統合に伴って、あるいはハードウエア更新のタイミングに合わせて機能向上が進むサーバーに再整理統合して台数を削減するような合理化策も含まれる。また、論理的な方法としてOS(基本ソフト)やミドルウエアを標準化して保守や運用を容易にするとか管理ソフトウエアを統一して一元管理することによって運用業務を合理化する手段なども取られる。ストレージの分野ではSAN(Storage Area Network)やNAS(Network Attached Storage)といった技術を使って管理を合理化することや、分散した複数のSANやNASをさらに統合するような製品開発や導入の試みも盛んに行われてきた。

サーバー統合の最近の動向

 サーバー統合における最近の特徴は、仮想化技術を使った仮想マシンによる統合事例が増えていることであろう。仮想化技術はコンピュータの歴史に遡るくらい古くから考えられ進化してきた技術である。もともとはメインフレームに複数の仮想環境を作って複数のアプリケーションを動かすマルチタスクによって、リソースの効率を上げようとする意図から考えられたようである。

 会社の部門でマック(マッキントッシュ)を活用していた10年くらい前に、コネクティックス社のVirtual PCという仮想マシンを構成する仮想化ソフトのうえでウインドウズを動かしていたことがある。マックには早くからディスクを分割する(パーティショニング)機能が装備されていて、そこにウインドウズ環境を作ってマックとウインドウズを切り替えながら使っていた。

 仮にウイルスに感染しても被害が全体に及ぶこともないし、当時の厄介なウインドウズの扱いもシンプルになり仮想化技術のメリットを実感したものである。マック上でウインドウズを起動させてプレゼンをするときに、皆が驚く顔を楽しんでいたことのほうが喜びは大きかったかもしれない。

 コネクティックス社は2003年にマイクロソフトに買収されたが、その後も改善されながらマイクロソフトから無償ソフトとして提供されている。この仮想化ソフトを活用すれば、世代の古いOSでしか動かなかったアプリケーションも使うことができる。ウインドウズ7の環境でウインドウズXPのアプリケーションも使えるのだ。この特徴は継承性を担保できない技術進化をバックアップする1つの手段としても優れている。

 サーバーの仮想化は物理的に1台のサーバーの中に仮想のサーバーを複数構築して、複数のアプリケーションを同時に実行させてCPU(中央演算処理装置)を効率よく稼働させようとするものである。それまではアプリケーションごとに用意していた複数のサーバー群を1つのサーバーに統合することができるわけである。ここでも多様なOSに対応できることが、アプリケーションの継承性にも有効になっている。数年前と比べてもこの仮想化の技術は急速に進化しており、パフォーマンスの改善やセキュリティーの向上などが進んでいる。将来的には標準的なインフラ環境になって格別に「仮想化」とも言わなくなるかもしれない。