図1●コンピューティング・スタイルの変化
メインフレームの時代から今まで,ロジックを中央のコンピュータが持つ「集中型」と一部のロジックを端末側に持つ「分散型」のせめぎ合いが続いてきた。集中型は運用/保守が便利な半面,すべての資源を中央に配置しなければならないのでコスト高になりがち。分散型は端末側のCPUをある程度利用できるので,サーバーは安価にできるが運用/保守が難しくなる。
図2●イーサネットの高速化の歴史
既にネットワーク機器/チップベンダーは100Gビット/秒のイーサネットをにらんだ研究開発をしている。
図3●コンピューティングの未来像
高速なネットワークで接続することによって,物理的な位置の制限がなくなる。見かけ上,全体が一つのコンピュータとして動作する。こうなると「集中か,分散か」という議論がナンセンスになる。
図4●新しい負荷分散システムの波
従来はあるアプリケーションを担当するサーバーの負荷が大きくなった場合,同じ構成の新しいサーバーを用意する必要があった。今後は,他のサーバーの余ったリソースを利用できるようになる。自動化されるため,管理者の負担も少ない。
 コンピュータの歴史を振り返って見ると,分散と集中を繰り返してきたことが分かる(図1[拡大表示])。

 メインフレーム時代には,データの処理と保存はすべてセンター側で行っていた。そこにつながっていたのは文字通り「端末」で,入力と結果の表示だけを担当していた。

 これがクライアント-サーバーに取って代わられた。パソコンの高性能化とLANの普及により,データの処理をクライアントが担当するようになった。

 しかしクライアント-サーバーは保守/運用上で問題があった。そこで普及したのが現在主流のイントラネットである。Webサーバーがアプリケーションを配信しWebブラウザがHTMLを解釈して表示する。形態的にはメインフレーム時代に戻った形だ。

 では今後も分散,集中を繰り返していくかといえば,そうではない。これからやってくるコンピューティング環境を考えたとき,もはや集中か,分散かという議論は成り立たなくなる。すべてが集中し,すべてが分散している――言ってしまえば“超分散”の時代がやってくるのだ。

超分散の基盤は高速ネットワーク

 次世代コンピューティングを考える上で,鍵を握るのがネットワークである。現在,LANは100Mビット/秒程度,バックボーンは1Gビット/秒程度だ。まだ,性能向上は続いている(図2[拡大表示])。今後は更に高速になっていくだろう。

 また,インターネット回線の高速化によりインターネットとLANの区別が消えてゆく。現在のADSLの数Mビット/秒から光ファイバの100Mビット/秒へとどんどん移行していく。さらに,その先には1Gビット/秒もみえている。10Gビット/秒も夢ではない。

 一方,このネットワークにつながるコンピュータの数は,今後もさらに増えていく。パソコンの登場で,1人一つのCPUという時代がやってきたが,デジタル家電の浸透により1人が数十のCPUを持つ時代になっていくだろう。また,熱問題を背景にパソコン用CPUのマルチコア化も進む。つまり,一人に属するCPUの数,すなわち計算可能量が限りなく増えていく。

 超高速のネットワークと無数のCPUが組み合わせが生むもの,それが“超分散環境”とも呼ぶべきコンピューティング・スタイルだ。回線が高速なので,同じ筐体内にあるCPUなのか,ネットワークにあるCPUなのかという区別はなくなり,必要な計算量に応じてダイナミックに割り当てるようになる。そのとき,クライアントか,サーバーかという区別はない。ネットワークにつながるコンピュータ全体があたかも一つのコンピュータのように動き始めるのだ(図3)。

メンテフリーのシステムを

 超分散環境を予感させる研究は至るところで始まっている。その一つが,いわゆる自律分散型のシステムである。ユーザーをメンテナンスから解放するものだ。例えば,(1)負荷が高いシステムが自動的に他のサーバーに自分のシステムを移して負荷を分散させる,(2)問題が起きそうなコンピュータが完全に故障する前に自動で別のコンピュータが処理/データを引き継がせる――といった具合だ。米IBM社が提唱するオートノミック・コンピューティングや米Sun Microsystems社がN1 Gridで実現しようとしているのがまさにこの世界だ。

 現在,IBM,Sun Microsystems,NEC,富士通など大手コンピュータ・ベンダーが力を入れているのが,データセンターでの負荷分散システムである。サーバーに処理が集中したとき,CPUパワーが余っているサーバーに処理を分担させるという方法である。これならば,遊んでいるサーバーを少なくできるし,急激なトラフィックの増大にもある程度対応できる(図4[拡大表示])。

 ただし現状は,「空のサーバーを用意し,負荷が高い場合,オペレータがここにシステム・イメージをロードすることで新しいサーバーを作って負荷分散を図っている」(富士通研究所Web&IPシステム研究センターユーティリティコンピューティング研究部の安達基光部長)。各社ともここからさらに一歩進むために「自動的に空いているリソースを見つけ出し,そこで処理を実行させるという全自動システムの開発に取り組んでいる」(サン・マイクロシステムズSビジネス事業本部専任部長の阿部恵史氏)という。

 こういった技術の導入が進んでいくと,データセンターと企業のシステムが融合し始める。企業の中にあるシステムで負荷の高い処理が発生したとき,ネットワークを介してデータセンターの空きリソースを一時的に借りる。そして最終的には「不特定多数の組織間でのリソースの貸し借りがやってくる」(NECシステムソフトウェア事業本部グリッド推進センター長の石倉直人氏)。

(中道 理)