Martin Reynolds氏_1  
Gartner社
Martin Reynolds氏,
VP & Fellow

David氏:前回のSteveの話によれば、コモディティ化とコンシューマ化によって力のバランスは企業から一般消費者に移っていることになる。つまり、新しいデバイスを持った新しいユーザーが、大量にネットワークに流入し、かつてない負担をインフラにかけることになるわけだ。この状況を受けて、次に、「仮想化」と「テラ・アーキテクチャ」という組み合わせ(ペア)について考えてみたい。

5年後には2000億個のプロセサがネットワークに

現在、世界には10億台近いコンピュータと20億台以上の携帯電話がある。携帯電話の台数はこれから数年のうちに30億台以上に達すると見込まれており、その多くがコンピューティングの能力を備えたスマートフォンになることだろう。また携帯電話以外にも、ネットワークへの接続機能を備えた民生機器が次々に登場してくる。

しかしこの30億台という数字でさえ、まだまだ小さい。クルマ、住宅、財布、あるいは衣服のタグなども含めると、既に推定500億個のプロセサが社会に入り込みつつある。そして、この数字は、今後5年ほどの間に急速に伸び、2000億個以上になると見込まれている。

どのようにすれば、私たちのインフラが莫大なプロセサの負荷に耐えうるのだろうか。その鍵を握る「仮想化」と「テラ・アーキテクチャ」について、Martin Reynolds氏の見解を聞いてみよう。

ITリソースは「粒」になり、「箱」から解放へ

Martin氏:例えばブラウザに「www.gartner.com」とURLを入力すると、弊社のホームページが表示されるが、アルファベットを入力してホームページが表示されるまで、実際にはネット上の複数のタスクが複数のサーバーにまたがって一つの作業を実行する。仮想化とは、実行するタスクと、そのタスクを処理するインフラを切り離すことと表現してもよい。

仮想化技術は、現在特に、煩雑なサーバー環境を整理統合するために効果を発揮している。仮想化によって、一台のサーバーの利用率は10%から40%に向上する。すると、必要なサーバー数は4から5台だったものが1台へと集約され、物理的なインフラ、つまり管理や維持の必要なサーバーは80%削減できる。サーバー間をまたがるOSやアプリケーションは「バブル」のような規格化されたイメージとなり、今後は物理的なサーバー上の作業ではなく、このバブルを管理することになる。たとえば、現在2ウエイ・サーバーで処理している作業の応答時間がビジネス・ニーズに合わなくなってきたとしよう。私はためらうことなくビジネス・ニーズを満たす8ウエイ・サーバーへ「バブル」をロードすることで必要な結果を得る。完了したら「バブル」を元へ戻す。ITのリソースが「粒」状になり、アプリケーションは筐体という「箱」から解放され、コンピューティング・コストを削減する。これが仮想化のもたらす真の価値である。
Gartner社では「Real Time Infrastructure」というリサーチを行っているが、インフラの効率を高め、ビジネス・ニーズに従って、さらに自由に、ダイナミックにリソースを振り分けるために仮想化技術を応用する方法を示している。

将来のインフラは、想像を絶するほどに、規模が大きくなることだろう。そして、テラ・アーキテクチャに接続するデバイスの数は指数関数的に増える。先に述べたとおり、2010年には無線タグやセンサーなど、2000億個のデバイスがネットワークにつながるようになるだろう。高速料金パスや非接触の電子財布、従業員バッジなどのワイヤレスのデバイスが接続された状態になる。そして、このネットワーク上にあるデバイスから情報を取りビジネスに役立てようとするとき、二つの課題が浮かび上がる。

まず、第一に、これだけ多くのデバイスを管理およびサポートしなくてはならないことだ。人的に行えるはずもなく、デバイス自体に、自動認知、管理、構成、接続機能が必須となる。

二つめの課題は、これらのデバイスからの膨大なトランザクションに耐えうるインフラが必要となることだ。たしかに、ムーアの法則による半導体技術進歩やマルチコア・アーキテクチャによってハードウエアの価格対性能比は確実に向上し、10年前に比べれば同じ金額で5倍の性能が手にはいるようになった。ただし、労働力は人件費の上昇により、10年前の金額では8割の人的リソースしか確保できない。今後、設備投資予算が劇的に増えるとは想像できないので、IT部門は資産が増えても人手が足りないという状況に悩むことになる。

Martin Reynolds氏_2

Googleこそがテラ・アーキテクチャの先駆者

仮想化が進むことで発生するこれらの課題を解決するには、今後のインフラが、ネットワーク上に自己形成する粒状のコンポーネントで構成され、必要なタスクは実行し、かつ管理を必要としないものになる必要がある。このようなインフラができると、また大きな変化が起きる。個々のハードウエアのダウンタイムが重要ではなくなるのだ。したがって、インフラ全体のコストや消費電力を大幅に削減することも可能になる。ハードウエアがコモディティ化することで、コンピューティング・コストが時には10分の1にまで下がりつつ、極めて拡張性の高いインフラとなる。これをテラ・アーキテクチャと呼ぶ。

実は、すでにこのアーキテクチャを活用している例がある。Google社だ。

彼らは汎用のハードで膨大なスケーラブル・インフラを構築し、すぐれたアプリケーションを提供している。ここで注目すべきことは、Google社のアプリケーションはGoogle社のインフラ上でしか動かないと言うことだ。つまり、テラ・アーキテクチャの時代にはソフトウエアの開発方法自体が変化をとげる。

あなたの会社の情報インフラは、今の10倍さらには1000倍にまで負荷が増大したとして、果たしてその負荷に耐え得るだろうか。テラ・アーキテクチャに対応することこそが、こうした負荷に耐える解決方法となる。

Martin Reynolds 氏
Martin Reynolds 氏はGartner社のFellowとしてハードウエア技術の発達やIT全般に与える影響を幅広く分析するほか、各種規格団体でも活発に活動している。

本記事は2006年5月に、米国サンフランシスコにて米Gartner社が開催したシンポジウム(Gartner Symposium/ITxpo 2006) における講演内容を抜粋したものである。