5月1日:Microsoftが「コンテナ」に移行中と知る

 個別取材と平行して,展示会や開発者会議といったイベントの取材も続けていたのだが,不思議なことに,この時期に開催されたイベントは,全て何かしら「クラウド・コンピューティング」に関連していた。

 まずは4月最終週にラスベガスで同時に開催された「Microsoft Management Summit」と「Interop」である。Microsoft Management Summitが筆者にとって重要だったのは,Microsoftが運用する「クラウド」の一端が,明らかになったことだった。

 実は,クラウド・コンピューティングの取材で難しいのは,GoogleやAmazonが運用するデータセンターの実態を,彼らがなかなか明らかにしてくれないことだ。一方のMicrosoftは鷹揚で,Microsoft Management Summitの基調講演でも,「ラックのコストが過大になってきたので,サーバーを『コンテナ』に格納することを考えている。すでに(同社が世界最大規模という)米国シカゴのデータセンターで,コンテナを採用した」と明らかにしてくれた(関連記事:Microsoftが自社の「クラウド」を説明,ラックから「コンテナ」に移行)。

 「ラックからコンテナへの移行」と言われても,そのインパクトを計りかねるのが実情ではないだろうか。実は筆者もそうだった。コンテナと言えば,Sun Microsystemsが2006年に発表した「Black Box」が「移動型」のコンテナ・サーバーとして知られているが,Microsoftはシカゴのデータセンターで,コンテナを「据え置き」で使っているのだという。

 Microsoftは,なぜこのような「奇手」に打って出たのか。筆者はその真意を理解しかねていた。

5月4日:「Googleを支える技術」を読む

 その疑問は,意外なところで解決する。筆者はちょうどこの頃,「Googleを支える技術」(西田圭介氏)を読んだのだ。同書は筆者が米国に向かう直前の3月28日に出版された本で,残念ながら未入手だった。そこで,「Interop」取材のために渡米したITproの副編集長にお願いして,買ってきてもらった。

 「Googleを支える技術」は,クラウド・コンピューティングの技術動向を追う上で,必読の書籍である。Googleの分散処理技術や省電力処理技術の凄さが,同社が発表した論文を基に,平易な言葉で説明されている。筆者は同書を読んで,Googleのデータセンターの中では,筆者の想像もしなかったようなことが起きているということを,遅まきながら理解した。

 Microsoftがコンテナという奇手を選択したのも,Googleという「会社そのものが奇手」である存在に追いつくためだろう。筆者はそう考えるようになったのだ。

 筆者がこの頃に執筆した記事「【解説】Yahoo!買収を断念したMicrosoftは,Googleのクラウド・コンピューティングに追いつけるのか?」には,筆者の当時の考えが,色濃く反映されている。

 そしてこの頃筆者は,GoogleやAmazon,Microsoftが運用するデータセンターの「内側」を強く知りたいと思うようになっていた。

5月29日:コンテナの中に入る

写真8●Rackable Systemsの本社で「出荷を待つ」コンテナ・サーバー
写真8●Rackable Systemsの本社で「出荷を待つ」コンテナ・サーバー
[画像のクリックで拡大表示]
写真9●コンテナの中にギッシリ搭載されたサーバー群
写真9●コンテナの中にギッシリ搭載されたサーバー群
[画像のクリックで拡大表示]

 筆者が「コンテナ・サーバー」に対して抱いていた「なぜ?」という疑問は,実際にコンテナの中に入ることで氷解した。5月29日に取材をしたサーバー・メーカーの米Rackable Systems写真8)が,据え置き型のコンテナ・サーバーを製造していたのだ。そこで筆者は,想像を絶する「サーバー密度」と「省電力」を目にすることになった。

 Rackable Systemsの本社で筆者が感じた衝撃は,そのまま前述の特集「さらば,ビル・ゲイツ 第4回:コンピュータが変わる」として掲載している。コンテナには1400台のPCサーバーが搭載可能であり,コンテナ1台で2800個のクアッド・コア・プロセッサ(コア数で言うと1万1200個),ストレージは7ペタ・バイトが収納できる(写真9)。Microsoftはシカゴのデータセンターに200台以上のコンテナを据え置いたそうだが,わずか1カ所のデータセンターで30万台近いサーバーを展開したことになる。

 しかもコンテナには,いわゆる「エアコン」が不要である。サーバーやディスクの冷却は,すべて「水冷」だからだ。コンテナには,ホースを接続して摂氏18度程度の「常温の水」を供給するだけでよい。エアコン設備の無い建物にコンテナを据え置けば,それだけで「超高密度データセンター」が実現するのだ。

 コンテナ200台が実現する「PCサーバー30万台」という規模は,想像を絶するものだ。調査会社のノークリサーチによれば,2007年度に日本国内で出荷されたPCサーバーの台数が「55万330台」である。コンテナ200台で,日本のPCサーバー総需要の半分が満たせる計算だ。しかもRackableのコンテナ・サーバーは,6月に発表された「新バージョン」で密度が2倍になっている。1台のコンテナに2800台のサーバーが搭載できるようになった。コンテナ200台あれば,日本の1年分の需要が満たせるのだ。

5月20日:クラウドの「理論的主柱」に会う

写真10●「Big Switch」の著者である評論家のNicholas Carr氏
写真10●「Big Switch」の著者である評論家のNicholas Carr氏
[画像のクリックで拡大表示]

 時系列は前後するか,5月20日から米国ヒューストンで開催された米Citrix Systemsのイベント「Citrix Synergy」も,クラウド・コンピューティングを取材する上で,非常に意義深い場となった。なぜなら同イベントで,クラウド・コンピューティングの「理論的主柱」とも言える,評論家のNicholas Carr氏を取材する機会に恵まれたからだ(写真10)。

 Nicholas Carr氏は2007年末に「Big Switch」という書物を著し,「19世紀末,工場主は自前で発電機を運用していた。しかし『電力会社』が現れると,誰もがネットワーク経由で電力を使うようになった。同じことがITでも起こる。コンピュータ利用は今後,ユーティリティ・モデル,クラウド・モデルに移行する」という主張を行っている人物だ(関連記事:【Citrix Synergy】「自前でサーバーを運用する時代は終わる」--「Does IT Matter?」の著者が指摘 )。

 米国のIT業界で今,「Big Switch」やNicholas Carr氏のブログ「Rough Type」を読んでいない人はいないのではないだろうか。筆者がそう感じるほど,Carr氏の主張は今や,米国IT業界の「常識」になりつつある。

 筆者が米国で取材をしていた4月から6月にかけて,クラウド・コンピューティング関連の発表が相次いだ背景には,Nicholas Carr氏の存在があったのだ。筆者はこの時期に,Nicholas Carr氏へインタビューも行っている。その内容は,前述の特集「さらば,ビル・ゲイツ 第3回:ソフトが変わる」の末尾に掲載しているので,是非ともご覧頂きたい。