データセンターが建設ラッシュである。「~増床」「~開設」という報道が相次いでいる。昨年暮れからITproで取り上げたものを列挙してみると,こんな感じになる。

NTTコムウェア、都心のデータセンターを7000平方メートル増床
シーイーシーが新データセンターを開設、総床面積は1万平方メートル
富士通が館林のデータセンター新棟を来年10月に開設
「アジア・太平洋地域のデータセンターを集合体にしてサービス提供する」,英BT幹部が会見
富士通がタイにデータセンターを開設、東南アジアで3拠点目
日立が横浜に環境配慮型データセンター、直流給電や水冷にも対応
ビック東海が4月に新データ・センター,耐震設備のミニチュアを展示
日本IBMが幕張データセンターを初公開,アウトソーシングの新拠点
ケイ・オプティコムが「心斎橋データセンター」を建設
富士通、東京に2番目のアウトソーシング・センターを開設
NTTコムがベトナムでデータセンター事業、日系企業などがターゲット

 サーバー・メーカーにとっても,データセンターが主要顧客の一角を占めるようになっている。米調査会社Gartnerによる2008年5月の発表によると,2008年第1四半期における全世界のサーバー出荷台数は230万台で,前年同期比7.6%増加した(関連記事:世界のサーバー市場は08年Q1も成長を維持,Gartner調査)。そのけん引役となっているのが,大型のデータセンターの増築なのだという。

 もちろん,こんなふうにデータセンターが増えるのは,需要が期待できるからである。理由の一つは,一般のオフィスビルに置くにはサーバーが大きくなりすぎて,物理的な限界を超えてしまったことがある。物理的な限界とは,電力と重量である。

 電力の限界について,[サーバー運用編]1ラック60A以上使用してはいけないでは,次のように説明されている。

 「現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧 100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラックに30台搭載すれば,100V/90Aの電源が必要になるわけである」。

 これは極端な例だが,もし上記のようなラックを稼働させると,ラック内に冷却できないほどの熱がたまり,特別な冷却システムでも導入しない限り,空調が追いつかなくなるという。引用した記事では,このようなサーバーを運用するのはデータセンターでもきついと言っているが,まして一般のオフィスビルに置いて面倒を見続けるのはさらに大変だ。CPUの発熱はCPUの消費電力が上がるほど増える。CPUの消費電力は,動作周波数が上がるほど増える。動作周波数を1.2倍にすると,性能は1.13倍にしかならず,消費電力は1.73倍に跳ね上がる(関連記事:「2006年後半には75%のCPUをデュアルコアに移行する」--インテル基調講演)。

 重量の限界は,見逃されやすいが重要な問題だ。一般のオフィスビルで必要とされている耐荷重は,300キログラム/平方メートルである。それに対して,例えばNECのブレードサーバー「Express5800/140Ba-10」のエンクロージャに,CPUブレードやファン・ユニットを搭載すると,最大209キログラムになる。エンクロージャ1台ならともかく,それを複数積み重ねることは,ビルの床が許さない。サーバー統合やシステム共同利用が増えるほど,一般のオフィスビルにサーバーを置くという選択肢は選びにくくなってくるのである。

 もっと,シンプルな理由として,情報システム部門がシステム運用の負荷削減を重点テーマと位置付けるようになってきたという事情もある。2007年に1000億円規模のIT投資を実施する大和証券グループでは,運用費の割合を2003年度の43%から2007年度は28%にまで引き下げた。その理由として,一つのデータセンターにグループ全体のシステムを集め,共同利用を進めていることを挙げている(関連記事:「5年でIT支出は倍増でも、維持費は変えない」大和証券グループ本社CIO)。