編集部の方から「Watcherが展望するこの1年」というテーマについて執筆依頼が届きました。しかしサーバ管理者日記という狭いカテゴリーの範疇で大層なテーマを思いつくことが出来なかったため、ここではベンチャー企業に勤める一サーバ管理者の立場として現在個人的に注目している新技術とその効果について意見を述べさせていただくことにしたいと思います。よろしくお付き合いください。

Keyword: IAサーバでの広大なメモリ空間の利用、ストレージデータ転送速度の高速化、省スペース化と省電力化

1. IAサーバでの広大なメモリ空間の利用

UNIXサーバでは既に10年以上前から64ビットCPUが使われていましたが、いよいよIAサーバでもCPU64ビット化の動きが本格化してきました。

CPUが64ビット化すると何が嬉しいのか。もちろん演算速度が向上するというのも嬉しいのですが、すでにCPUは一部の用途を除き十分高速なのでそれだけだとそんなに嬉しくないです。CPUが64ビット化することで一番嬉しいのは搭載メモリの上限が大幅に増えることにあります。ご存知の通り、32ビットCPUだと物理メモリ空間の制限から最大4GBのメモリ空間までしかリニアに扱えないというものがありました。それが64ビットCPUになると最大16EB(エクサバイト)、すなわち180億GB、までのメモリが扱えるようになります。

1台のサーバ上で扱えるメモリ量が増えると、DBサーバであれば全てのデータをメモリ上に載せることで処理速度を飛躍的に向上させることができるようになります(インメモリーデータベースと呼ばれているあれです)し、WEBサーバやアプリケーションサーバであればより多くのプロセスを同時に走らせることが可能になります。そして本命はやはり仮想化でしょう。大量のメモリが使えるようになれば1台のサーバに多くのプロセスどころか複数のOSを同時に走らせることが可能となります。

(どうでもいい余談。昔富士通の8ビットパソコンでは、同じアドレス空間に俗称裏RAMと呼ばれたメモリ空間を用意し、YAMAUCHIコマンドと呼ばれる秘密の隠しコマンドで両メモリ空間を切り替えて使ったりしてました。懐かしい思い出です。この裏RAMという考え方は富士通の8ビットパソコン以外にも結構いろいろなメーカーのパソコンで採用されていたようですね。)

2. ストレージデータ転送速度の高速化

情報化社会が進めば進むほど扱うデータ量が増え、結果としてシステム全体におけるディスクI/Oが目に見えてボトルネックになってきます。特に近年はCPU、メモリ、ネットワークの進化に比べてディスクI/Oの進化が遅く、ますますディスクI/Oのボトルネックが目に付くようになってきました。

そんな中、ストレージの世界でパラレルからシリアルへの切り替わりがすごい勢いで進んでいます。特にサーバの世界でよく使われるようになったSAS(Serial Attached SCSI)はSCSIと比べてディスクI/O負荷解消に有効な仕組みが備わっています。具体的には、

・パラレルからシリアルへ
→技術的な理由でパラレルの世界ではこれ以上データ転送速度を向上させることが非現実なんだそうです。しかしシリアルの世界ではまだまだ進化が可能なようです。ちなみにU320 SCSIのデータ転送速度が320MB/秒なのに対してSASのデータ転送速度は300MB/秒と若干見劣りします。しかしこれは後述するように実は大した問題ではありません。
・Point to Point接続
→SCSIの世界は1本のラインに最大16台の機器を取り付けることができるのに対して、SASの世界では1本のラインに1台です。これはSCSIの場合は1つのバスを複数の機器で共有する形を取るので全体で最大320MB/秒のデータ転送速度なのに対して、SASの場合は1台毎に300MB/秒のデータ転送速度になります。
・複数の物理リンク可能
→WIDEポートで300MB/秒の速度を持つSAS物理リンクを4本まとめれば(4x)、最大1.2GB/秒の速度が可能となります。

これらの特徴によりストレージデータ転送速度が今後どんどん高速化していく目処がついたことで、今後ますますディスクI/Oのボトルネックが解消されていきそうです。

3. 省スペース化と省電力化

サーバの世界では今後HDD(ハードディスクドライブ)の主流が3.5インチから2.5インチに移ろうとしています。2.5インチハードディスクというとどうしてもノートPC用ハードディスクを思い浮かべてしまいデータ転送速度や耐久性の面で不安感を持ちますが、当然設計や品質はサーバ向けなので、ノートPC用のそれとは全然異なります。

ハードディスクをあえて2.5インチにするメリットにはまず当然のことながら省スペース化というものがあります。省スペース化することで、これまで3.5インチハードディスクであれば1Uサーバに3台しか搭載できなかったハードディスクが、2.5インチになると6台搭載できるようになります。これは単に搭載できる本数が増えたという意味に加え、ストレージ領域をストライピングして使用する場合、単純に考えてディスクI/O負荷が半分になるということを意味します。

さらに2.5インチにすると消費電力が3.5インチと比べて半分近くになるというのもあるようです。

データセンターにおいて集積度が上がると共に消費電力も減る一石二鳥の進化なようです。

まとめ

サーバ管理者としては、すでにCPUとネットワーク速度については十分満足のいく水準だと思っていましたが、一方で最大メモリ利用可能量とディスクI/O負荷には常に悩まされてきました。それがCPUの64ビット化とストレージデータ転送速度の高速化で一旦解消されるように思います。またサーバの省スペース化と省電力化によってデータセンターでの集積度向上と消費電力削減も実現できそうです。さらにはそれらのハードウェアリソースを仮想化技術を利用しながら徹底的に使い尽くすことによって、ハードウェアリソース自体の削減を実現できそうです。

TOC削減が進むと共に、サーバ管理者の好奇心をくすぐる要素が満載で個人的にはとても楽しみです。