ITインフラ(システム基盤)に今、大きな変革の波が訪れている。ダイナミックさを取り込むことで、「限界」を打ち破りつつある。動的な基盤によって創出されるシステムの青写真を示す。

(島津 忠承)

 クラウドサービスの発展やビッグデータ分析、IoT(Internet of Things)の浸透などを背景に、システム基盤に大きな変革の波が訪れている。個別の技術を見ると多種多様だが、変化の方向性は共通している。

 共通する方向性とは、動的な要素の取り込みである。例えばアプリケーションの実行環境であるサーバーを常時稼働にはせず、必要な時に動的に生成する仕組みにする。こうした最近のシステム基盤に顕著な特徴を、本特集では「ダイナミック基盤」と呼ぶ。

 ダイナミック基盤を象徴する動きは大きく三つ挙げられる。(1)サーバー、(2)ユーザーインタフェース(UI)、(3)コンピュータアーキテクチャーである。

必要な時に生成し、すぐ消し去る

 まず、(1)のサーバーから見てみよう。何らかのアプリケーションを動かすとき、これまでであればアプリケーションサーバーを常時稼働させておくことが“常識”だった。突発的に大量のリクエストが発生する用途では動的にスケールアウトさせる設定を施すことはあるが、少なくとも1台は常時稼働のサーバーが存在する。

 ところが最近になって、この“常識”にとらわれない基盤を構築・運用するユーザー企業が増えつつある。「必要な時に必要な性能のサーバーをダイナミックに生成すればよい」という発想である。常時稼働するサーバーが存在しない設計のため、「サーバーレスアーキテクチャー」と呼ばれる。

 サーバーレスアーキテクチャーの基盤は、サーバーの処理が必要な何らかの「イベント」をきっかけに動き出す。例えば、ストレージへのデータの書き込みというイベントが発生したとしよう。すると、処理に必要なサーバー群をダイナミックに生成する(図1)。一連の処理が完了したら、今度は生成したサーバー群を瞬時に消し去る。

図1●必要な時に必要な性能のサーバーをダイナミックに生成
図1●必要な時に必要な性能のサーバーをダイナミックに生成
サーバーは常時稼働させておくものという“常識” にとらわれない運用が定着する
[画像のクリックで拡大表示]

サーバーの監視が不要になる

 このような仕組みは、「Docker」などのコンテナー型仮想化で実現できる。コンテナー型仮想化技術で生成するサーバーは、軽量で起動が速い。必要時に瞬時に起動するので、使用後に消し去っても惜しくないわけだ。

 サーバーレスアーキテクチャーの基盤は、パブリッククラウドを活用することでさらに手軽に構築・運用できる。具体的なサービスとしては、例えば米Amazon Web Servicesの「AWS Lambda」や、米Microsoftの「Azure Functions」などがある。シンガポールMicrosoft OperationsのArnaud Gstach氏(Senior Partner Sales Executive, Asia)は「IaaSで仮想マシンを運用するよりも、圧倒的に低コストで運用できる」と話す。

 サーバーレスアーキテクチャーを採用するシステム基盤は、サーバーを常時稼働させておくよりも運用負荷を大幅に下げられる。サーバーが不具合で停止していないかどうかを常時監視する必要がなくなるからだ。また、必要な時に必要な性能を確保する仕組みであるため、スケールに頭を悩ませることもない。

 もちろん、常に一定量の処理が求められるアプリケーションの場合は、サーバーを常時稼働させておくべきだろう。それでも、「必要な時にダイナミックに生成すればよい」という発想が今後存在感を増し、企業のIT環境から常時稼働するサーバーの多くがなくなることに疑いの余地はない。

BotとAIが動的なインタフェースに

 サーバーだけでなく、(2)のUIもダイナミックな要素が加わって変貌する。具体的には、ユーザーが音声や会話文など自然言語で発したメッセージを、コンピュータが瞬時に識別して解釈し、適切な処理を選んで実行する。

 こうしたインタフェースを実現する鍵となる技術は主に二つ挙げられる。一つは、人間の作業を代行するプログラムである「Bot」。もう一つは人工知能(AI)、特に機械学習の手法の一つである「ディープラーニング(深層学習)」だ。

 前者のBotは、チャットツールへの常駐が定着しつつある。チャットのメッセージに含まれる特定の文字列に反応して、あらかじめ決められた処理を実行したり、メッセージを通知したりできる。人間と“対話”しながらシステムを操作しているわけだ。

 一方、後者のディープラーニングは実用的なコストでシステムを構築できるようになった近年、音声認識や自然言語処理の精度を飛躍的に高める成果を上げている。象徴的な例は2016年11月に精度を大幅に向上させた米Googleの翻訳サービス「Google翻訳」である。

 Google翻訳の最新版はディープラーニングを採用し、同じ文の他の単語とのつながりを基に文脈を学習できるようになった。「一つの文全体を見て、それぞれの単語をどのように訳したらよいのかを決める」(グーグル シニアエンジニアリングマネージャー 賀沢秀人氏)。この仕組みによって従来よりも大幅に正確度の高い訳語を選べるようになった。

 このように音声認識や自然言語処理の精度が向上したAIを組み込めば、Botが大幅に“賢く”なる。つまり、チャットや音声を瞬時に認識し、最適な処理を選択して実行するインタフェースを作れる(図2)。

図2●チャットのテキストや音声をBotが瞬時に認識
図2●チャットのテキストや音声をBotが瞬時に認識
人工知能(ディープラーニング)との組み合わせによって、自然言語でシステムを柔軟に操作することが当たり前になる
[画像のクリックで拡大表示]

 日常会話の表現でシステムを操作できるので、今まで以上に幅広いユーザーがコンピュータで高度な処理をできるようになる。このメリットを考慮すると、マウスなどで画面のリンクをクリックする“静的な”GUIを置き換えていく可能性は十分にある。

“補助記憶無し”コンピュータが登場

 これまで見てきたように、ダイナミック基盤が実現すると運用コストの低減や、ユーザーインタフェースの柔軟性の向上が期待できる。ただし、これらの特徴が真価を発揮するには欠かせない要件がある。ダイナミックな処理を瞬時にできるだけの応答性能だ。そこでハードウエアに大幅な性能向上が求められる。

 ところが、「集積回路上のトランジスタ数が18カ月で2倍になる」という「ムーアの法則」が限界を迎えつつある。これまでコンピュータの飛躍的な性能向上を実現してきたプロセッサーの高集積化が難しくなっている。

 この限界を突破するため、ハードウエアベンダー各社がさまざまなアプローチを試みている。中でも(3)のコンピュータアーキテクチャーそのものを見直す取り組みが目立つ。

 その一例が、米Hewlett Packard Enterprise(以下、HPE)が開発中の「The Machine」である。The Machineは、「メモリードリブンコンピューティング」と呼ぶ新型のアーキテクチャーを提唱している。

 現状のコンピュータアーキテクチャーはプロセッサー、主記憶装置のメモリー(DRAM)、補助記憶装置のストレージで構成する。これに対し、HPEの新型のアーキテクチャーは主記憶装置に「ストレージクラスメモリー」を搭載し、メモリーとストレージの役割を兼ねる(図3)。補助記憶装置は通常の処理では使わない。アーカイブやバックアップにだけ利用する。

図3●大量データを瞬時に処理する新型アーキテクチャーが登場
図3●大量データを瞬時に処理する新型アーキテクチャーが登場
米Hewlett Packard Enterpriseが開発中の「The Mahine」を参考にした
[画像のクリックで拡大表示]

 ストレージクラスメモリーとは、SSD(Solid State Drive)よりも高速で、DRAMよりも大容量化しやすい次世代の不揮発性メモリーのこと(詳細は56ページを参照)。これによって現状のコンピュータよりも大容量のメモリープールを実現する。これを光回線でアプリケーションごとに最適な目的特化型のコアと接続し、高速処理する。日本ヒューレット・パッカードの三宅祐典氏(プリセールス統括本部 サーバー技術本部 サーバー技術二部 The Machineエバンジェリスト)は、「現状のコンピュータよりも構成や、データ処理のプロセスがシンプルになることで、高速化や消費電力の削減につながる」と話す。

 HPEは新型アーキテクチャーを採用したThe Machineのプロトタイプを2016年10月に開発し、動作実験に成功したことを明らかにした(写真1)。プロトタイプはストレージクラスメモリーが実用水準に達していないためDRAMで代用しているなど、製品化までには解決しなければならない技術面のハードルが残る。とはいえ、新型アーキテクチャーのコンピュータが登場するのは、決して遠い未来ではない。

写真1●新型アーキテクチャーのコンピュータのプロトタイプ
写真1●新型アーキテクチャーのコンピュータのプロトタイプ
米Hewlett Packard Enterpriseが開発中の「The Machine」の例
[画像のクリックで拡大表示]

 

 ここまでに示したシステムの青写真は、実は「ITインフラテクノロジーAWARD 2017」の受賞技術を基にしている。ITインフラテクノロジーAWARDは、企業が今後注目すべき技術・製品・サービスを有識者の審査を通じて日経BP社が選出するもの。毎年1回実施しており、今回で3回目となる。

 2017年に企業が最も注目すべき「グランプリ」には、サーバー/仮想マシンを利用せずにシステムを構築する「サーバーレスアーキテクチャー」を選出した。また、グランプリに次ぐ2位にBotで対話型のインタフェースを実現する「カンバセーショナルUI」を、3位には次世代の不揮発性メモリー「ストレージクラスメモリー」をそれぞれ選んだ。さらに、5人の審査員が個人の立場で注目する技術も一つずつ挙げてもらい、「審査員特別賞」とした(審査員特別賞の詳細と審査の概要は57ページの別掲記事「達人たちの個性が光る、『もう一つ』推したい技術」を参照)。

 審査員は、野村総合研究所の石田裕三氏(上級アプリケーションエンジニア)、ウルシステムズの漆原 茂氏(代表取締役社長)、国立情報学研究所の佐藤一郎氏(アーキテクチャ科学研究系 教授)、ITジャーナリストの新野淳一氏(Publickey 編集長/Blogger in Chief)、楽天の森 正弥氏(執行役員 楽天技術研究所 代表)の各氏が務めた(写真2)。

写真2●審査会の様子
写真2●審査会の様子
左から石田裕三氏、漆原 茂氏、佐藤一郎氏、森 正弥氏、新野淳一氏(撮影:中野和志)

有力技術が百花繚乱で激論に

 グランプリ、2位、3位、特別賞に選出された技術以外にも、さまざまな有力候補が審査対象となった(表1)。

表1●選出から漏れたものの選考会で活発に議論が交わされた主な技術
表1●選出から漏れたものの選考会で活発に議論が交わされた主な技術
[画像のクリックで拡大表示]

 特に議論が盛り上がった技術の一つは、「ディープラーニング用フレームワーク」。人工知能(AI)の分野で注目を集めるディープラーニングのプラットフォーム開発に役立つフレームワークである。グランプリの有力候補だったが、「ユーザー企業は自前でプラットフォームを開発するよりも、クラウドベンダーが提供するAPIサービスを利用する傾向が強まるのではないか」という意見で審査員の評価がまとまり、選出を見送った。

 以下では、グランプリ、2位、3位の技術の特徴を、各審査員や当該技術に詳しいITエンジニアらのコメントを交えて紹介する。

サーバー無しでシステム構築 運用コストが1桁安くなる

 サーバーレスアーキテクチャーはその名の通り、サーバー/仮想マシンを利用せずにシステムを構築するアーキテクチャーのことだ。特に、ストレージへのデータ書き込みなどのイベントが発生した際にコード(アプリケーション)を実行する環境を提供する「イベント駆動型コード実行サービス」が中核の役割を担う。具体的なサービスには、米Amazon Web ServicesのAWS Lambdaや米MicrosoftのAzure Functions、米IBMの「OpenWhisk」などがある。

 ITジャーナリストの新野氏は、「クラウドの特性を生かしたアーキテクチャーだ」と高く評価する。事実、パブリッククラウドを利用する企業の間では、イベント駆動型コード実行サービスを活用したシステム構築が進んでいる。他の審査員も賛同し、グランプリに輝いた。

APサーバーの設定が存在しない

 サーバーレスアーキテクチャーの主な特徴は二つ挙げられる。(1)サーバーリソースを全く意識せずに済むことと、(2)運用コストが1桁安くなることだ(図4)。

図4●サーバーレスアーキテクチャーの主な特徴
図4●サーバーレスアーキテクチャーの主な特徴
[画像のクリックで拡大表示]

 (1)の特徴は、特に膨大な処理が必要なときに効果を発揮する。例えば多数のIoTデバイスから同時に送られてきたデータを加工するといったケースだ。IaaSでシステムを構築する場合、アプリケーション(AP)サーバーを稼働させるために必要な性能を満たす仮想マシンの選択や、最大何台スケールさせるかといった設計に悩むことになる。もちろん、サーバーの運用負荷もかかる。

 PaaSであれば、サーバーの運用をクラウドベンダーに任せられる。ただし、サーバーのリソースは意識せざるを得ないことが多い。一般にスケールアウトさせるほど、利用コストが増える傾向にあるからだ。

 これに対し、イベント駆動型コード実行サービスはイベントが発生した時に、コンテナーをベースにした実行環境が処理量に応じて自動的かつ瞬時に起動する。サービスメニューにスケールアウト台数といったサーバーの項目が存在せず、スケールによるコストもかからない。「ITエンジニアはビジネスロジックの実現に集中できる」とシンガポールMicrosoft OperationsのGstach氏は説明する。

 (2)の運用コストが1桁安くなるという特徴は、課金体系によるもの。イベント駆動型コード実行サービスはコードの実行回数と、100ミリ秒~1秒といった単位のコード実行に掛かった時間を基に課金する。コード実行の要求回数が一時的に大量になっても、個々の処理時間が短ければ、実質的なサーバー稼働時間は短いので安く済む。

 一般的なIaaSやPaaSは、コードを実行したかどうかにかかわらず利用料金がかかる。それだけコストがかさむ。

マイクロサービスとの相性が抜群

 ただし、運用コストが1桁安く済むという恩恵を受けるにはコツがある。「コードをシンプルに、かつ非同期型で作る」(シンガポールMicrosoft OperationsのGstach氏)だ。

 というのも、多数の機能が結合したコードを実行すると、一部の機能しか使わない場合も順に処理するために余計な時間がかかりやすいからだ。また、データの同期を取るとDBの処理待ち時間が発生し、これもコスト増になる。

 このようなサービスの性質を踏まえ、アマゾン ウェブ サービス ジャパンの瀧澤与一氏(技術本部 エンタープライズソリューション部 部長/シニアソリューションアーキテクト)は、「小さなコンポーネントを組み合わせてサービスを実現するマイクロサービスと相性が良い」と指摘する。サーバーレスアーキテクチャーの利用が広まると、アプリケーションの実装形態に大きな影響を及ぼす可能性がある。

“対話”でシステムを操作 AIの普及で精度が向上

 グランプリに次ぐ2位には「カンバセーショナルUI」が選ばれた。音声やチャットといった“対話”を通じてシステムを操作するインタフェースと、実現手段であるBotなどの技術群のことだ。個人向けであれば、米Apple「iPhone」の音声アシスタント「Siri」が分かりやすい。

 カンバセーショナルUIを推したウルシステムズの漆原氏は、「インフラとしてはレイヤーが高めだが、人間とコンピュータのインタフェースを変える“次世代のインフラ”として大きな可能性を秘める」と指摘する。実際、企業でもコールセンターやIT現場などで活用が進んでいる。

 一例は、クラウドを活用したインテグレーションを手掛けるサーバーワークスである。同社は米GitHubのBotフレームワーク「Hubot」を利用してチャットBot「ブリ」を作成。さまざまな業務に活用している。

写真3●カンバセーショナルUIのIT現場での活用例
写真3●カンバセーショナルUIのIT現場での活用例
クラウドを活用したシステム構築を手掛けるサーバーワーク スの取り組み
[画像のクリックで拡大表示]

 ブリはチャットツール「Slack」に常駐し、特定の文字列に反応して決められた処理を実行する。「工数管理」機能を例に取ると、終業時刻に「@buri 集計してや~」などとチャットでメッセージを送ると、実施したタスクの一覧と所要時間を「今日の分の集計やぞ」と返答する(写真3)。また、外部の文字認識APIサービスを利用することで、簡単な雑談にも応じられるようにしてあるという。

 ブリを開発したサーバーワークスの中村悟大氏(クラウドインテグレーション部 IoT担当)はカンバセーショナルUIの効果について、「システムに“人間味”を出しやすくなる」と説明する。ITに詳しくない利用部門もシステムに慣れやすいという。

AI対応Bot作成サービスが続々

 また、楽天の森氏は「カンバセーショナルUIはAIのサポートによって急速に進化しており、今後さらに普及する」と予想する。森氏の予想を裏付けるように、パブリッククラウドのベンダー各社が自社のAIエンジンを提供するAPIと、Botの作成を支援するサービスに力を入れている。

 例えば、Amazon Web ServicesはAIエンジンを利用したチャットBotを開発できるサービス「Amazon Lex」の提供を2016年11月に開始した(写真4)。インフラの運用を意識せずにチャットBotを活用できる。

写真4●Amazon Web Servicesの「Amazon Lex」のBot作成画面
写真4●Amazon Web Servicesの「Amazon Lex」のBot作成画面
音声認識・自然言語理解アシスタント「Amazon Alexa」の技術を利用するチャットBotを構築できるクラウドサービス
[画像のクリックで拡大表示]

DRAMに近い速さで、消えない企業システムの構成が一変

 3位の「ストレージクラスメモリー」は、SSDよりも高速で、DRAMよりも大容量化しやすい次世代の不揮発性メモリーのこと。代表例は米Intelと米Micron Technologyが共同開発する「3D XPoint」である。ほかにも富士通セミコンダクターと米Nanteroなどが共同開発する「NRAM」、韓国サムスンの「Z-NAND」など、多様な方式が登場しており、各社が製品化に向けてしのぎを削っている。

I/Oのボトルネックを解消

 ストレージクラスメモリーを推薦した野村総合研究所の石田氏は、「現状の企業情報システムは、I/O性能がシステム全体のボトルネックになりがちだ」と指摘する。例えばストレージのSSDやハードディスクのアクセス速度が遅いために、プロセッサーが搭載する多数のコアがI/O待ちで使い切れない状態になっている。

 しかもこの傾向は、スケールアウト型のシステム構成を採用するユーザー企業が増え、拍車がかかっているという。スケールアウト構成の場合、サーバー間を結ぶイーサネットの遅延と帯域の制約でI/O性能がさらに下がるケースがあるためだ。

 ストレージクラスメモリーはアクセス速度がマイクロ秒程度と、SSDと比較すると文字通り桁違いに速い(図5)。ストレージクラスメモリーが加わるとI/O性能のボトルネックが解消され、企業情報システムの構成が大きく変化する可能性を秘める。「スケールアウト構成によって過度の分散が進んだ現状から、集中への揺り戻しが起こる」と石田氏は予想する。

図5●ストレージクラスメモリーの位置付け
図5●ストレージクラスメモリーの位置付け
DRAMとSSDの中間に位置する。近い将来、アクセス時間がDRAM並みに近づくことを目指した研究が進んでいる
[画像のクリックで拡大表示]

深層学習への応用に期待

 さらにストレージクラスメモリーは、前述の米HPEの「The Machine」のような、新型のコンピュータアーキテクチャーの中核技術の一つとしても期待を集める。DRAMを代替し、メモリーとストレージを兼ねる使い方だ。

 ただし、新型のコンピュータアーキテクチャーに応用するには、技術的なハードルがまだ残る。その一例は、アクセス時間のさらなる高速化である。日本ヒューレット・パッカードの三宅氏は「各社が試作したストレージクラスメモリーは、アクセス時間がマイクロ秒の水準。DRAMから置き換えるにはまだ遅い」と指摘する。数十ナノ~数百ナノ秒でアクセスできるストレージクラスメモリーの実用化が期待される。

 一方、SSDを代替する「超高速ストレージ」としての応用は、さほど遠くない時期に広がりそうだ。例えば国立情報学研究所の佐藤氏は、「ディープラーニングのシステムを運用する目的で、広帯域で高速のメモリーを求める動きが自動車会社などから出ている」と話す。ディープラーニングでモデルの精度を高めるには、大量のデータを学習するプロセスを高速に回す必要がある。ストレージクラスメモリーの高速性を存分に生かせるアプリケーションといえる。

達人たちの個性が光る「もう一つ」推したい技術

Xeon Phi

石田 裕三 氏
石田 裕三 氏
野村総合研究所 上級アプリケーションエンジニア

サーバー機向けメニーコアプロセッサー。2016年に登場した7200シリーズは最大72コアを搭載し、Xeonプロセッサーを別途用意しなくても単独で動作する。ディープラーニングなどの機械学習の用途で注目が集まっている。2017年以降は企業向けサーバーにも搭載が進む。

AWS Lambda

新野 淳一 氏
新野 淳一 氏
Publickey 編集長/ Blogger in Chief

Amazon Web Servicesにおけるサーバーレスアーキテクチャーの中核サービス。Node.jsやJava、Pythonといった各種言語のコードを実行する環境を、実行回数及び100ミリ秒単位の時間課金で提供する。既に証券、流通など多様な企業の採用実績がある。

PEZY Computing

漆原 茂 氏
漆原 茂 氏
ウルシステムズ 代表取締役社長

独自技術によるメニーコアプロセッサーの研究開発に従事する企業。理化学研究所と共同で設置した液浸冷却スーパーコンピュータ「Shoubu(菖蒲)」が最新のスーパーコンピュータランキングの消費電力性能部門「Green500」において、3期連続で世界第1位を獲得。

ブロックチェーン

森 正弥 氏
森 正弥 氏
楽天 執行役員 楽天技術研究所 代表

仮想通貨の基盤技術。トランザクションデータをネットワーク上の参加者で安全に共有して管理する「分散台帳」を中核とする。特徴は、運用の分散によって悪意あるハッカーが攻撃しにくいことと、監査性が高いこと。金融系システムの作り方を変える可能性に期待が集まっている。

ポストムーア

佐藤 一郎 氏
佐藤 一郎 氏
国立情報学研究所 教授 アーキテクチャ科学研究系

「ムーアの法則」を実現した半導体の微細化によるプロセッサーの性能向上に限界が見えつつある中で、さらなる性能改善に貢献する一連の技術。例えばソフトウエアの改良と分散処理、主記憶装置の大容量化、GPU、FPGA、ASICなどの活用が挙げられる。

ITインフラテクノロジーAWARD 2017審査概要

 ノミネートした約50の技術・製品・サービスのうち、ユーザー企業が2017年以降に特に注目すべきものについて、有識者5氏による合議制の審査で選出した。審査員は、野村総合研究所の石田裕三氏、ウルシステムズの漆原 茂氏、国立情報学研究所の佐藤一郎氏、ITジャーナリストの新野淳一氏、楽天の森 正弥氏の各氏。選出日は2016年11月24日。技術のノミネートは5氏のほか、日経SYSTEMS、日経NETWORK、日経クラウドファーストの各編集部が担当した。