Hadoopはバッチ処理という枠を越え、汎用の分散データ処理プラットフォームへと進化し始めている(関連記事:【記者の眼】進化するHadoop、戸惑うユーザー)。さらに、次世代Hadoopの有力なビッグデータ分析基盤として期待を集めているフレームワーク「Spark」。これは、Hadoopにおける処理方式の一つである「MapReduce」を用いた場合と比べて最大で100倍以上、分析処理を高速化できるという(関連記事:次世代Hadoop最有力候補の「Spark」、動き始めたエコシステム)。

 Hadoopに関連するものだけを見ても、技術・製品が多種多様で、その進化は目覚しく、追従するのも大変な作業になる。2本の記事を読んで、改めてこう感じた。「記者の眼」の記事を引用すると、「技術の急速な進歩は、最近のオープンソースソフトウエア(OSS)における最大の魅力である。最先端のOSSを利用するユーザーは、その進歩に追従する覚悟も問われていると言えそうだ」。

 その通りだろう。ユーザー企業のシステム部門は、Hadoop関連に代表されるようなITインフラ関連の新技術・製品の動向をキャッチアップできるような組織体制を整えるべきである。技術に強い人材育成策にも力を入れる。Hadoop周辺の技術がいかに進化しようとも、適切に使いこなせるようにする。

 こうした意見に対して、「それは正論で、現実的ではない」とする向きもあろう。ITインフラ関連のスキル習得をあきらめ、割り切って外部のITベンダーに任せてしまう。システム部門は、システム企画やアプリケーション開発、活用支援に力を注ぐ。最近であれば、データサイエンティストやグロースハッカー(関連記事:グロースハッカーって何者なのか?)に変身し、本業に貢献するという道もある。

 システム部門がどちらの道を選ぶか。二者択一ではない。だが、力点をどこに置くかを真剣に議論し、道筋をつける。これは中堅・若手システム部員の将来にかかわる大切なテーマであり、CIOやシステム部長の極めて重要な仕事である。皆さんが所属するシステム部門では、こうした議論が進んでいるのだろうか。その状況が気になる。