P2P(peer to peer)ファイル共有ソフト「Winny」を開発した東京大学の助手が著作権法違反幇助の疑いで逮捕された(関連記事)。それ以降ネット上では,「ソフトウエアの開発者は罪に問われるべきか」という論点でさまざまな意見が飛び交っている。

 しかし,ネットワークの視点から言うなら,こうした議論に決着がついても,問題は解決しない。P2Pファイル共有ソフトで合法的に著作物がやりとりできるようになっても(もしくは現状のやりとりが合法だと判断されても),P2Pファイル共有ソフトが使われ続ける限り,そこで発生するトラフィック量を減らすことにはつながりそうもないからである。

 筆者は今年の1月,P2Pファイル共有ソフトがネットワークに与える影響に焦点を当てて「P2Pファイル共有ソフトのトラフィックについて考えた」という記事を書いた。しかし,お寄せいただいたコメントを読むと,筆者の力不足のせいで読者に十分「記者の眼」を伝えられなかったのではないかと反省している。

 そこで今回は切り口を変えて,P2P型システムとクライアント/サーバー(以下C/Sと略す)型システムの比較から,さらにこの4カ月間に考えたことも含めて,もう一度P2Pファイル共有ソフトのトラフィックについて書いていきたいと思う。

P2Pはコンピュータ・システムにメリットのある技術

 最初に,技術としてP2Pを見た場合のメリットを確認しておこう。そもそもP2Pは,C/S型のコンピュータ・システムにおける問題を解決するための手法として登場した。例えば,多くのユーザーがサーバー上でファイルを共有しようとすると,高価なサーバーにこれまた高価な大容量ストレージを用意する必要がある。それに対して,大きなコストをかけずに,ネットワークにつながったコンピュータが相互にファイルを保持し,検索できるようにすれば,前述のシステムと同じ効果が得られる。こうした考えを具体化したのがP2Pファイル共有ソフトというわけだ。

 P2P技術を使えば,ストレージに限らず,1台のサーバーでこなす処理をネットワーク上に分散するコンピューティング能力を集めて処理することも可能になる。こうすれば,インターネットにつながる多数のパソコンの力だけで,数億円(?)もするコンピュータ並みの処理をこなせる。

 C/Sシステムでは,中心となる1台のサーバーがダウンするとシステムが動かなくなるが,P2Pシステムでは1台のコンピュータがダウンしてもシステム全体がストップすることはない。耐障害性という意味でも優れた技術といえる。

 しかし,これらのメリットはコンピュータ・システムの視点から見た場合のもの。その間にあるネットワークを「空気」のように,または「無限の帯域を持ち,瞬時にデータを交換できるもの」のようにみなしている。ネットワークが受ける影響を勘案すると,P2Pは必ずしも「バラ色の技術」とはいえなくなる。

アクセスが集中するC/S,分散していくP2P

 ファイル共有を例に,ネットワークにおけるアクセスの傾向とトラフィック量に注目して,C/SシステムとP2Pシステムの比較を進めていこう。

 ユーザーすべてが参照したい大容量ファイルがあったと仮定する。このとき,C/Sシステムでは,サーバーがつながる回線にトラフィックが集まってくる。世界中のユーザーからアクセスが集中すると,回線がパンクすることもありえる。

 一方P2Pシステムではどうか。人気のある大容量ファイルを最初にアップしたユーザーのパソコンにまずアクセスは集中する。そのうち,そのファイルを共有するユーザーが増えてくれば,トラフィックは徐々に分散されていく。

 Winnyの場合を例に,もう少し詳しく見ていこう。Winnyでは,コンテンツを最初にアップしたパソコンAから初めてパソコンBがそのコンテンツをダウンロードしようとすると,必ず別のパソコンCを中継して送るしくみになっている。そのとき,中継点になったパソコンCにもそのコンテンツのコピーが置かれる。

 次にほかのユーザーがそのコンテンツへのアクセスを試みると,コンテンツはすでに3台のパソコンにあるので,元の1台のパソコンにアクセスが集中する度合いは減る(ただし,1度ファイルをやりとりするだけで,そのファイルはネットワークを2度も通ることになり,ネットワークに与える負荷も単純に2倍になる。このあたりの話は前回の記事の読者コメントでお寄せいただいた通りである)。

C/Sのトラフィックを効率的に処理する技術

 こうして比較すると,どちらが「ネットワークに優しい」のか,なかなか比べられないが,アクセスが自動的に分散されていく分P2Pのほうがいいと感じるかもしれない。しかしそれは違う。C/S型のほうが,急増するトラフィックに対処しやすいのである。

 インターネットのアプリケーションはこれまで,WebアクセスのようなC/S型が中心だった。その影響でプロバイダ間をむすぶIX(internet exchange)などのバックボーン部分やサーバー自身にトラフィックが集中するという傾向があり,トラフィックが増えてくるとバックボーンを増強したり,数多くのアクセスを処理するときに使うリバース・プロキシ・サーバーを導入するといったことで対処できた。さらに,ユーザーからのアクセスが集中する時間帯も予測可能。リバース・プロキシ・サーバーの数を時間に合わせて変動させれば,効果的なトラフィック対策になりうる。

 ほかにも,C/Sシステム向けにはトラフィックを分散させるネットワーク技術がいろいろと考案されている。

 その代表例がCDN(content delivery network)である。CDNとは,コンテンツを効率的に配信するためのネットワークで,ネットワークの随所にコンテンツをコピーしたサーバーを複数置き,パソコンからのアクセスを最適なサーバーに自動的に振り替るといった機能を持つ。ユーザーに対して迅速にコンテンツを配信するだけでなく,ネットワークに流れるトラフィックを少なくできる。

 最近登場しつつあるリアルタイムのビデオ配信サービス,いわゆる「ブロードバンド放送」でも,IPマルチキャストという技術を使うことでネットワーク上を流れるトラフィックを抑制している。このように,C/Sシステムでは,ネットワーク側で急増するトラフィックに対処するすべがある。これらの技術は,サーバーの役割を果たすコンピュータが区別できるから可能になる。

IPネットワークをP2P向けにチューニングするのは難しい

 それに対し,P2Pはどのコンピュータもサーバー的な役割を果たす。多くのユーザーがブロードバンド回線でP2Pファイル共有ソフトを使うような環境だと,どのパソコンにアクセスが集中するのか予測できない。すべてのパソコンにその可能性がある。

 さらに,C/Sと異なり時間帯でトラフィックを予測するのが難しい。なぜなら,P2Pファイル共有ソフトは,ユーザーがパソコンの前に座っていなくても,コンピュータにほしいファイルを指示しておけば勝手にファイルをダウンロードしておいてくれるから。つまり,トラフィックが時間に左右されないのである。

 ネットワーク側で,こうしたトラフィック特性に対応するのは難しい。P2Pファイル共有のトラフィックを円滑に滞りなく処理するには,単純にネットワークを増強するという方法があるが,これはコスト的に見てプロバイダに大きな負担を強いる。何らかの効果的なしくみが必要になるが,P2Pファイル共有向けにトラフィックを効率的に処理する技術の開発はまだ始まったばかりである。

 そうした技術の一つに,P2Pファイル共有ソフトがやりとりするデータをプロバイダ内で一時的に蓄積することでネットワークの負荷を軽減させる「PeerCache」というソフトウエアがある(これも前回の記事の読者コメントにあった通り)。

 こうしたソフトを使うことは,プロバイダにとって大きな決断になる。なぜなら,P2Pファイル共有ソフトの利用を公然と認めることになるうえ,著作権を侵害したコンテンツやわいせつ画像などの可能性があるデータを自社のネットワーク内に保持することになるからだ。

運用で対応するにもコストがかかる

 そこで,運用で対処しようというプロバイダが登場する。つまり,P2Pファイル共有ソフトを名指しにして,使用を禁止するわけだ。ほかにも,やりとりする情報量によって段階的に課金するというアイデアもある。

 ところが,こうした運用面での対応にも,プロバイダにとってはコストが発生する。これまで,インターネットはあまり管理をしないことで料金を抑えてきたという背景がある。P2Pファイル共有ソフトのトラフィックを遮断したり,情報量によって料金に差をつけるには,ネットワークを構成するルーターなどの装置に,さまざまな機能が求められるからだ。例えば,すべてのトラフィックをチェックしてP2Pファイル共有ソフトのやりとりを判別したり,各ユーザーの情報のやりとりから統計的な情報を抽出するといった機能が必要になる。

 C/Sのトラフィックを効果的に扱う技術の導入にかかるコストは,個々のWebサーバーを運営するコンテンツ・プロバイダやデータ・センターなど情報を提供する側が負担している。CDNはこうした顧客向けに専門の事業者がサービスを提供していたりする。

 しかし,運用で対処するにせよP2P向けに特別なしくみを導入するにせよ,そのコストはプロバイダ自身が負担せざるを得ない。運用コストがかさむと,その影響は料金の値上げとなってユーザーに跳ね返ってくることにもなりかねない。

◇    ◇    ◇

 P2Pファイル共有ソフトは,ネットワーク上の著作物の扱いに関する問題だけを提起したわけではない。P2Pという可能性のあるシステムが,ネットワーク上で効果的かつ経済的に処理されるための技術がないという問題点も指摘する結果となっているのである。ネットワーク技術者にとって,大きな課題といえるだろう。

(藤川 雅朗=日経NETWORK)


■補足:トラフィック量から見たP2Pとオン・デマンドの違い

 前回の記事にお寄せいただいたコメントで多かったのが「オン・デマンドとP2Pの違いが明確に示されていないので,納得できない」というものだった。そこで最後に,これまでの内容を再確認しつつ,オン・デマンドとP2Pの違いについて書いていきたい。

 筆者が考えるオン・デマンドとは,自分が要求するときにそのファイルやデータをネットワーク経由で取りに行って利用する形態である。これを前提に,筆者には「P2Pファイル共有ソフトを本当に必要なファイルだけやりとりするツールとして使うなら,オン・デマンドよりトラフィックが膨大になることはないだろう」という印象がある。こうしたP2Pの使い方は,まさにオン・デマンドと同じ。パソコン内にデータが蓄積される分,オン・デマンドよりネットワークに流れるトラフィックは少なくなる可能性もある。

 音楽をダウンロードするのにP2Pファイル共有を使う場合を例に考えてみよう。例えば,5Mビット/秒の帯域を使えるユーザーが,その帯域をフルに使って10分間ダウンロードを行えば,4Mバイトの音楽ファイルを数十曲も入手できる。

 これだけの音楽ファイルを一通り聴くのに,数時間はかかるだろう。それなら,ユーザーは音楽ファイルを聴いている間,P2Pファイル共有ソフトを使う必要がないはず。ダウンロードした曲をすべて聴き終わってから,もう一度数分間かけて別の音楽ファイルをダウンロードすればいい。映像でも同じことがいえるだろう。

 ただし,P2Pファイル共有ソフトには,キーワードで検索し,その結果見つかったファイルをまとめてダウンロードできるような機能が備わっている。そうなると,自分の好きなアーティストを検索し,その結果表示されたファイルを片っ端からダウンロードするようなユーザーも出てくる。多かれ少なかれ,このようなコレクター的な心理は多くの人の中にあるのではないだろうか。

 こうなると「5Mビット/秒のADSL程度じゃあ到底満足できない」と,FTTHへ乗り換えるユーザーが出てくる。FTTHを使えば,瞬時に大容量(視聴するのに時間のかかる)のコンテンツをダウンロードできる。そんな高速のFTTH回線を常時アップロード/ダウンロードに使うユーザーも出てくるだろう。

 総務省が主催する「次世代IP網ワーキンググループ」の会合では,FTTHサービス事業者のケイ・オプティコムが,「極端なユーザーだと,1カ月のトラフィックが7.3T(テラ)バイトに上る」と報告している(関連記事)。単純に30日,24時間,60分,60秒で割って平均を出すと,平均スループットは22.5Mビット/秒に達する。

 こんなユーザーでも1日は24時間しかない。つまり,自分で「消費」できる以上の情報量をやりとりしているわけだ。こういうところで,「オン・デマンド」では発生しえなかったトラフィックが発生しているのである。

 これは極端な例かもしれない。しかし,P2Pのほうがオン・デマンドより多くのトラフィックを発生させている可能性は否定できないだろう。