図1 18歳未満の携帯電話ユーザーは原則として有害サイト・フィルタリングの対象となる
図1 18歳未満の携帯電話ユーザーは原則として有害サイト・フィルタリングの対象となる
[画像のクリックで拡大表示]
図2 実現方法にはブラックリスト方式とホワイトリスト方式がある(イラスト:なかがわ みさこ)
図2 実現方法にはブラックリスト方式とホワイトリスト方式がある(イラスト:なかがわ みさこ)
[画像のクリックで拡大表示]

 「有害サイト・フィルタリング」とは見せたくないサイトをブロックする携帯電話やPHSの機能である。未成年が契約した場合は,原則としてすべて有害サイト・フィルタリングの対象となる。

 携帯電話およびPHSの事業者各社は,18歳未満の未成年が新規契約する際に,2008年2月からは原則としてフィルタリング・サービスに加入してもらうようにした。フィルタリング・サービスとは,子供に見せたくないサイトを閲覧できなくする無料のサービスのことである。“原則”というのは,親権者が「フィルタリング・サービスを利用しない」と明確に意思表示しない限り,自動的にフィルタリングがかかってしまうということを意味している。

 利用者が18歳未満なら,既存の携帯電話ユーザーも例外ではない。事業者各社は2008年8月からはすべての18歳未満の未成年ユーザーに原則として加入してもらうことにしている。つまり,既存のユーザーはある日突然それまで閲覧できていたサイトにアクセスできなくなってしまう可能性がある(図1)。

 「原則として加入」にしたのは,携帯電話の出会い系サイトで未成年が性犯罪に巻き込まれる事件が後を絶たないからである。未成年にとって有害と考えられるサイトを見られなくするように総務大臣が事業者各社のトップに要請した。これを受けて各社は実施に踏み切った。

 とはいえ,「これが有害サイトだ」という明確な定義ができたわけではない。そもそも,出会い系サイトとソーシャル・ネットワーキング・サービス(SNS)サイトの間にはっきりと線を引くことはできない。こうした状況の中で,「原則として加入」となった携帯電話のフィルタリング・サービスがさまざまな問題を生んでいる。

 実は問題の多くは,今のフィルタリング・サービスのシステムが画一的で自由度がないことによるものである。携帯電話のフィルタリングは,事業者のゲートウエイ・サーバーで実行する。フィルタリングには,サイトのURLをカテゴリ別に分類した「URLリスト」と,どのカテゴリをブロックするのかを決めた「ルールブック」を使う。携帯電話機のブラウザからサイトのURLがゲートウエイ・サーバーに送られてくると,URLリストと照合して,そのURLがどのカテゴリに属するかを調べる。次にルールブックを見て,そのカテゴリが閲覧不可ならブロックする。これがブラックリスト方式と呼ばれるしくみである。

 ブラックリスト方式で問題となっているのは,カテゴリが「コミュニティ」のサイトである。すべての事業者のフィルタリング・サービスでコミュニティは閲覧できないカテゴリとしてルールブックに登録されている。出会い系サイトがこのコミュニティに分類されるためである。ただし,どこからが出会い系サイトかという線引きはできないため,現在は書き込みができるサイトはすべてコミュニティに分類されている。掲示板やブログ,SNSはもちろんのこと,掲示板の機能を備えるゲーム・サイトなどもアクセスできなくなっている。

 事業者各社はブラックリスト以外にホワイトリストと呼ぶ方式のサービスも提供しているが,このホワイトリスト方式にも問題がある。NTTドコモとKDDI(au)は公式サイトのみを閲覧可能として,それ以外のいわゆる勝手サイトは一切見ることができない。これでは不満の声が挙がるのも当然といえる(図2)。

 このように現在のサービスでは,ブラックリストにしろホワイトリストにしろ,「見せる/見せない」の基準を事業者が決めていて,ユーザー個別の基準設定ができないシステムになっている。個別に設定できるようにすると,かなりの設備コストが発生するとして,事業者各社は現時点で具体的な動きは見せていない。そこで,総務省や業界団体がフィルタリング・システムの改善に乗り出した。総務省の「インターネット上の違法・有害情報への対応に関する検討会」では,ユーザー個別の選択が可能なフィルタリングのあり方などを議論している。業界団体のモバイル・コンテンツ・フォーラム(MCF)は第三者機関の「モバイルコンテンツ審査・運用監視機構」の設立準備を進めている。現在のカテゴリをより細分化したものを基準として策定し,各カテゴリが健全か有害かを認定するのが目的である。