検索サイトで,例えば「ニュース翻訳」と入力しても筆者の会社のサイトはなかなか出てこない。ところが,ある処理を施すと検索結果ページの1ページ目に出てくる――そんな技術を米国では「Search Engine Optimization」,略して「SEO」と呼んでいる。日本語に直訳すると「検索エンジン最適化」あるいは「サーチ・エンジン最適化」になる。

 どうして,こんなことができるのかというと,検索エンジンはどのようにデータを集めているのか特性を把握して,それを逆手にとって検索エンジンにひっかかりやすいようにWebページを作成するのである。まだ検索エンジンの仕組みが今よりはるかにシンプルだったころ,つぼを心得ているWebマスターならばSEOは自分の手でできた。しかしその後,検索エンジンのデータ収集方法が高度化するにつれて,SEOの技術も高度化してきた。

 そのため米国ではSEOの専門家が生まれて,Webマスターたちに対してノウハウを提供している。最近では彼らはそれに留まらず,新種のマーケティング・コンサルタントへと変容しつつあると言われている。こうして注目を集めているSEOだが,そこには問題がないわけでもない。今回はこのSEOと,新種のマーケティング手法と言われる「検索エンジン・マーケティング」について考えてみたい。

■「ディレクトリ型」と「ロボット型」がある

 「検索エンジンの特性を把握して...」と述べたが,もう少し詳しく説明しよう。まず,検索エンジンとはどういうものなのか,また何を基準にして,個々のサイトの順位を決めているのか,を知る必要がある。

 検索エンジンには大別して2つのタイプがある。「ディレクトリ型」と「ロボット型」である。その違いは,Webサイト情報の登録と検索結果の表示方法にある。前者は,米Yahoo!が当初から採用しているタイプの検索エンジンとして有名である。同社のサービスを例に説明しよう。

 Yahoo!社のディレクトリ型検索では,「Yahoo! Surfers」と呼ばれる一種の編集者がWebサイトの審査を行い,サイト情報を手作業でジャンルごとに分類,検索エンジンのデータベースに登録している。ユーザーがキーワード検索を実行した際には,編集者が行ったこの分類に従って検索結果を表示する。こうしてジャンルごとに分類表示することによって,ユーザーの利便性向上を図っているのである。

■SEOはロボット型エンジンを対象にする

 一方のロボット型の最大の特徴は,データベースへの登録作業に人間が介在しないことにある。ソフトウエアがインターネットを定期的に巡回し,Webサイトの情報を収集,データベースに登録している。そしてディレクトリ型とは別のアプローチでユーザーの利便性向上を図っている。すなわち,“ユーザーが最も見たい(探している)であろうページを前面の上位に表示する”ことで使い勝手を良くしている。

 これを実現するため,ロボット型では,Webページのどの部分の,どの情報をどのような形でデータベースに登録するのか,といったことを細かく決めている。ここに人間とは違った検索エンジン独特のルールがある。そしてSEOはこれをうまく活用するのである。

 具体的に見てみよう。例えばロボット型検索エンジンが収集するサイト情報の一つにMETAタグがある。ここにサイトに関連するキーワードが書かれてあれば,検索エンジンはそれを検索対象の一つとして考慮する。

 またここに書いたサイトの説明文もデータベースに登録される。一部の検索エンジンでは,この説明文を検索結果画面に表示するからである。つまり,自分のサイトをうまく表現する説明文をいかに書けるか否かによってユーザーのクリック率が大きく変わってくるというわけだ。

 このほか,TITLEタグ,本文のBODYタグ内の文章も登録の対象となる。特にBODYタグ内の第1パラグラフは検索エンジンが重要視しているため,ユーザーがよく使うキーワード,あるいは自分のサイトを適切に表すキーワードを盛り込んだうまい文章を書く必要がある,と言われている。

 ここまでの説明でもうお分かりだろう。つまり,前者のディレクトリ型は,編集者の判断によってサイト情報が登録されるので,Webマスター側では工夫の余地がない。これに対し,ロボット型にはそれがある。よってSEOはロボット型を対象としているのである。SEOは「ロボット型が何に注目して,どのような基準で検索結果を導き出しているのか」を総合的に検討して,検索結果における上位表示/ユーザーのクリック率向上を目指しているのである。

■不正SEOと検索エンジンの戦い

 こういうSEO手法が,善良なWebマスターだけで行われているころは良かった。なぜなら,METAタグのルールは一般に公開されていて公平なものであり,彼らはそのルールに従ってサイトを作成しているに過ぎなかったからである。そこには,「HTMLについてきちんと勉強した人が,その恩恵を受ける」という好ましい構図があった。また,本文冒頭に分かりやすい説明書きのあるWebページはユーザーの利便性向上にも寄与した。検索エンジンもこうしたオープンなルールをうまく活用することで,信頼できる検索結果の提供を目指していた。

 ところが,検索エンジンを欺く“裏技”が登場するようになると,この構図は崩れることになる。例えば,キーワードを過度に繰り返して記述したり,特定のフレーズを極めて小さなフォント,あるいは背景と同色にして,大量に記述するといった手法が多用されるようになった。そしてこういう行為を行う「スパマー(検索エンジンにゴミをばらまく人)」が増えていった。検索エンジン側も悪質なサイトをデータベースから排除する仕組みを作ったり,検索エンジンのアルゴリズムを複雑にするなどして,スパマー対策を強化していった。こうしてしばらくの間,検索エンジンと不正なSEO手法との戦いが続いたのである。

■Googleの登場で小手先のSEO手法が通用しなくなった

 しかし両者の戦いは画期的な検索エンジン「Google」の登場によって,一応の決着をみることになる。Googleが,Webページの順位評価の基準に,従来の要素に加えて,他のWebページ内のリンクを用いたため,従来のSEOが使えなくなったからである。

 Googleが用いた新技術は「PageRank」と呼ばれる。PageRankでは,あるWebページの評価を行う際に,他のWebサイト内に張られているリンクを考慮するという手法を用いた。リンクの出現頻度や関連性を評価するのである(注1)

 例えば,AというWebページの評価は,BというWebページからリンクが張られていれば上がる。さらにCやD,EからもAにリンクが張られていれば,もっと上がる。このときB,C,D,E自体の評価が高ければ,そのことも考慮される。またこれらのサイトとAの内容の関連性が高ければ,それも考慮され,Aの評価はいっそう高まる,という仕組みである。

 PageRankで使ったこの評価基準(「オフ・ページ・クライテリア」などと呼ばれている)は,当時としてはまったく新しいものだった。そしてこの評価基準を重視することで,これまでのような小手先のSEO手法の多くが通用しなくなったのである。Google自体も「ユーザーが求めているサイトが上位表示される」と好評を博し,普及していった。

注1:PageRankの基本論文「Lawrence Page, Sergey Brin, Rajeev Motwani, Terry Winograd, 'The PageRank Citation Ranking: Bringing Order to the Web', 1998,」(PSファイルのダウンロード

■SEOは検索エンジン・マーケティングのエキスパートに

 Googleのユーザー数は,この2年間で爆発的に増えている(関連記事)。これに加え,Yahoo!社,米AOL(America Online),米Excite,米AT&T,米New York Timesといった大手オンライン・サービスのバックエンド・サービスとしても提供されるようになった。

 Googleのライバル検索エンジンも切磋琢磨している。例えばインフォシーク(東京都目黒区)では,同社のポータルサイトinfoseekの検索エンジンを,今年12月にリニューアルする計画である。これにより,「小手先の技は通用しなくなる。客観的に良いサイトしか,上位に表示されなくなる」(同社シニアプロデューサーの平塚祐司氏)という(関連記事)。

 こうなってくると,SEO専門家の役割も自ずと変わってくる。これまでのように,「どういう技術/ノウハウを使ったら上位表示されるのか」を研究するのではなく,「どういうことをしたら,人気の高いサイトを作れるのか,他の人気サイトからリンクを張ってもらえるのか」ということを研究するようになる。

 例えば彼らは,ユーザーがどのようなキーワードをよく使うか,どのようなフレーズに触発されてクリック操作を行うのか,といった知識を豊富に持っている。こうした知識/ノウハウを生かして,サイトのキャッチ・コピー,デザイン,操作性についてのアドバイスを行うことができる。彼らはこうしたことを手がける「“検索エンジン・マーケティングのエキスパート”の担い手として期待されている」(米Pandia Search Central設立者のSusanne Koch氏)のである(掲載記事)。

■ユーザーの意図を反映しない検索結果

 SEOは,今,これまでに多少なりともあったネガティブなイメージを払拭し,検索エンジン・マーケティングという新たな分野へ進もうとしている。しかしこれで問題が完全になくなったわけではない,と筆者は考える。小手先のテクニックが入り込む余地がまだ拭いきれてないからである。

 GoogleのPageRankが素晴らしいと言っても,検索エンジンが評価基準としているのは,それだけではない。やはり従来の要素も重要な評価基準となっている。そこでは,「同じキーワードの過度の繰り返しを排除する」という対策がとられているがそこには,どこからを“過度”と判断するのか,という基準がある。

 今,インターネットには,その基準を何らかの方法で知った上で作成した,SEO済みWebページと,そうでないWebページが存在しているのである。そしてユーザーには,両者の違いが見えない。ここに,「この検索結果は本当にユーザーの求めているものだろうか」,という疑問が生じるのである。

 「ユーザーが求めているものか?」という点については,米国では“お金によるSEO”も問題視されている。これはスポンサード・リンクと呼ばれているもので,検索結果の表示画面にスポンサー企業のリンクを優先表示するものである。サービスの提供会社は優先表示された検索結果をユーザーがクリックした際に,広告主から広告料金を受け取るという仕組みになっている。要は検索結果ページの上位のスペースをお金で買い取ってしまおうというわけである。

 これが,「ユーザーが通常の検索結果と混同する恐れがあり,不利益を被る恐れがある」と言われている。このことを指摘したのは,オレゴン州の消費者団体Commercial Alert(CA)。同団体は,広告(スポンサード・リンク)を検索結果に紛れ込ませ,その事実を示さなければ,虚偽的商行為を禁じた連邦法に違反する」とし,昨年7月,FTC(連邦取引委員会)に調査を要請していた。

 そしてFTCはこの6月末にその結論を出した。検索エンジン各社に対し,こうした“広告”を一般の検索結果とは明確に区別するよう警告を発したのである。このような警告によって,区別をつけて表示するようにはなったが,また誰かが検索エンジンを舞台に新しいビジネス・モデルを考えているかもしれない。なんといっても,インターネットでもっとも人が集まる場所なのだから。

◎関連記事
ニューヨーク・タイムズが米グーグルの検索技術を採用
「性能が悪いWWWサイトは企業のマーケティング費用を無駄にする」,米調査
米AOLがGoogleの検索エンジンを採用した新しい「AOL Search」を発表
広告主優先表示の検索サービスを提供する米オーバーチュア,2002年Q2決算は売上高144%増と黒字転換で絶好調
米アルタビスタが関連性の高い項目を提供する検索エンジン「AltaVista Prisma」を発表
米AT&Tが米グーグルの検索技術を採用
米オーバーチュア,米MSとの契約を90日間延長,「今後の長期契約目指し交渉中」
インターネットの検索サイト,その進化の秘密
AOLが米グーグルの検索技術を採用
米ヤフーに迫る勢いの米グーグル検索サイト,過去2年間でシェアが急増
インフォシーク,独自路線でGoogleに対抗
米Overtureが米グーグルを特許侵害で提訴
ノルウェーFASTと米ライコスが,Webサイト索引登録サービス「FAST PartnerSite」を発表
米グーグルが全文検索用アプライアンスを発表,200種類以上の文書形式に対応
米Googleが2001年に検索されたキーワードのトップ・リストと傾向を発表
「最新の検索機能とビジネスモデルで巻き返す」---ライコスジャパンの平出執行役員に聞く
米ワイズナットがライコスジャパンに検索技術をライセンス供与
米グーグルが検索サービスを拡充,「30億のドキュメントにアクセスできる」
Google,法人向けビジネス本格化
ヤフーが検索エンジンにGoogleを導入。カテゴリ型・全文検索型を同時に実行