-
検索エンジンの種類と特徴
検索エンジンは、ディレクトリー型検索エンジンとロボット型検索エンジンに大別されます。
ただ最近は、ディレクトリー型とロボット型を合わせたハイブリット型の検索エンジンが増えてきています。
ディレクトリー型検索エンジンは、ウェブサイトをテーマやトピックによって分類したカテゴリに掲載されます。
サイトの登録に当たっては、ディレクトリー(エディター)と呼ばれる専門スタッフの厳選な目によって審査されます。登録推薦申請をすれば必ず登録されるものではありません。
ウェブサイトをディレクトリーに掲載するためには、掲載基準を満たしたものでなければならないのです。
例えば、工事中のページや、ページ間の関連付けのミスなどサイトに制作上の欠陥があったりすると基準を満たすことができません。
情報があまりにも乏しいサイトも要注意です。エディターの厳選な審査によりディレクトリー型検索サイトからは無駄な情報は排除され、有益な価値のあるウェブサイトだけが掲載されるということです。
ですから、ディレクトリー型検索エンジンに登録されているとSEOの意味でも有利に展開していくわけです。
登録されることにより、価値のある有益なウェブサイトであるという評価をいただけるからです。
ディレクトリーへの登録推薦が有料としているディレクトリー型検索エンジンは、特に評価が高くなっています。(Yahoo!Japan、Jlisting、LookSmart)
Yahoo!Japanは、商用サイトのディレクトリー掲載は、完全有料化になりました。
Jlistingにしても登録審査料金を強気で値上げしました。
ディレクトリー型検索エンジンの価値は高まる一方です。
情報を集めるために「お願いですから、無料でいいですから貴方のウェブサイトを登録してください」と言っていた状況とは一転して、「お金をいただければ登録するかどうかの審査を行なってあげますよ」という状況になっています。
登録審査料金も今後どのように変わっていくのか想像もつきません。登録されることの価値が高まれば、それに伴って値上げがあってもおかしくはないことでしょう。それくらいディレクトリー検索エンジンの存在は大きいのです。
次にロボット型検索エンジンですが、こちらはディレクトリー型が人の目による審査型なのに対して、スパイダー(クローラー)と呼ばれるソフトウェア(プログラム)によってインターネット上のウェブサイトを巡回してウェブサイトの全てのウェブページデータを取得します。
スパイダーが自動的にウェブページ情報を収集しますから人の手によって登録が行なわれるディレクリー型検索エンジンとは比べものにならないほどのウェブページ情報を取得することが可能です。
スパイダーは、評価の高いディレクトリー型検索エンジンから巡回をはじめてウェブページ情報を効率よく収集していきます。
スパイダーという名前からをわかるように、クモはインターネット上にくもの巣のようにはりめぐらされた糸をたどって80億以上とも言われる膨大な数のウェブページの情報を収集していきます。
2種類の検索エンジンの一番の違いは、ディレクトリー型検索エンジンが人の目による審査基準に基づいたウェブサイトの登録なのに対して、ロボット型検索エンジンは、スパイダー(ロボット)よるウェブページの自動収集という点です。
SEO対策は、ウェブページの情報が自動収集されるロボット型検索エンジンに対して有効な方法です。
なぜならプログラムがウェブページ情報を管理しているからです。
もちろんプログラムは常に最高を求めて進化していますのでこれが絶対というSEO対策はあり得ませんが、傾向を分析して対策をほどこすことは可能です。
こうして、検索エンジン側も検索エンジンで上位表示を狙う側も試行錯誤を繰り返しています。これは今後も永遠に続いていくことです。