サーチエンジンに関するTechopediaの説明
サーチエンジンは、その仕事をするためにいくつかのステップを踏んでいます。 まず、スパイダー/ウェブ クローラーがウェブを巡回して、検索エンジンのインデックスに追加されるコンテンツを探します。 これらの小さなボットは、ビデオや画像などのコンテンツを含め、Web サイトのすべてのセクションとサブページをスキャンできます。
ハイパーリンクは、外部 Web サイトを指しているときに、内部ページまたはクロールする新しいソースを見つけるために解析されます。 ボットがより効率的にクロール作業を行うために、大規模な Web サイトでは通常、サイト自体のロードマップとして機能する特別な XML サイトマップを検索エンジンに提出します。
ボットによってすべてのデータが取得されると、クローラーはそれを、発見したすべての URL の大規模なオンライン ライブラリに追加します。 この一定かつ再帰的なプロセスは、インデックス作成として知られており、Web サイトが SERP に表示されるために必要です。
Web サイトが SERP で上位にあるほど、検索者のクエリとの関連性が高いはずです。 ほとんどのユーザーは上位の結果しか閲覧しないため、Web サイトが特定のクエリで上位にランクされ、トラフィックの面で成功することが特に重要です。
Web サイト、または少なくともそのページの一部が上位にランクされるように、過去数十年で科学全体が発展しました。 この学問は検索エンジン最適化 (SEO) として知られています。
初期の検索エンジンの結果は、主にページのコンテンツに基づいていましたが、Web サイトが高度な SEO 対策を通じてシステムを操作するようになると、アルゴリズムははるかに複雑になり、返される検索結果は文字通り何百もの変数に基づいている可能性があります。
SEO として採用された人たちは、ビジネスの独自性と検索エンジンの結果の操作を防ぎたいという願望から、企業がどのように実行しているか透明ではないため、アルゴリズムを解明しようと膨大なエネルギーを費やすことがよくあります。 2020年現在、欧米市場の大半を支配しているのはGoogleで、Microsoft Bingは2位と存在感は小さい。 Yahooは多くのクエリを生成していますが、バックエンドの検索技術はMicrosoftに委託しています。
世界の他の地域では、他の検索エンジンが市場の大部分を占めています。 たとえば中国では、最も広く使われている検索エンジンは2000年に登場したBaiduであり、ロシアではユーザーの50%以上がYandexを使っている
。