Techopedia explains Search Engine
A keresőmotor számos lépést hajt végre, hogy elvégezze a feladatát. Először egy pók/hálós lánctalpas átfésüli a világhálót a keresőmotor indexébe felvehető tartalmak után. Ezek a kis robotok képesek átvizsgálni egy weboldal minden szakaszát és aloldalát, beleértve az olyan tartalmakat is, mint például a videók és képek.
Az átlós hivatkozásokat elemzik, hogy megtalálják a belső oldalakat vagy a feltérképezendő új forrásokat, ha azok külső webhelyekre mutatnak. Annak érdekében, hogy a robotok hatékonyabban végezhessék a lánctalpas munkát, a nagyobb webhelyek általában egy speciális XML-szitemapot küldenek be a keresőmotornak, amely magának a webhelynek az útiterveként működik.
Mihelyt a robotok az összes adatot lekérdezték, a lánctalpas hozzáadja azokat az összes felfedezett URL-t tartalmazó hatalmas online könyvtárhoz. Ezt az állandó és rekurzív folyamatot indexelésnek nevezik, és ez szükséges ahhoz, hogy egy webhely megjelenjen a SERP-ben. Ezután, amikor a felhasználó lekérdez egy keresőmotort, a keresőmotor algoritmusa alapján releváns találatok jelennek meg.
Minél előrébb van rangsorolva egy weboldal a SERP-ben, annál relevánsabbnak kell lennie a kereső lekérdezéséhez. Mivel a legtöbb felhasználó csak a legelső találatokat böngészi, különösen fontos, hogy egy weboldal bizonyos lekérdezésekre elég magasan álljon, hogy biztosítsa a sikerét a forgalom szempontjából.
Az elmúlt évtizedekben egy egész tudomány fejlődött ki annak biztosítására, hogy egy weboldal, vagy legalábbis néhány oldala “skálázza” a rangsort, hogy az első helyekre kerüljön. Ezt a tudományágat keresőmotor-optimalizálásnak (SEO) nevezik.
A korai keresőmotorok eredményei nagyrészt az oldalak tartalmán alapultak, de ahogy a webhelyek megtanulták, hogyan játsszák ki a rendszert a fejlett SEO-gyakorlatok segítségével, az algoritmusok sokkal összetettebbé váltak, és a visszaküldött keresési eredmények szó szerint több száz változó alapján alakulhatnak ki.
Minden keresőmotor ma már saját algoritmust használ, amely számos összetett tényezőt – például relevanciát, elérhetőséget, használhatóságot, oldalsebességet, tartalom minőségét és felhasználói szándékot – mérlegel annak érdekében, hogy az oldalakat egy bizonyos sorrendbe rendezze.
A SEO-ként foglalkoztatottak gyakran hatalmas energiát fordítanak arra, hogy megpróbálják megfejteni az algoritmust, mivel a cégek nem átláthatóak a működésükkel kapcsolatban, mivel a keresőmotorok saját tulajdonúak, és meg akarják akadályozni a keresőmotorok eredményeinek manipulálását.
Régebben több, jelentős piaci részesedéssel rendelkező keresőmotor volt. 2020-tól a Google uralja a nyugati piac túlnyomó többségét; a Microsoft Bing csekély mértékben van jelen a második helyen. Bár a Yahoo sok lekérdezést generál, a back-end keresési technológiáját kiszervezték a Microsofthoz.
A világ más régióiban más keresőmotorok tartják a piac többségét. Kínában például a legelterjedtebb keresőmotor a Baidu, amelyet eredetileg 2000-ben indítottak el, míg Oroszországban a felhasználók több mint 50%-a a Yandexet használja.