Techopedia selittää hakukoneen

Hakukone suorittaa useita vaiheita tehdäkseen työnsä. Ensin hämähäkki/verkkomönkijä (spider/web crawler) etsii verkosta sisältöä, joka lisätään hakukoneen hakemistoon. Nämä pienet botit voivat skannata kaikki verkkosivuston osiot ja alasivut, mukaan lukien videon ja kuvien kaltaisen sisällön.

Hyperlinkit analysoidaan, jotta löydetään sisäisiä sivuja tai uusia lähteitä indeksoitavaksi, kun ne osoittavat ulkoisille verkkosivustoille. Jotta botit voisivat tehdä indeksointityönsä tehokkaammin, suuremmat verkkosivustot toimittavat yleensä hakukoneelle erityisen XML-sitemapin, joka toimii itse sivuston tiekarttana.

Kun botsit ovat hakeneet kaikki tiedot, indeksoijat lisäävät ne massiiviseen verkkokirjastoon, joka sisältää kaikki löydetyt URL-osoitteet. Tätä jatkuvaa ja rekursiivista prosessia kutsutaan indeksoinniksi, ja se on välttämätöntä, jotta verkkosivusto näkyy SERP-listalla. Kun käyttäjä tekee hakukoneelle kyselyn, hakukoneen algoritmin perusteella palautetaan relevantteja tuloksia.

Mitä korkeammalle verkkosivusto sijoittuu SERP:ssä, sitä relevantimpi sen pitäisi olla hakijan kyselyn kannalta. Koska useimmat käyttäjät selaavat vain ylimpiä tuloksia, on erityisen tärkeää, että verkkosivusto sijoittuu riittävän korkealle tietyissä kyselyissä, jotta se voi varmistaa menestyksensä liikenteen kannalta.

Viime vuosikymmeninä on kehitetty kokonainen tiede, jonka tarkoituksena on varmistaa, että verkkosivusto tai ainakin osa sen sivuista ”skaalautuu” rankingissa ykkössijoille. Tätä tieteenalaa kutsutaan hakukoneoptimoinniksi (SEO, Search Engine Optimization).

Varhain hakukoneiden tulokset perustuivat pitkälti sivun sisältöön, mutta kun sivustot oppivat pelaamaan järjestelmää kehittyneiden SEO-käytäntöjen avulla, algoritmeista on tullut paljon monimutkaisempia, ja palautetut hakutulokset voivat perustua kirjaimellisesti satoihin muuttujiin.

Kukin hakukone käyttää nykyään omaa algoritmiaan, joka punnitsee monia monimutkaisia tekijöitä, kuten relevanssia (asiaankuuluvuus), saavutettavuutta (saavutettavuus), käytettävyyttä (käytettävyys), sivun nopeutta, sisällön laatua ja käyttäjän aikomusta (user intention), lajitellakseen sivut tiettyyn järjestykseen.

SEO:na työskentelevät käyttävät usein valtavasti energiaa yrittäessään purkaa algoritmia, sillä yritykset eivät ole avoimia toimintatapojensa suhteen, koska niiden liiketoiminta on omistusoikeudellisesti suojattua ja ne haluavat estää hakukoneiden tulosten manipuloinnin.

Ennen oli useita hakukoneita, joilla oli merkittävä markkinaosuus. Vuodesta 2020 lähtien Google hallitsee valtaosaa länsimaisista markkinoista; Microsoftin Bing on pienellä osuudella toisella sijalla. Yahoo tuottaa paljon hakuja, mutta sen taustahakuteknologia on ulkoistettu Microsoftille.

Muualla maailmassa muilla hakukoneilla on valtaosa markkinoista. Esimerkiksi Kiinassa käytetyin hakukone on Baidu, joka lanseerattiin alun perin vuonna 2000, kun taas Venäjällä yli 50 prosenttia käyttäjistä käyttää Yandexia.

Jandexin hakukoneiden käyttö on hyvin yleistä.

Vastaa

Sähköpostiosoitettasi ei julkaista.