Techopedia forklarer Søgemaskine

En søgemaskine udfører en række trin for at udføre sit arbejde. Først gennemtrawler en spider/webcrawler nettet for at finde indhold, der tilføjes til søgemaskinens indeks. Disse små bots kan scanne alle sektioner og undersider på et websted, herunder indhold som f.eks. video og billeder.

Hyperlinks analyseres for at finde interne sider eller nye kilder, der skal crawles, når de peger på eksterne websteder. For at hjælpe robotterne med at udføre deres crawling-arbejde på en mere effektiv måde indsender større websteder normalt et særligt XML-sitemap til søgemaskinen, der fungerer som en køreplan for selve webstedet.

Når alle data er blevet hentet af robotterne, tilføjer crawleren dem til et massivt onlinebibliotek med alle fundne URL’er. Denne konstante og rekursive proces er kendt som indeksering og er nødvendig for, at et websted kan blive vist i SERP. Når en bruger derefter forespørger en søgemaskine, returneres relevante resultater baseret på søgemaskinens algoritme.

Jo højere et websted er placeret i SERP, jo mere relevant bør det være for den søgendes forespørgsel. Da de fleste brugere kun gennemser de øverste resultater, er det særligt vigtigt, at et websted rangerer højt nok for visse forespørgsler for at sikre dets succes i form af trafik.

Der er i de sidste par årtier udviklet en hel videnskab for at sikre, at et websted, eller i det mindste nogle af dets sider, “skalerer” ranglisten for at nå de første pladser. Denne disciplin er kendt som søgemaskineoptimering (SEO).

De tidlige søgemaskiners resultater var i høj grad baseret på sidens indhold, men efterhånden som websteder lærte at snyde systemet gennem avancerede SEO-praksisser, er algoritmerne blevet meget mere komplekse, og de returnerede søgeresultater kan være baseret på bogstaveligt talt hundredvis af variabler.

Hver søgemaskine bruger nu sin egen algoritme, der vægter mange komplekse faktorer såsom relevans, tilgængelighed, brugervenlighed, sidehastighed, indholdskvalitet og brugerintention for at sortere siderne i en bestemt rækkefølge.

De, der er ansat som SEO’er, bruger ofte enormt meget energi på at forsøge at afkode algoritmen, da virksomhederne ikke er gennemsigtige med, hvordan de kører, på grund af deres proprietære karakter og deres ønske om at forhindre manipulation af søgemaskinernes resultater.

Der plejede at være en række søgemaskiner med en betydelig markedsandel. Fra 2020 kontrollerer Google langt størstedelen af det vestlige marked; Microsoft Bing har en lille tilstedeværelse på andenpladsen. Yahoo genererer mange forespørgsler, men deres back-end søgeteknologi er outsourcet til Microsoft.

I andre regioner i verden har andre søgemaskiner størstedelen af markedet. I Kina er den mest udbredte søgemaskine f.eks. Baidu, som oprindeligt blev lanceret i 2000, mens mere end 50 % af brugerne i Rusland bruger Yandex.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.