Arbeidet med søkemotorer

Mange nybegynnere webmastere og bare fans av Internett-surfing er opptatt av spørsmålet: hvordan jobber søkemotorer? Grunnleggende prinsipper for søkemotorer i dag vil vurdere landets land.
Den moderne søkemotoren er et kompleks som består av de mest kompliserte programmer og algoritmer som arbeider med forbløffende fart. Tenk deg, den nye søkealgoritme Koffein fra Google kan behandle informasjon tilsvarende 3 km A4-ark på bare 1 sekund!
I alle søkemotorer kan programvarekomponenter deles inn i fem hovedgrupper:
- "Edderkopper"
- "Traveling edderkopper"
- indexers
- database
- resultat systemer
programmer edderkopp - edderkopper (edderkopper) - i henhold til algoritmen for sitt arbeid minne nettlesere, men ikke har noen visuelle komponenter. Spider laster siden html-koden ved hjelp av HTTP-protokollen.
En robotforespørsel til serveren inneholder en kommando"Få / bane / dokument" og noen andre http-kommandoer. Til denne forespørselen mottar edderkoppen et svar fra serveren som en tekststrøm som inneholder serviceinformasjonen om dokumentet og selve dokumentet. Edderkoppen er en del av indekseringsmodulen for søkemotorer.
"The Travel Spider" - crawler - er en annen komponentindekseringsmodul. Crawler går automatisk til alle hyperkoblinger som ble funnet robot-edderkopp på siden, og dermed søker etter en annen søkemotor ukjente dokumenter.
robot indekser (indekser) fungerer direkte med innholdet på sidene lastet av edderkopproboter. Indeksøren utfører en morfologisk, leksikalanalyse av sidene, og bryter dem inn i separate deler.
databaser (database) er spesiell programvare utviklet for å lagre indekserte dokumenter samlet og indeksert av komponenter.
Søkemotorens resultatmotor - Systemet for utgivelse av resultater er en av de viktigstekomponenter i søkemotoren. Det er med utgangssystemet som sluttbrukeren håndterer, som går inn i spørringen i søkestrengen. Systemet for utdata av resultater på grunnlag av mer enn to hundre forskjellige kriterier utfører valg av resultater som mest tilfredsstiller søkermålene.
Algoritmen for slik utvelgelse kalles vanligvis en algoritme eller rangering mekanisme. For å unngå svindel hos webmastere for å påvirke resultatene av utstedelse, blir de eksakte rangeringsalgoritmenes søkemotorer holdt i strengt hemmelighold.
Likevel er det en rekke kjente kriterier som tas i betraktning i arbeidet med søkemotorer, optimering som nettredaktøren kan "lovlig" påvirke søkeresultatene. For eksempel, Søkemotoren ved analyse av siden tar hensyn til:
- om det er et søkeord i tittelen på siden (tittel)
- Vises søkeordet i nettadressen til siden?
- om det er et nøkkelord i overskriftene H1-H6, merker STRONG, B, EM, I
- Hva er tettheten av søkeordene på siden (tetthet)
- Finnes søkeordet i metakoderne: nøkkelord, beskrivelse
- Er til stede på siden interne og eksterne lenker
Brukeren samhandler med søkemotoren via søkserveren. Mottatt søk fra brukerServeren behandler og overfører rangeringsmodulen som input til parameteren. I sin tur utfører modulen behandling av dokumenter, informasjon om hvilke lagres i databasen til søksystemet, og gjør en vurdering av sider som svarer til brukerens forespørsel.
Deretter genererer systemet kodestykkeinformasjon som vises til brukeren i form av SERP (Search Engine Result Page) - søkeresultatssider.
Således, selv en kort beskrivelse av de viktigsteprinsippene for arbeidet med søkesystemer viser hvor tett alle programvarekomponentene i systemet er sammenkoblet med hverandre og hvor godt søkemotoren skal fungere og tydelig virke for å gi brukeren den raskeste og mest pålitelige informasjonen om søket.














