Googlebots – information om softwaren bag Googles søgemaskine

Googlebots – information om softwaren bag Googles søgemaskine, 6.0 out of 6 based on 1 rating

Googlebots er en betegnelse for den type af software, som styrer Googles søgemaskinefunktion. Googlebots er en raffineret slags software, som finder frem til brugernes ønskede sider vha. indsamling af links

Er du interesseret i at lære om Googlebots så læs denne artikel til ende. En Googlebot er i denne forbindelse det søgemaskine-software, som Google bruger til at indsamle dokumenter fra internettet, som Google herefter omdannes til et søgbart indeks for Googles søgemaskine. Google er uden sammenligning den bedste søgemaskine i verden i øjeblikket, og deres Googlebot er en af de afgørende årsager til Googles næsten ufatteligt gode evne til at finde det, som folk er på udkig efter.

Kendetegn ved Googlebots

Hvordan Googlebots helt præcist opererer er noget, som ingen udenfor Google ved. Årsagen til dette er selvsagt, at Google af konkurrencemæssige årsager ikke har frigivet den software, som understøtter verdens bedste søgemaskine.

Når det så er sagt, så har man stadig en vis viden om, hvordan Googles Googlebot fungerer. Blandt andet ved man, at Googlebotten følger SRC- og HREF-links. Derudover er der stadig flere indikationer på, at Googlebotten kan udføre diverse javascripts og såkaldt ’parse content’ genereret ved hjælp af Ajax-teknikker.

Googlebotten finder frem til de rette sider ved at indsamle alle de links på alle de sider, som botten besøger. Herefter følger botten disse links til de nye websider og således ved hjælp af disse links finder Googlebotten ud af, hvilket sider indenfor et bestemt emne – for eksempel ’naturgas’ – er særligt populære og besøgte.

Båndbredde med Googlebots

Et af de problemer som forskellige webmastere ofte har identificeret med Googlebots er, at de tit har et meget stort forbrug af båndbredde. Konsekvensen af dette er, at hjemmesider kan risikere at overskride deres båndbreddegrænse, hvilket i mange tilfælde kan føre til, at hjemmesider tages midlertidigt ned fra nettet. Dette kan især være tilfældet for skygge-hjemmesider, som ofte er kendetegnet ved store mængder af data. Webmastere kan i denne forbindelse eventuelt tage et kig på Googles ’Webmaster Tools’, som tilbyder forskellige metoder til at imødekomme dette problem med båndbredde.

Hvis en webmaster desuden ønsker at indskrænke den information, som er tilgængelig for Googlebot eller lignende søgemaskinesoftware, så kan de gøre dette ved hjælp af instruktioner i deres robots.txt-filer. Alternativt kan det gøres ved at tilføje meta-tagget <meta name="Googlebot" content="nofollow"/> til deres hjemmeside.

Gå tilbage til SEO ordbog

VN:F [1.9.22_1171]
Rating: 6.0/6 (1 vote cast)