🤖

Googlebot

Google crawler • Indeksering • Crawling • Teknisk SEO • Robots.txt

Hurtig definition:

Googlebot er Googles web-crawler der besøger, læser og indekserer hjemmesider for at holde Googles søgeindeks opdateret med nyt og ændret indhold.

🔍
Crawler milliarder af sider dagligt
📱
Mobile-first indeksering
Kunstig intelligens integration

Googlebot

Googlebot er en lille bot, der crawler internettet. Googlebot følger links på hjemmesider og finder derigennem frem til nye sider og hjemmesider på internettet, der kan crawles og indekseres. Googlebot er også den bot, der finder nyt og opdateret indhold og foreslår, hvad der skal inkluderes i Googles store indeks.

Googles indeks er det, du som bruger af Google søger i, når du skal finde informationer på internettet. Google bruger enorme ressourcer på at sende deres botter rundt omkring i alle nettets afkroge for at søge, identificere og indeksere.

Googlebot er Googles webcrawler eller robot, om man vil.

🤖 Moderne virkelighed: Googlebot bruger nu AI og machine learning til intelligent crawling og prioritering

Hvordan virker Googlebot?

Som tidligere nævnt følger Googlebot alle links, den falder over, når den besøger en hjemmeside. Herigennem finder den vej til nye sider og får genopfrisket, hvad der er på sider, som den måske allerede har besøgt før. Det er sådan, at Google opfanger, når en sides indhold har ændret sig, og dette er en nødvendig proces for altid at have en opdateret database, hvor brugere kan finde det nyeste indhold.

Google kravler dit website, ved at finde links til det på andre websites

Google kravler dit website, ved at finde links til det på andre websites

Googlebot besøger ikke hvert link, den falder over, med det samme. Alle links, Googlebot ikke tidligere har set, bliver lagt i en liste over sider, som Googlebot på et senere tidspunkt skal kigge nærmere på og vurdere, hvorvidt disse skal inkluderes i deres indeks.

Googlebot tjekker, som sagt, også løbende sider, den allerede har besøgt før. Dette gøres for at verificere, at adressen stadig fungerer, og at indholdet stadig er tilgængeligt. Google ønsker ikke at linke til sider, der ikke længere eksisterer, da det skaber en dårlig brugeroplevelse for deres brugere.

Netop derfor er Google meget opmærksom på at gencrawle sider så ofte som muligt, særligt sider, de har vurderet, ofte ændrer deres indhold.

Googlebot bruger den dag i dag også kunstig intelligens til at sortere og indeksere hjemmesider. Googles kunstige intelligens hedder RankBrain, den kan du læse meget mere om i følgende artikel.

Hvor ofte besøger Googlebot din hjemmeside?

Hvis du vil finde ud af, hvor ofte Googlebot besøger din hjemmeside, findes der en lang række metoder til netop dette. En af de mest enkle metoder er at besøge Googles Search Console og gå til crawl-sektionen. Herunder kan du finde detaljeret statistik over, hvor ofte Googlebot besøger dine sider, samt hvilke sider de har kigget på og hvornår. Her finder du også oplysninger om indekseringstilstand.

Du kan også kigge i din serverlog og se efter Googlebots user-agent. Det kan være svært at genkende Googlebot på IP-adressen, da denne er dynamisk og derfor ofte skifter. Men ved at køre et omvendt opslag kan du se, om user-agenten svarer korrekt. Du skal dog være opmærksom på, at det er nemt at udgive sig for at være Googlebot.

De forskellige Googlebotter

Googlebot findes i mange variationer og findes sandsynligvis også i et meget, meget stort antal – husk på, at de crawler og kigger på alt, der er i Googles indeks, hele tiden.

  • -Googlebot Desktop (Desktop-versionen af Googlebot, crawler og indekserer sider)
  • -Googlebot mobile (Mobilversionen af Googlebot, det er denne bot der crawler stort set alle hjemmesider den dag i dag, efter Google gik over til Mobile First indeksering)
  • -Googlebot Video (Googles videobot)
  • -Googlebot News (Google News bot)
  • -Googlebot images (Googles billedsøgningsbot)

Tekniske specifikationer og user agents

Googlebot user agent strenge

Googlebot Desktop:
Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Googlebot Mobile:
Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/W.X.Y.Z Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Googlebot Images:
Googlebot-Image/1.0

Crawler budget og optimering

Hvad påvirker crawler budget?

• Website størrelse og kompleksitet
• Server responstid og ydeevne
• Indhold kvalitet og opdaterings frekvens
• Duplikeret indhold og tekniske fejl
• Crawl fejlrate og server fejl

Optimering af crawler budget

• Forbedre server responstid og oppetid
• Fjern duplikeret og lavkvalitets indhold
• Brug robots.txt til at blokere uvigtige sider
• Optimer XML sitemap med vigtige sider
• Ret crawl fejl og ødelagte links

Robots.txt og crawler kontrol

# Eksempel robots.txt for Googlebot kontrol User-agent: Googlebot Disallow: /admin/ Disallow: /private/ Allow: /public/ User-agent: Googlebot-Image Disallow: /private-images/ Sitemap: https://example.com/sitemap.xml

Ydeevne påvirkning og fejlretning

Server belastning og hastigheds begrænsning

Crawl hastigheds kontrol: Google justerer automatisk crawl hastighed baseret på server respons
Server kapacitet: Høj crawl aktivitet kan påvirke website ydeevne for brugere
Hastigheds begrænsning: Brug Google Search Console til at begrænse crawl hastighed om nødvendigt
Spidsbelastnings undgåelse: Googlebot forsøger at undgå høj-trafik perioder

Almindelige Googlebot problemer

Crawl fejl

404 fejl, server timeouts, DNS fejl - overvåg i Google Search Console

Langsomme indlæsninger

Langsom responstid kan reducere crawl frekvens og budget

JavaScript gengivelse

Googlebot kan gengive JavaScript, men statisk HTML er mere pålidelig

Overvågning og analyse værktøjer

Google Search Console: Crawl statistikker, dæknings rapporter og URL inspektion
Server logs analyse: Detaljeret Googlebot aktivitet og mønstre
Crawler budget overvågning: Spor sider crawlet vs. total sider på website
Ydeevne målinger: Server responstid, oppetid og fejlrater

Ofte stillede spørgsmål

Hvad er Googlebot?

Googlebot er Googles web-crawler eller undersøgelses robot, læser, vurderer og indekserer indholdet på diverse hjemmesider. Googlebot findes i mange variationer, der hver især crawler og undersøger alt der findes i Googles indeks, hele tiden. Af forskellige Googlebotter kan nævnes, Googlebot Desktop, googlebot Mobile, Googlebot Video, Googlebot News og Googlebot images.

Hvordan virker Googlebot?

Googlebot følger og identificerer alle links, som den støder på, når den besøger/crawler en hjemmeside. Formålet med Googlebotterne er at identificere, indeksere og vurdere indholdet på hjemmesider, således at Googles database altid er opdateret med det nyeste indhold og opdateret i forhold til ændringer på de enkelte webadresser.

Hvor ofte besøger Googlebot min hjemmeside?

Hvis du gerne vil vide, hvor ofte Googlebot besøger/crawler din hjemmeside, kan du b.la benytte dig af Google Search Console. Via crawl-sektionen, kan du finde statistik over hvor ofte og hvornår Googlebot besøger dine sider, samt finde oplysninger om indekseringstilstanden.

Hvad er crawler budget og hvordan påvirker det min hjemmeside?

Crawler budget er antallet af sider Google crawler på dit website inden for en bestemt tidsperiode. Store websites kan ramme crawler budget grænser, hvilket betyder at nye eller opdaterede sider ikke bliver crawlet hurtigt nok. Optimer ved at fjerne duplikeret indhold, bruge robots.txt til at blokere uvigtige sider, og prioritere vigtige sider i XML sitemap.

Hvordan blokerer jeg Googlebot fra specifikke sider?

Brug robots.txt til at blokere Googlebot fra mapper eller sider: 'User-agent: Googlebot' efterfulgt af 'Disallow: /admin/'. For individuelle sider, brug meta robots tag: '<meta name="robots" content="noindex, nofollow">'. Husk at robots.txt er offentligt tilgængelig og ikke 100% sikker mod adgang.

Hvad betyder forskellige HTTP statuskoder for Googlebot?

200 OK: Side crawles og indekseres normalt. 301/302: Redirect følges til ny URL. 404: Side fjernes fra indeks efter bekræftelse. 500/503: Midlertidig fejl, Googlebot prøver igen senere. 429: For mange forespørgsler, reducer crawler hastighed. Overvåg disse i Google Search Console for at identificere problemer.

Skal jeg optimere særligt for Googlebot Mobile?

Ja! Siden Google gik over til mobile-first indeksering, bruger Googlebot primært mobile versionen til at vurdere og ranke dit indhold. Sørg for at din mobile version har samme indhold som desktop, hurtig indlæsningstid, og responsivt design. Test med Google's Mobile-Friendly Test værktøj.

Hvordan verificerer jeg ægte Googlebot besøg?

Tjek user agent strenge i server logs, men disse kan forfalskes. For verificering, lav omvendt DNS-opslag på IP-adressen - ægte Googlebot kommer fra googlebot.com eller google.com domæner. Google Search Console viser også autentificerede crawler statistikker for dit website.

🤖 Googlebot typer

Googlebot Mobile
Primær bot (mobile-first)
Googlebot Desktop
Desktop crawler backup
Googlebot Images
Billede indeksering
Googlebot Video
Video indhold crawler

⚡ Crawler budget tips

Optimer server responstid
Brug XML sitemaps
Fjern duplikeret indhold
Ret crawl fejl hurtigt
Blokér uvigtige sider
Ignorér server ydeevne

🔍 User agent guide

Googlebot/2.1

Standard web crawler

Googlebot-Image

Billede søgning crawler

Googlebot-News

Google News crawler

Googlebot-Video

Video indhold opdagelse

📋 Robots.txt guide

Grundlæggende syntaks:
User-agent: Googlebot
Disallow: /admin/
Allow: /public/
Tip: Test din robots.txt i Google Search Console

Brug for hjælp med Googlebot optimering og teknisk SEO?

Fra crawler budget optimering til komplet teknisk SEO audit og implementering - få professionel hjælp til at sikre optimal Googlebot ydeevne på dit website.