Når man arbejder med linkbuilding, er det afgørende at forstå forskellene mellem Googles indeks og de databaser, som linkanalyseværktøjer som Ahrefs, Semrush, Moz og Majestic benytter. Googles søgeindeks indeholder flere hundrede milliarder websider og har en størrelse på mere end 100.000.000 gigabytes.
Indholdsfortegnelse
Begrænsningerne ved tredjepartsværktøjer
I modsætning hertil har tredjepartsværktøjer som Ahrefs, Semrush, Moz og Majestic deres egne indekser, som er betydeligt mindre end Googles – ikke overraskende.
For eksempel har Ahrefs en database med over 12 billioner links, og Majestic rapporterer lignende tal i deres linkindeks. Selvom disse datamængder er imponerende, er de stadig kun en brøkdel af størrelsen på Googles linkgraf – grafen, der indeholder alle linkdata, som Google anvender. Den indeholder for øvrigt også data om links, der ikke længere er aktive – altså historiske linkdata!
Denne forskel i indeksstørrelse betyder, at værktøjer som Ahrefs og Semrush på ingen måde opdager alle de backlinks eller sider, som Google har indekseret eller kender til.
Googles linkdata vs. SEO-værktøjer – Pærer og bananer
Når vi sammenligner Googles indeks med værktøjer som Ahrefs, Semrush og Moz, er det vigtigt først og fremmest at slå fast, at vi ikke taler om det samme.
De forskellige værktøjer fokuserer på at rapportere links og opbygge egne databaser, mens Google arbejder med et meget større og langt mere omfattende datasæt, der dækker alle aspekter af internettet. Herudover oplyser Google ingen steder, hvor stort deres linkdatabasesæt er, men de fortæller os, hvor mange sider de har indekseret.
Hvor stort er Googles indeks egentlig?
Det er intet mindre end kolossalt. Ifølge Google selv indeholder deres indeks flere hundrede milliarder websider og fylder over 100 petabyte (det svarer til 100 millioner gigabytes).
For at forstå Googles styrke i denne sammenhæng skal man se nærmere på, hvordan de konstant opdaterer deres enorme indeks.
Google crawler internettet i realtid
Googles enorme indeks er resultatet af kontinuerlig crawling og indeksering. Googles botter gennemsøger internettet og opdaterer data i realtid. Målet for Google er at indeksere så meget af internettet som muligt, hvilket også har gjort Google til verdens største og mest omfattende database over websites og deres indhold på internettet.
Selvom værktøjer som Ahrefs, Semrush og Moz rapporterer om linkdatabaser på op til 45 billioner links, er Googles linkgraf langt større.
Her er nogle årsager til hvorfor:
- Ubegrænsede ressourcer: Google crawler hele internettet konstant uden begrænsninger i ressourcer. Deres datacentre og teknologi gør det muligt at analysere og gemme langt mere information, end noget SEO-værktøj vil have mulighed for.
- Helhedsfokus: Hvor værktøjer primært fokuserer på backlinks, registrerer Google hele internettets struktur – sider, links, billeder og filer – og lagrer historiske data for at forstå ændringer over tid.
- Privilegieret dataadgang: Google har adgang til data via deres egne tjenester som Chrome og Android, der giver dem indsigt i sider og links, som tredjepartsværktøjer ikke kan nå.
Selvom vi ikke har præcise tal for Googles totale linkgraf, er det åbenlyst, at deres datamængde overgår tredjepartsaktørerne med en betydelig margin. Google er ikke bare større – de er i en helt anden liga.
Du opererer i skyggen, hvis du stoler blindt på et enkelt tredjepartsværktøj
I praksis betyder dette, at hvis du stoler blindt på data fra disse værktøjer, kan du overse vigtige links eller sider, der påvirker din synlighed. Du har et indblik, men du ved i virkeligheden ikke, hvor stort dette indblik er. Og én ting er sikkert: Du har ikke et lige så godt indblik som Google.
Uanset hvilket værktøj du bruger, og om du bruger flere værktøjer kombineret, vil du stadig ikke have samme mængder af data at arbejde med, som Google har.
Hvordan jeg opdagede 48 oversete stærke links med Google
For at illustrere dette kan vi se på en nylig case, jeg havde, hvor et migreret website stadig havde 54 backlinks, men kun 8 af dem blev opfanget af Ahrefs broken link-værktøj, mens Google havde registreret dem alle.
Disse 54 links havde en gennemsnitlig domæneautoritet på 61, og flere af dem lå på over 80 – det højeste med en autoritet på hele 86. Du tænker måske: Hvor har han så autoriteten fra?
Domæneautoritet er jo et begreb, Ahrefs har opfundet. Og ja, tallene kommer rigtigt nok fra Ahrefs. De kender domænerne, men de kender intet til indholdet, fordi de ikke har crawlet det og derfor ikke kendte til de pågældende links.
Hvordan jeg fandt de oversete links
Men hvor fandt du dem, tænker du måske? Simpelt nok: En række 4xx-sider på et gammelt domæne, der var migreret videre til et andet. Undersøgelser af 4xx-sider i Search Console viste, at Google kendte til dem, fordi der stadig blev linket til dem fra de pågældende eksterne sider.
Derfor var det bare at gennemgå hver eneste fejlside, jeg vidste ikke havde interne links eller sitemaps pegende på sig, og plukke de mange spændende links ud for derefter at 301-redirecte dem videre til det nye domæne.
Hvorfor Search Console er uundværlig for linkbuilding, men ikke kan stå alene
Selvom Search Console kan vise dig unikke links, fungerer det ikke som et linkanalyseværktøj og bør bruges i kombination med andre.
Den almindelige linkoversigt i Search Console viser dig kun et udpluk af dine indgående links. Det har Google altid været rimeligt klare omkring, og det kan man også selv bekræfte. Så nej, du slipper ikke for et premium linkanalyseværktøj, hvis du arbejder med linkbuilding.
Anbefalinger:
- Brug flere værktøjer: Kombiner data fra forskellige link-værktøjer og Google Search Console for at få et mere omfattende overblik over dit websites linkprofil.
- Vær opmærksom på begrænsninger: Forstå, at ingen tredjepartsværktøjer har adgang til hele internettet som Google, og derfor er deres data ufuldstændige.