📈 Henrik Bondtofte

SEO-ekspert, AI-specialist & forfatter

Bedre placeringer i Search Console? Ren illusion

📅 Publiceret 2. januar 2026 👤 Af Henrik Bondtofte 🏷️ SEO , Teknisk SEO , Tracking 💬 0 kommentarer ⏱️ 6 min. læsning

Du har meget sikkert bemærket det. Tilbage i september i år steg dine gennemsnitsplaceringer i Google Search Console. Ved første øjekast ser det jo rigtig godt ud. Problemet? Det er blot Google, der har fjernet muligheden for at trække 100 paginererede resultater, og det har ændret måden, din data bliver målt på.

Hvad er &num=100?

Tidligere kunne du tilføje &num=100 i en URL på en Google søgning, hvilket fik Google til at vise op til 100 resultater på en enkelt side i stedet for at sprede resultaterne ud over de sædvanlige 10 sider.

Det har, ikke overraskende, været effektivt for dem, der scraper Googles søgeresultater. Både deciderede scraping-værktøjer, men også rank-trackere. En enkelt forespørgsel, og du fik hele top 100 serveret i ét enkelt svar. Hurtigt, billigt og effektivt.

Det betød også, at sider, der lå på f.eks. position 79, stadig blev registreret som værende “set” i Search Console. Der var altså ikke tale om rigtige brugere, men bare forespørgsler fra værktøjer i langt de fleste tilfælde.

Ja, men hvor er mine visninger så blevet af?

De var der slet ikke til at begynde med. Eller det var de, men de var ikke fra rigtige mennesker. Og det er netop derfor, du ser et stort fald i antallet af visninger, men samtidig ser en øget gennemsnitsplacering.

Der er færre “visninger” af dine resultater længere tilbage i SERPs, og da disse dårligere placeringer nu ikke kommer med i Search Console, ser du ikke længere visninger for de søgeord. Du ser nu kun de søgeord, som brugere rent faktisk ser i Googles søgeresultater, og de visninger, det fører med sig.

Linkbuilding gjort nemt – Anbefaling
Tilmeld dig Bazoom her

Synes du det er svært at finde relevante linkbuilding-medier? Så prøv Bazoom – en af verdens største handelspladser for linkbuilding. Her finder du relevante medier fra stort set alle lande, opdelt efter sprog, kategori og domæneautoritet. Brug koden Bondtofte1500 og få 1.500 kr. i sign-up bonus (mod normalt 750 kr.).

Google slukkede for muligheden. Og har længe snakket om det

Scraping af Googles søgeresultater har altid været imod deres retningslinjer. Det gælder uanset hvordan du gør det, og hvor forsigtigt du gør det. Men Google har aldrig håndhævet det.

Tværtimod har de i årevis set gennem fingre med, at ranktrackere og SEO-værktøjer brugte &num=100 til at hente top 100. Men nu er det slut. Og det handler næppe om os SEO-folk, for så var det sket for længst.

Det mest sandsynlige er, at Google forsøger at bremse de nye sprogmodeller (LLMs), der begynder at scrape deres søgeresultater for at træne egne systemer. Ranktrackers er altså bare collateral damage i det større spil.

Hvorfor dine placeringer ser bedre ud

Lad os tage et eksempel.

Før ændringen:

Din side lå nr. 5 og nr. 92 på to forskellige søgninger.

Scraperen trak begge med, og begge blev registreret som “vist”.

Gennemsnitspositionen blev 48,5.

Efter ændringen:

Kun den side på position 5 bliver reelt vist, fordi ingen klikker sig til side 10.

Resultat: Gennemsnitsposition 5.

Og ja, det ser bedre ud, men i virkeligheden er intet ændret. Du har bare mistet en masse falske impressions fra bots og scraping-værktøjer.

Hvad betyder det for dig?

I det hele taget betyder det ikke det store for dig i dit daglige arbejde, medmindre du bruger impressions eller gennemsnitlig position som en del af dine KPI’er. Hvis du stadig vil benytte disse som KPI, skal du blot huske, at du kun har retvisende sammenligningsdata fra september 2025 af.

Herudover har du nu blot færre, men mere reelle tal at forholde dig til.

Og hvad med værktøjerne?

Da Google fjernede &num=100-parameteren, tvang det hele branchen tilbage til tegnebrættet, og nu skal der i stedet laves 10 separate kald. Et kald for hver eneste SERP-side, hvilket gør tracking markant tungere, langsommere og selvfølgelig også dyrere at drive. Derfor var der også store forventninger om prisstigninger, da denne ændring først blev frigivet.

Ahrefs har netop implementeret en workaround, hvor deres system automatisk henter og samler de første 10 SERP-sider for at genskabe et komplet top 100. Det er langt mere komplekst end at hente en enkelt side, men resultatet er, at du igen kan se 1-100 placeringer i deres ranktracker.

Danske AccuRanker har også ændret deres tilgang, men har dog valgt en lidt mere ressourcestabil løsning. De tracker top 30 dagligt, så frekvensen er høj på det, der betyder mest, og så opdaterer de top 100 to gange om måneden. Hvilket både reducerer belastning og samtidig sikrer, at du ikke mister det strategiske overblik over lavere placeringer.

Semrush, SE Ranking, Moz og andre arbejder med lignende løsninger.

De fokuserer primært på daglig tracking af top 10–30, fordi det er her brugerne klikker og kigger. Dybere placeringer end det håndteres via paginerede fetches ved behov, og ofte med markant lavere opdateringsfrekvenser eller som del af en premium-funktion. Jeg tror selv på, at sidste del bliver mere og mere udbredt.

Bottom line?

  • Ingen værktøjer har længere direkte adgang til 100 resultater i ét hug.
  • Top 100-data kræver nu 10 separate kald, og det skalerer dårligt i stor skala.
  • Det påvirker hyppighed, præcision og pris. Især for lange keywordlister.

Så selvom Ahrefs og AccuRanker teknisk har fået top 100 tilbage, er det ikke som før. Det er en workaround, og det ændrer stadig måden, vi skal tolke og bruge rank-data på fremadrettet.

Så hvad gør du i stedet?

Sæt fokus på dét, der betyder noget. Konverteringer. Trafik og placeringer kan i princippet være ligegyldigt. Det bør ikke være dit mål med SEO. Hvilket du kan læse meget mere om i min artikel om, at SEO ikke handler om at rangere, men at konvertere.

author avatar
Henrik Bondtofte SEO-specialist & strateg med fokus på AI og retrieval
Henrik Bondtofte er en af Danmarks mest erfarne SEO-specialister med over 20 års praktisk erfaring. Han står bag flere anerkendte fagbøger om SEO, linkbuilding og interne links og er forfatteren bag denne blog, hvor han deler sine erfaringer.

Indsend Kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *