Chat with us, powered by LiveChat
Størrelsen betyder noget! (SEO af store websites)

Størrelsen betyder noget! (SEO af store websites)

Uanset hvad andre måtte sige, så har størrelsen en stor betydning. Sådan er det i hvert fald når det kommer til websites. Her er det nemlig langt fra ligegyldigt, om et site har et par enkelte URL-adresser, eller det har mange tusinde eller endda millioner. Store websites skal derfor også håndteres på en anden måde, end små skal.

Videointroduktion til emnet

Spillereglerne er anderledes for store websites

Hvad der kan virke som banale fejl for et mindre website, kan fuldstændigt ødelægge indeksering af et stort website. Der er markante forskelle på hvordan man udfører SEO på et stort website kontra et lille og årsagerne af mange, læs med her og blive klogere på emnet.

Definition af store websites i forhold til denne artikel
Lad os først starte med definitionen et stort website. Store websites er websites bestående af minimum 500.000 URL-adresser og i rigtig mange tilfælde op imod millioner af URL-adresser.

Derfor er store websites en udfordring ift. SEO
Websites i stor skala giver udfordringer for både webmastere og SEO-udøvere, grundet en række forskellige elementer:

Den skala et stort website repræsenterer betyder, at eksistensen af fundamentale tekniske fejl kan multipliceres af mange gange, og øge det totale antal udfordringer en søgemaskinecrawler vil opdage.

Disse udfordringer kan og vil over tid give mange udfordringer med den kvalitative vurdering af websitet som helhed, fra et Googlemæssigt perspektiv.

For det andet kan enorme websites byde på udfordringer for søgemaskinecrawlere, når de skal forstå side arkitekturen og beslutte sig for hvilke sider der skal crawles og hvor langt tid de ønsker at bruge på at crawlel websitet.

Crawl budget
Et websites crawlbudget bliver defineret ud fra to elementer, crawl rate og crawl demand. Crawl rate grænsen definerer hvor hurtigt og hvor ofte et website må crawles, denne frekvens er defineret ud fra et forsigtighedsprincip, der hedder at crawlet ikke må skade din server.

Crawl demand er derimod en sats, der definerer hvor meget Google ønsker at crawle af dit website. Denne sats er defineret ud fra populariteten af dine sider (indgående links) og hvor godt de sider der er indekseret, klarer sig i deres søgeresultater.

Crawlbudgettet er altså en kombination af disse to elementer tilsammen. Det betyder også, at for at det bliver muligt, at få indekseret et meget stort website, så skal det have mange indgående links (popularitet) og ellers vil det være svært, hvis ikke umuligt, at få det hele indekseret.

Googlebot har kun et vist crawlbudget til rådighed – når dette er brugt op, stopper Google sit crawl, uanset om Googlebot er færdig eller ej.

Der er ikke plads til alt i det synlige indeks
Selvom dit website bliver indekseret, betyder det ikke nødvendigvis at man vil kunne finde dit website i søgemaskineindekset, når der indtastes forskellige søgeord. Du vil dog altid kunne finde din side, hvis du tager en længere paragraf fra din side og søger på denne. Hvis du ikke kan finde din side ved at gøre dette, kan du være sikker på, at siden ikke er indekseret.

Der er kamp om pladserne i søgemaskinerne og ligger du ikke på første side på en given søgning, skal du ikke forvente at få nogen besøg. Det er helt normalt at en placering som nr. 14 ikke giver nogen besøg overhovedet!

Supplemental index
Google bruger desuden noget, der hedder supplemental indeks eller supplerende indeks om man vil. Her lægges alle de sider de har indekseret, som de ikke mener har den rette kvalitet til at nå ind i det rigtige søgeindeks.

Har du sider med meget lidt originalt indhold eller sider stort set uden noget indhold, men måske blot en video, er der en stor chance for, at dette ender i det supplerende indeks.

Det er ikke anbefalelsesværdigt at ligge i det supplerende indeks, det bevidner nemlig at Google ikke bryder sig om det indhold du har, og at kvaliteten er for lav. Har du sider der er af så dårlig karakter, at det lander i supplemental index, bør du sørge for at udelukke disse sider fra indekset, det andet kan skade dit website!

Det kan gøres aktivt med noindex eller brugen af eksempelvis robots.txt.

Du kan se om dit indhold er i det supplerende indeks ved at foretage en søgning som du ved du kan findes på, gå nu alle søgesiderne igennem. Hvis du finder din side inden du når til den sidste side, hvor Google viser dig en besked som den du kan se herunder, er du i det rigtige indeks:

Kan du først finde dit website, når du har sagt ja til at se flere resultater inklusive de udeladte, er den pågældende side i det supplerende indeks.

Udbredte fælder ved store websites

Hastighed og stabilitet
Dit website skal altid være tilgængeligt, også om natten – er du på en host, der ofte laver store opdateringer om natten der efterlader dit website utilgængeligt i timevis, er det om at få skiftet serverhosting med det samme. Googlebot kigger nemlig forbi hele døgnet rundt og sover ikke om natten, ligesom dine brugere måske gør.

Det samme kan gøre sig gældende, hvis der skæres på båndbredden om natten, dette er også et meget udbredt fænomen. Oplever du ofte at Googlebot eller din egen crawler får connection timeouts, connect failed, no response, connection reset, timeout mv. Skal du have kigget på din server og finde et ordentligt miljø i stedet.

Flere af ovenstående fejl kan dog også forekomme når websitet blot er for langsomt til at respondere på Googlebots forespørgsel, eksempelvis en no responce eller connect failed. Google har en tærskel for hvor lang tid de vil vente på at en given URL svarer – denne værdi er sandsynligvis dynamisk ift. det komplette crawlbudget.

Hvorimod vi med Javascript ved, at Googles præcise tærskel er lige præcis 5 sekunder og ikke et millisekund mere.

Det er dermed ufatteligt vigtigt, at ens website svarer meget hurtigt, hvis man skal gøre sig en forhåbning om at blive indekseret fuldt ud.

Fejlsider
Det er ikke for sjov, at os SEO-folk er så opmærksomme på mindre fejl på et website, i stor skala, kan de nemlig give alvorlige problemer og noget så simpelt som 4xx sider, kan blive et stort problem, når de skaleres.

Dette gælder både bløde og hårde 4xx-fejl. Bløde 4xx fejl opstår når sider på websitet ikke længere eksisterer, men ikke returnerer en 404 header statuskode. Det kan være at siden har lavet en automatisk 302 omdirigering til en anden URL-adresse, som melder status kode 200 OK, men som ikke er tilsvarende den side, der blev forespurgt på.

Du kan finde frem til bløde så vel som hårde 404 fejl i Googles Search Console, et absolut essentielt værktøj, til hvis man arbejder med store websites.

På et stort website, vil gentagne fejlsider stoppe crawling og kan dermed ødelægge indekseringen af vigtige elementer på ens website. Hvis Googlebot gang på gang støder på sider, der ikke responderer korrekt, vil de stoppe crawlet af den enkelte række af sider i crawlkøen og forsøge igen en anden gang. Bliver fejlsiderne ved med at være til stede, er der en stor chance for, at Google aldrig kommer forbi dem også selvom Googlebot ofte starter sine crawls fra forskellige indgangsvinkler.

Duplikeret indhold
En af de største syndere for indekseringsblokering på store websites er ikke overraskende duplikeret indhold. Duplikeret indhold kommer i mange forskellige størrelser, den mest udbredte og mest kendte form for duplikeret indhold er når et website kopierer tekst fra et andet website og poster det samme indhold på deres platform.

Men mindre elementer som duplikerede sidetitler og duplikerede meta-beskrivelser kan på store websites skabe mindst lige så mange udfordringer. Årsagen til dette er at Google først og fremmest scanner head på et dokument, inden de går i gang med at scanne resten af dokumentet. Opstår samme sidetitel og meta-beskrivelse om og om igen, kan Googlebot fejlagtigt gå ud fra, at der er tale om samme side og samme indhold også selvom dette ikke er tilfældet.

Ovenstående scenarie er dog heldigvis en af de nemmere at løse, der skal blot udarbejdes automatiske regler for skrivning af unikke sidetitler og meta-beskrivelser, for alle sider på websitet. Det hører dog til sjældenhederne at jeg kan konstatere at et website, har 100% styr på ovenstående.

Duplikeret indhold sætter Googlebot på prøve

Duplikeret indhold sætter Googlebot på prøve

Subdomæner og protokoller
Problemer med valg af et primært domæne, for eksempel brugen af både http og https og/eller non-www og www, kan give mange versioneringer af hver eneste side på et website.

Svarer URLs med forskellige subdomæner og protokoller, vil der blive skabt et utal af variationer af sider på websitet og får Googlebot først fat i en forkert URL og kan fortsætte ud af samme sti, så har man pludseligt en ekstra versionering indekseret af dele eller hele websitet.

Tager man ej heller forbehold for brugen af små og store bogstaver i URLs, og er det muligt at kalde en side ved ændring af et enkelt bogstav til kapital, så kan et utal af versioneringer også indekseres på denne bekostning. Et enkelt link, som eksempelvis eksempel.dk/Link kan altså skabe en ekstra versionering, hvis man ikke har sikret sine URLs.

Og hvor links kommer fra, der linker forkert er ligegyldigt, for Google følger de links de falder over, så det behøves ikke være internt på websitet, at linket er sat forkert, førend det kan indekseres af Googlebot og dermed skabe et duplikat.

Tyndt indhold
Sider der byder på meget lidt til slet ingen værdi, kaldes i fagsprog for tyndt indhold. Eksempler på dette kunne være en side med et billede og intet andet, som vi kender det fra mange CMSer der skaber indholdssider, til billeder, der kan indekseres – en funktion blandt andet WordPress benytter sig af, hvis man ikke får det slået fra eller påsat noindex på siderne, disse sider kaldes i WordPress for attachments URLs og der genereres en til flere for hvert eneste billede man har, alt efter opsætning.

Billeder må gerne indekseres, naturligvis, da vi gerne vil have disse indekseres, men det skal være selve billederne der indekseres, ikke sider, der indeholder billedet, en fuldstændig overflødig funktion, der skaber en side for hvert eneste billede for et website.

Man kan eksempelvis bruge Yoasts SEO Plugin, til at sætte et redirect på disse attachments. Hvis man tror at det ikke kan skabe problemer, at få disse indekseret, er det bare om at hoppe ud i Google og søge på ”Yoast Image attachments issue”.

Du vil finde ufatteligt mange artikler og tråde fra 2018, hvor Yoast igennem en opdatering, kom til at slå denne funktion fra – hvis du selv kører WordPress, er der en god chance for du kan huske episoden, den fik nemlig ikke bare lidt, men stor opmærksomhed, netop grundet dens voldsomme indvirken på mange websites.

Opdateringen gjorde at rigtigt mange store websites, mistede store dele af deres synlighed i de organiske resultater, mens meget mindre sider, var fuldstændigt upåvirket. Årsagen? De store sider fik tusindvis af nye sider indekseret, sider der blot var tyndt indhold, mens mindre sider, fik langt færre nye redundante sider indekseret.

Igen, var udfordringen altså mængderne og dermed den store ændring, der pludseligt slog ud under et crawl for Googlebot.

Yoast var hurtig til at udgive et ekstra plugin, der sørgede for at ordne problematikken – men udfordringerne var så alvorlige for nogle websites, at fikset ikke blot var en genetablering af noindex på disse sider, men påsættelse af en 410 gone status på alle disse sider, således at Googlebot, med det samme de recrawlede siderne, smed siden ud af deres indeks.

410: Page Deleted or Gone

410: Page Deleted or Gone

Et andet eksempel kunne være en side, der blot viser en video, uden dertilhørende indhold som Google kan bruge til at matche siden mod en given forespørgsel.

Anderledes brug af blokeringer
Arbejder man på meget store websites, kan parametre blive et stort problem, grundet de mange kombinationsmuligheder – i nogle tilfælde kan et forsøg på at crawle en række parametre, fuldstændigt opsluge crawlbudgettet. Det kunne eksempelvis være ved kombination af farve, størrelse, materiale mv.

Ofte vil man blot bruge noindex eller canonical på denne type af sider, men på meget store websites, kan det ofte betale sig helt at blokere for crawling af siderne igennem robots.txt. Dette for at sikre at Googlebot ikke bruger unødvendige ressourcer på en del af et website, som alligevel ikke skal indekseres.

På et stort website, er det ikke unormalt at der kan genereres flere millioner variationer af URLs igennem en række parametre, det er utroligt mange sider for Googlebot at tage stilling til, særligt, når vi alligevel ikke ønsker dem i deres søgeresultater.

Har man decideret problemer med crawlbudget, som mange rigtigt store websites har, så kan brugen af robots.txt, til at begrænse mængden af sider, være et super effektivt værktøj.

Store websites kan give store problemer – og store muligheder

Sidder du med et stort website, er der altså en god sandsynlighed for at du sidder med nogle store problemer. Det er meget tænkeligt, at problemerne rent faktisk i sig selv er små, men på grund af sitets størrelse bliver de store. Det er ofte nemt, at finde de store problemer, det kræver ikke så meget erfaring.

Men at finde de små problemer der vokser sig større, det er straks en anden sag, og noget der kræver viden og mange års erfaring. En læge kan nemt finde og diagnosticere et åbent benbrud, men er det en lille knogle, der er brækket inde i benet, er sagen en anden, men begge dele kan gøre, at du ikke kan gå.

Jeg vil gerne hjælpe med at give dit website ben at gå på, ja faktisk vil jeg gerne have det til at sprinte. Så lad mig kigge på det, og se om de små problemer ikke kan udvikle sig til at blive nogle store muligheder.

Værdien af URL-mentions vil stige (Implied links)

Værdien af URL-mentions vil stige (Implied links)

Links har længe været fundamentet for gode placeringer i søgemaskiner, lige siden Googles begyndelse. Dette skyldes Googles fokusering på netop links, og muligheden for igennem disse at beregne en kvalitetsscore, der kunne bruges til at skabe et retvisende hierarki af Internettet i søgemaskiner.

Links forbinder hele Internettet og det giver perfekt mening, at de websites der gør det godt, har flest links pegende på sig.

Verden har dog ændret sig og alle der ved lidt om SEO, forstår den dag i dag vigtigheden af links og dermed også værdien af links. I takt med at forståelsen for værdien af links vinder frem, er det blevet markant sværere at opnå naturlige links til ens website.

Derfor er Google også nødt til konstant at være på forkant og tilpasse deres popularitetsalgoritmer, hvis de skal være retvisende for siders reelle popularitet.

Derfor er Google også nødt til i større stil at lytte mere til andre signaler som co-occurunce, co-citation og URL-mentions!

Hvad er linkløse mentions?

En mention er som navnet antyder en benævnelse. Inden for SEO bruger vi ordet mentions om alle de benævnelser et website får, hvor der ikke er et aktivt link til stede.

Det vil med andre ord sige, at websitets navn bliver nævnt, men uden at brugeren har et klikbart link til rådighed, der kan føre brugeren videre til det omtalte website.

Fænomenet kaldes også for implied links eller underforståede links, det ligger altså i kortene, at der lige så godt kunne have været tale om et link – men at det aktive link, ikke er til stede af den ene eller anden årsag.

Tæller mentions med i Googles popularitetsanalyser?

Ikke hvis man læser det oprindelige PageRank-patent. Her er det en forudsætning, at der er et link til stede. Det er ganske enkelt det, der skaber grobund for den kalkulerede score og intet andet.

Det oprindelige PageRank-patent blev udarbejdet tilbage i 1998 af Googles skabere, Larry Page og Sergey Brin. Der er sket meget siden dengang. Her 22 år efter ville det være naivt at tro på, at der ikke var lavet talløse ændringer til denne primære og første sorteringsmotor i Google.

Google har samtidig af et par omgange, været ude og udtale sig om fænomenet.

Nævnes i forbindelse med Panda og Quality Raters

Hvis man læser patentet for Googles første større kvalitetsopdatering, Google Panda, vil man se, at der refereres til underforståede links og ”ekspreslinks”.

Ekspreslinks bliver defineret som værende links, en bruger kan klikke på mens underforståede links defineres som værende en reference til en målressource uden et aktivt link. Begge værdier bruges til at beregne værdi for en given side.

Vi ved også fra Google Quality Rater Guidelines at Quality Raters skal vurdere personer og websiders omdømme ud fra benævnelser rundt omkring på Internettet.

Googles Gary Illyes har været ude og sige følgende:

Hvis du publicerer høj kvalitetsindhold, der bliver citeret på Internettet, og jeg taler ikke bare om links, men også benævnelser på sociale netværk, at folk snakker om dit brand, ting som det. Så gør du det storartet.Googles Gary Illyes

Slutteligt, har jeg selv for godt 10 år siden, sammen med min daværende kollega Søren Riisager været med til at udføre en klinisk SEO-test.

Her fik vi igennem en række tests bekræftet, at Google følger benævnelser af URLs uden aktive links og indekserer siderne der nævnes. Så allerede dengang fulgte Google altså mentions som de følger andre links.

Hvorfor er det blevet sværere at få indgående links til sit website?

Google har selv været med til at påvirke webmasters lyst til at linke ud, ved blandt andet at frigive linkspamalgoritmer som Penguin, der med et ændrede den måde hvor på mange opfattede et link.

Pludselig kunne et link være farligt og direkte skadeligt og selvom penguin ikke straffer for udgående links, har det sat en generel frygt i folk og dermed gjort, at mange tænker sig om en ekstra gang, inden de indsætter link.

Det har ført til en stor stigning i brugen af det der kaldes mentions eller implied links og derfor giver det perfekt mening, at Google kommer til at kigge mere og mere på disse, når de skal udregne et websites popularitet.

Andre årsager til at Google ikke kun kan være afhængig af aktive links:

  • Begrænset udvalg af almen presse (I et land som Danmark er der bare begrænset dækning)
  • Flere websites gør brug af betalingsmure (Og links herfra har ingen værdi for dit website, udover naturligvis eventuel direkte trafik)
  • Offentlige websites, offentlig tilhørighed, linker kun til andre offentlige institutioner
  • Linkpolitikker såsom automatiske nofollow på alle udgående links (Tænk Forbes, Entrepeneur, Wikipedia) eller ingen links til kommercielle interesser (Tænk eks dr.dk)
  • Markant stigning i brugen af sociale medier hvor Google har meget lille indsigt
  • Mængden af nichemedier falder i takt med at flere og flere bruger sociale medier til at skabe fællesskaber i stedet for almindelige websites

Du kan derfor være meget sikker på, at værdien af implied links eller URL mentions, vil stige de næste par år.

Har dit website flere hundrede indgående links, vil det også have mange implied links og hvis disse ikke er til stede, er det ret nemt at konkludere, at linkprofilen nok ikke er videre naturlig.

Udover at værdien af mentions vil stige, vil vi også se at Google læner sig mere og mere op af to andre målepunkter, co-citation og Co-Occurence, disse kan du læse mere om i denne artikel, jeg udarbejdede tilbage i 2016: Google & links, nu og i fremtiden.

Såden får du indekseret nyt indhold med det samme

Såden får du indekseret nyt indhold med det samme

Publicerer du indhold, er det afgørende hurtigt at få det ud i Googles indeks, særligt hvis der er tale om nyheder. I denne artikel, lærer du hvordan du kan bygge en publiceringsbooster til dit website, der sikrer dig lynhurtig indeksering af alle artikler du udgiver.

Publiceringsmaskinen

Det setup jeg gerne vil beskrive for dig, har jeg brugt af mange omgange, første gang for mere end 8 år siden og det virker stadig lige så godt, som dengang.

Det handler om at gøre brug af syndikeringstjenester, til at opbygge en maskine, der syndikerer alt dit indhold, ikke bare af en enkelt omgang men af flere omgange. Så hvis du tror denne artikel blot handler om hvordan du tilmelder dit artikelunivers til en RSS-parser, tager du heldigvis fejl.

Hvad er en RSS-parser website?

Et RSS parser website, er et website som syndikerer RSS feeds fra en masse forskellige hjemmesider. Ofte vil de være delt op i forskellige kategorier, så brugere nemmere kan scanne indholdet igennem ved at klikke lidt rundt på websitet.

For nogle år siden, havde vi langt flere af denne type sider i Danmark, den dag i dag har vi kun få til rådighed, men de udenlandske er i princippet lige så gode er benytte til formålet, da mange af dem har danske sektioner, herudover handler øvelsen om hurtig indeksering.

Hvad sker når man udgiver en artikel og man er tilmeldt et RSS-parser website?

Når du på din blog eller din hjemmeside udgiver noget nyt indhold, pinger du RSS-websitet, som så trækker en snippet fra dit feed, så vel som titlen på dit indlæg eller din nye side.

Dette bliver nu vist som helt almindelig HTML, du får altså en beskrivende tekst (din snippet), som kort forklarer hvad indlægget handler om og så får du et link der peger ind på din artikel/side, med din titel som ankertekst. Hvis du indarbejder vigtige ankertekster i dine artiklers titler (hvilket du bør), får du altså ankeroptimerede backlinks til din artikel/side.

Bliver mine uddrag ikke begravet i mængden på RSS-parser websitet?

Jo, men besøgende fra RSS-parser websitet er ikke formålet med syndikeringen, dit indlæg vil hurtigt bliver begravet i mængden, men Google skal nok være i stand til at finde dit indhold. Google besøger meget ofte denne slags sider, netop fordi, der deles meget nyt indhold og det derfor er en smart måde, at finde nyt indhold på.

På nogle af de forskellige websites, er links nofollowed, det skal du ikke tage dig af, det er stadig et link, det bekræfter hvad artiklen/siden handler om og så sikrer det lynhurtig indeksering.

Mange af de større RSS websites, som ikke er på dansk, har landekategorier så du kan få dine snippets og links ind under en kategori med andre danske blogs.

Opskrift på simpel publicerings-booster

Det første du skal gøre, er at sikre, at dine indlæg/artikler/sider udgives i et RSS-feed, det er dette feed, du skal bruge, til at tilmelde dine publikationer, til de forskellige sider.

Du har med meget stor sandsynlighed, allerede adgang og gør brug af feeds. Prøv at indtaste /feed efter dit artikelunivers URL. Eksempelvis: https://www.henrik-bondtofte.dk/feed/, som viser alle mine artikler på min personlige blog (hvis du benytter Chrome),

Hvis du får et svar og en liste med artikelnavne og uddrag for dine artikler, som ovenstående, er du klar til at gå i gang. Hvis du ikke har adgang til denne funktion, kører du sandsynligvis et andet system end WordPress.

Hvis dette ikke kan klares nemt igennem et plugin, må du selve kode funktionen eller få din udvikler til det.

Herefter tilmelder du dit website, et par RSS-parser websites.

Feed på feeds

Mange publiceringstjenester tilbyder et feed til dit feed hos dem! Det betyder, at du kan få en URL, som du kan tilmelde til andre RSS-parsers, som så linker tilbage til RSS-parser siden, med alle dine resultater (links og uddrag).

Denne øvelse kan du lave med hvert RSS-parser website, der tillader dette.

Fidusen er at Google hele tiden bliver tvunget til at tage stilling til dine RSS-feeds, da der kontinuerligt linkes til dem, fra andre RSS-parsers.

Kædes det hele sammen, kan du være sikker på dine RSS-parser profilsider/lister, bliver besøgt meget ofte!

Herudover linker de andre RSS-parser sider tilbage til din URL, hvor dine links er på, det betyder at du tier linkbuilder. Du gør siden, der linker til dine indlæg stærkere, og du gør det ovenikøbet helt automatisk.

Du sikrer samtidig løbende links til siden, hver gang du publicerer noget, ligesom du også sikrer flere links til dine endelige destinations URLs på dit website.

RSS-parser domæne

Næste skridt er, at du indkøber et domæne, der selv skal være et RSS-parser website, dette website skal dog kun bestå af feeds, fra dine egne sider og feeds til dine andre RSS-parser website profiler.

Opret et sigende domæne, der matcher dit overall-emne. Skriver du om mobiltelefoni, kunne domænet eksempelvis hedde mobilnyhederne.dk.

Style siden så den ser flot og brugbar ud. Installer nu her efter et RSS-parser feed plugin. Du kan eksempelvis bruge dette plugin til formålet eller finde et andet: https://wordpress.org/plugins/wp-rss-aggregator/

Efter du har opsat dit RSS-parser website

Du har måske allerede luret den, men du skal selvfølgelig sørge for, at dit nye syndikeringsfeed website også publicerer alt som indlæg og at det også parser til et RSS-feed. Du skal nemlig også tilmelde dit nye RSS-parser website, hvis eneste formål er at linke til dine artikler og andre parser-website profiler til RSS-parser websites.

Du bør tilmelde det til alle de RSS-parser websites du overhovedet kan finde.

Her er vi ude i et andet led og du kan derfor bruge så mange udenlandske RSS-parser websites som du overhovedet ønsker.

Vi skal have volumen på og vi er udelukkende på udkig efter rå linkværdier, der kan overføres til vores feed site, så det kan videreformidle denne værdi, efter at den har ”hvidvasket” linksne, ved at agere mellemled til det primære website.

Du kan i princippet blive ved på denne facon. Mit største setup indebar hele 4 manuelt opsatte RSS-parser websites, der alle var tilmeldt til alle andre RSS-parser websites.

Flere af RSS-parser websitesnes begyndte at rangere udmærket i søgeresultaterne, på trods af det var rene snippets med link videre til en helt anden destinationsURL.

Samtidig sikrede det ikke overraskende, at Google opdagede hver eneste publicering få sekunder til minutter efter det blev udgivet. Hvilket resulterer i næsten omgående indeksering af indhold.

RSS-parser websites

  • https://www.linkfeed.dk/tilmeld-link
  • http://www.rssmicro.com/feedsubmit.web
  • https://www.rss-nachrichten.de/rss-eintragen/
  • https://www.blogs-collection.com/submit/submit-blog.php
  • http://www.blogdirectory.ws/suggest-listing.php?id=0
  • http://www.blogrollcenter.com/add_site.htm
  • http://sportsblogs.org/suggestion2.php (sport)
  • http://feedbucket.com/
  • http://www.feedlisting.com/
  • http://ngoid.sourceforge.net/sub_rss.php
  • http://www.plazoo.com/en/addrss.asp
  • http://www.postami.com/rss_submit_service.php

Ekstra-tip – kan også bruges til produkter (Webshop)

Du kan selvfølgelig også lave RSS feeds over nye produkter og løbende opdatere feedet. Dette vil sikre hurtig indeksering af produkter.

Sådan genetablerer du tabt ekstern linkværdi uden værktøjer

Sådan genetablerer du tabt ekstern linkværdi uden værktøjer

Arbejdet med at bygge links, er både hårdt og tidskrævende. Derfor er det også umådeligt vigtigt, at man sikrer de indgående links, der peger ind på ens website og sørger for, at der ikke bliver lukket ned for sider, med indgående links. Bliver sider der er blevet linket til fjernet eller slettet, går den værdi, der ellers ville flyde igennem linket tabt. I denne artikel lærer du, hvordan du får genetableret gamle tabte eksterne links – uden brug af dyre værktøjer. (mere…)

Lever dine landingssider op til brugernes forventninger?

Lever dine landingssider op til brugernes forventninger?

Det er praktisk talt muligt at få alt til at rangere, i hvert fald i en kortere periode. Årsagen til dette skal findes i, at Google kigger på en lang række kriterier, når et website først og fremmest skal oparbejde sig igennem søgeresultaternes hierarki. Når resultatet først er landet på forsiden, skal det stå sin prøve over for ægte brugere, og det er i virkeligheden her, slaget går sin gang. (mere…)