Hvis du vil have gode placeringer i søgeresultaterne, er links den vigtigste faktor. Arbejdet med at skaffe links kaldes linkbuilding og denne disciplin har ændret sig meget de sidste par år. Arbejdet med links vil ændre sig mindst lige så meget de kommende år. Læs med her og få mine bud på hvordan fremtidens linkbuilding kommer til at fungere i praksis.

Googles succes er baseret på links
Det der i sin tid gjorde Google bedre end alle andre søgemaskiner, var deres PageRank-algoritme.  Algoritmen pålagde enkelte sider en værdi, baseret på hvor mange der linkede til den givne side, samt hvor mange links de sider der linkede selv, havde pegende ind på sig. Med andre ord var det: en matematisk formel der udregner popularitet på sideniveau.

Det betød, at Google udover at kigge på indhold på hjemmesider også kunne give dem en vurdering, ud fra hvor populære de måtte være og hæve placeringerne på de sider, som syntes mere populære end andre. Der blev skabt et hierarki på Internettet, hvor vinderne rent teoretisk, skulle være de mest populære websites, inden for deres respektive brancher og emner.

Her af udsprang ikke overraskende disciplinen linkspam, noget Google har kæmpet med lige siden. De første mange år af Googles levetid, var det i den grad nemt, at manipulere med deres søgeresultater, det hele handlede blot om mængden af links, relevans mv. var mindre vigtigt og indholdet på en side, måtte også vige vejen for mere linktunge sider – uagtet kvaliteten af disse.

Det betød også, at Google i en årrække var sat ind i spam, noget de for øvrigt stadig er, men i langt mindre grad end tidligere. Google er nemlig blevet meget bedre, til at detektere spam og har forbedret den oprindelige PageRank algoritme af flere omgange. Herudover er der kommet mange nye tilføjelser, både i form af helt nye algoritmer, men også omskrivning af selve kernen og introduktionen af en lang række filtre, der trækkes henover det første sæt af resultater, der genereres til søgeresultaterne.

Nemmere at bekæmpe spam end identificere gode links
Google er på ingen måder perfekt. Selvom de altid har været afhængige af linkanalyser, for at generere et godt søgeresultat, har de haft voldsomme problemer med at vurdere kvaliteten af links. Hvornår er et et link tematisk korrekt? Kommer linket fra en troværdig kilde? Er linket redaktionelt eller er det måske købt? Det er bare et par af de ting, Google skal tage højde for i deres udregninger, som danner grundlag for placeringer.

Manipulation vil stort set altid indeholde en eller anden form for mønster. Har man en naturlig linkprofil, vil der ikke på samme måde være et, for en maskine, letgenkendeligt mønster. Her vil linkprofiler til en vis udstrækning differentiere en del. Det betyder også, at det er nemmere at identificere spam og dermed dårlige links. Kan man fjerne sider, der ranker godt på dette grundlag, har man pludselig et renere resultat, også selvom man ikke er blevet bedre til at analysere på links.

Googles løsning på dette var Google Penguin, der blev frigivet tilbage i 2012 – siden Penguin kom til, har linkbuilding ændret sig markant.

Google bliver mindre afhængige af links

Som tidligere nævnt er Googles succes som søgemaskine forankret i deres linkpopularitetsanalyser. Derfor vil Google fortsat være afhængige af links til at vurdere vigtigheden af en given side, men Google har i mange år arbejdet på at blive bedre til at vurdere vigtigheden af sider helt uden brugen af links.

Google har eftersignede også testet deres indeks, hvor de fuldstændigt så bort fra links, men udelukkende vurderede websites på alle andre parametre de måler på. Ikke overraskende, var disse resultater ikke brugbare, dette gav Google selv udtryk for.

Der findes på nuværende tidspunkt allerede to målepunkter, der kan bruges til netop dette og som Google allerede bruger aktivt. Det er mit bud, at Google vil begynde at pålægge disse målepunkter langt højere værdi, mens de gradvist nedjusterer værdien fra rigtige links.

Co-Occurence
Co-occurence er et koncept, der referer til fælles tilstedeværelse, frekvensen af tilstedeværelse, samt nærheden af fælles søgeord, fra et stort udtræk af forskellige websites. Co-occurence kan indeholde søgeord, der er nært beslægtede hinanden og baseret på samme emne, men som ikke nødvendigvis er identiske.

Co-occurence er ikke fuldstændigt linkafhængigt, det betyder også at websites med færre links, kan udrangere sider med flere indgående links, hvis den opfattes mere relevant. Dette kan eksempelvis forekomme, hvis en bruger indtaster samme søgning, to gange, hvor forespørgslen er let omformuleret.

Co Occurrence
Co Occurrence

Co-citation
Co-citation finder sted, når et website bliver nævnt, men der ikke nødvendigvis linkes til det og at det bliver nævnt af mindst to forskellige kilder med sammenligneligt indhold. Tanken er, at nu oftere et website nævnes eller henvises til, nu mere stiger websitets autoritet, og der er altså tale om endnu en måde at verificere autoriteten af en given hjemmeside på.

Co-citation bruges på nuværende tidspunkt sandsynligvis også til at spotte fabrikerede linkprofiler, har et website rigtig mange indgående links, men nævnes ikke sammen med andre websites fra samme branche, fremstår det ikke naturligt.

Co Citation
Co Citation

URL-Mentions
Et populært website vil ofte blive nævnt på Internettet, men hver benævnelse vil på ingen måde være med et aktivt link, ofte nævnes sidens URL eller domænets navn blot, uden et aktivt link.

Ikke overraskende, er der ikke mange der arbejder på at skaffe deciderede mentions af deres hjemmesider, da alle gerne vil have et aktivt link. Derfor er jeg også ret overbevist om at Google vil begynde at kigge meget mere på antallet af mentions og prøve at pålægge en højere score til rene mentions, der ikke er formateret som et aktivt hyperlink.

Vi ved ikke på nuværende tidspunkt hvor stor vægt mentions gives, men vi ved, at Google følger mentions, og derfor også forstår, at der rent faktisk er tale om links. For fire år siden kørte jeg et eksperiment med SEO-konsulent Søren Riisager fra Webjuice, der søgte at bevise at Google fulgte URL-mentions og forsøget lykkedes.

Vi har siden dette forsøg, ikke været i tvivl om, at mentions har noget at sige, spørgsmålet er bare hvor meget kontra et normalt link, mit bud er at det nok tæller 5-10% af et rigtigt link, men at denne fordeling vil ændre sig meget i fremtiden og at vigtigheden vil stige markant.

Ankertekster
En ankertekst er den tekst, der er markeret som et aktivt hyperlink. Det kan for eksempel være ’klik her’ eller ’læs mere her’. En ankertekst fortæller desuden søgemaskinerne hvad den side, der linkes til, omhandler. Derfor er de bedste links ofte dem, der er meget beskrivende i ankerteksten, og dem som bruger dit primære søgeord eller indeholder det, som ankertekst.

Søgemaskiner har i den grad brugt dette signal, til at vurdere hvordan en side skal rangere på et specifikt søgeord. Google har været ekstremt afhængige af ankertekster og også i alt for stor grad. Noget de uden tvivl, har arbejdet meget på de sidste par år, ikke mindst ved at introducere Google Penguin, der i den grad, kigger på ankertekster på links, for at vurdere om de er reelle, eller om der er tale om manipulation.

Ankertekster virker stadig og har stadig en ret stor effekt på placeringer i søgeresultaterne, men de er blevet langt farligere at arbejde med. Et godt råd, er at kun 20% af dine indgående links er med stærkt optimerede ankertekster ellers er chancen for en linkstraf stor. Hvis du vil være på den sikre side, bør du allerede nu slå ankertekster ud af hovedet. Jeg er ikke et sekund i tvivl om, at ankertekster helt er på vej ud af Googles algoritme.

Mit bud er at ankertekster er fuldstændigt overflødige for Google i løbet af to til tre år og at de herefter kun bruger ankertekster, til at finde spammere. Spørgsmålet er også, om ankertekster i realiteten ikke allerede er overflødige, da Google er blevet langt bedre til at forstå og bearbejde indhold, derfor er også i stand til at forstå hvad der linkes fra og hvad der linkes til, og om der en sammenhæng, samt hvad de enkelte dokumenter omhandler og dermed hvilke søgeord og søgefraser, indholdet bør rangere højere på, på baggrund af linket.

Sociale anbefalinger og links

Sociale Medier er ikke noget nyt fænomen, men vores brug af dem er eksploderet de sidste par år. Faktisk bruger vi mere tid på de sociale medier end noget andet online. Det betyder også, at mange aktiviteter så som at dele artikler og hjemmesider, man finder interessant, i stor grad er rykket fra hjemmesiderne og diverse fora og ind på de sociale medier. Her deler brugere flittigt, alt det de finder interessant, med venner, bekendte og andre man måtte være forbundet med.

Derfor giver det også rigtig god mening, for Google og andre søgemaskiner, at tælle links og anbefalinger fra sociale medier, som en slags links, for det er jo i bund og grund det samme.

Anbefalinger fra Sociale Medier
Anbefalinger fra Sociale Medier

Desværre har Google ikke adgang til de sociale medier på samme måde, som almindelige websites, da det meste foregår i logget ind tilstand. Derfor har søgemaskiner også problemer med at følge med i, hvad der bliver delt og anbefalet. Der er nogle få medier, der tillader adgang, men de helt store medier, gør ikke og har du ikke adgang til data fra de største medier, har du ikke et repræsentativt billede af befolkningen – hvilket betyder, at data ikke er pålidelige.

Ikke pålidelige data, kan naturligvis ikke indarbejdes i en popularitetsalgoritme, der skal diktere placeringer i søgeresultaterne. Derfor bruger Google også i meget lille udstrækning de sociale medier til at finde indhold. Om de overhovedet pålægger nogen værdi til links og anbefalinger på sociale medier, er tvivlsomt. Ifølge Google selv, pålægger de dem ingen værdi.

Men hvad med i fremtiden?
Google vil med allerhøjeste sandsynlighed prøve at lave aftaler med en række sociale medier, for at få bedre og dybere adgang og dermed indsigt i mediernes brugere og deres ageren her på.

Google har allerede en sådan aftale med Twitter, og det er da også derfor, at man så ofte falder over tweets fra Twitter i søgeresultaterne. Google har simpelthen købt sig adgang, til at crawle Twitter igennem – dette ikke mindst for at sikre sig alle de seneste nyheder, Twitter er stadig det medie, hvor det seneste nye, bryder ud først og netop derfor, er Twitter også et umådeligt vigtigt medie for Google.

Den største problematik er og bliver Facebook, Google og Facebook er indædte konkurrenter og det er tvivlsomt om Google nogensinde vil være i stand til at få en ordentlig aftale igennem med Facebook, der gør det muligt for Google at følge ordentligt med. Facebook-boblen er ifølge mange eksperter, allerede sprunget, brugere har efterhånden forstået at Facebook er et medie som så mange andre, en virksomhed, der ønsker overskud til dens aktionærer. Personlige og private-delinger, som var det der gjorde Facebook unikt, sammenlignet med andre sociale medier, er nemlig ved at dø ud.

Hvis Facebook mister mere og mere momentum, er der en åbning på bede for en aftale med Google, hvis Facebook mister deres dominans, kan de have langt større interesse i at indgå en aftale, der gør at langt større dele af Facebook indekseres og dermed bliver muligt at finde i Google. Flere indekserede Facebook-sider vil give en masse søgemaskinetrafik til Facebook.

Dermed mener jeg, at det er et spørgsmål om tid, før de to mastodonter mødes på midten og kommer til enighed omkring en eller anden form for samarbejde. Om det bliver næste år eller om tre år, tør jeg dog ikke forudsige.

Links der giver besøg, vil altid forøge rankings

Fremadrettet vil det være de links, der også medfører besøgende, der vil tælle i linkregnskabet. De links, som man selv kan gå ud og oprette, til højre og venstre, på diverse linksider, linkkataloger, firmakataloger mv. vil holde op med at virke på sigt. Den type links er også det, man kalder for ”acquired links”, netop fordi man går ud og skaffer dem fremfor at gøre sig fortjent til dem.

Det betyder ikke, at du skal holde op med at arbejde med acquired links, for de virker den dag i dag, og de vil fortsat virke i lang tid endnu og virker en taktik, skal den ikke lægges på hylden endnu. Du bør dog være opmærksom på, at dine placeringer ikke vil stå for evigt, hvis du ikke gør dig fortjent til links og helt naturligt modtager links fra andre websites.

Hvis du har brug for inspiration til acquired links, kan du melde dig ind i Linkklubben, hvor du får fire nye linkmuligheder hver eneste måned, så kan du bruge din fokus på at gøre dig fortjent til links i stedet for at bruge tid på at finde linkmuligheder.

Konklusion
Links bliver mindre og mindre vigtige, men er stadig den dag i dag, det vigtigste parameter for gode placeringer, dette billede vil med tiden ændre sig. Ankertekster vil dø helt ud som rankingsignal og vil udelukkende fungere som sladrehank til Google og konkurrenter, lidt ligesom den funktion meta-keywords har i dag, engang var de skælsættende og uhyre vigtige og i dag er de fuldstændigt overflødige, i hvert fald når snakken falder på de store etablerede søgemaskiner, der opererer i Europa.

Vi vil i stigende grad se sider med fantastisk og gennemarbejdet indhold rangere langt højere, og siderne vil sandsynligvis ikke have tusindevis af links pegende ind på sig, men vil servicere brugerne i en sådan grad, at de er langt mere tilfredse med resultatet, end det der leveres den dag i dag. Google vil opnå den funktionalitet, ved hele tiden at forbedre den måde de analyserer brugernes adfærd på og den måde de håndterer det på.

Deeplinks vil få mindre betydning, mens et websites totale autoritet vil få langt mere at sige. Det ses allerede i søgeresultaterne nu, de store og etablerede websites ligger placeret godt på meget konkurrenceprægede søgeord, uden et eneste deeplink, men med masser af autoritet.

Links vil stadig være vigtige i forhold til at få indekseret et website, Googlebot følger links og vil fortsætte med at følge links som små vejskilte, som de altid har gjort, men vil pålægge antallet af skilte en mindre værdi, sammenlignet med kvaliteten af de steder, skiltene peger hen.