Dyb læring er en gren af kunstig intelligens (AI) og en underkategori af maskinlæring, der efterligner den måde, mennesker opnår visse typer viden på. Tænk på det som en slags meget avanceret form for efterligningsspil, hvor computeren prøver at efterligne, hvordan mennesker tænker og lærer. I dyb læring bruges noget, der kaldes neurale netværk, som er stærkt inspireret af menneskets hjerne. Disse netværk består af lag på lag af “neuroner” – små softwareenheder, der kan lære at genkende mønstre. Jo flere lag, desto dybere er læringen, og derfor kommer navnet “dyb” læring.

TL;DR – Hurtig opsummering

Dyb læring: En avanceret form for maskinlæring, der bruger neurale netværk til at efterligne den menneskelige hjernes evne til at genkende mønstre og lære fra data.
Anvendelser: Brugt til komplekse opgaver som ansigtsgenkendelse, personlig tilpasning af søgeresultater og fake news-bekæmpelse.
Søgemaskiner og relevans: Dyb læring hjælper søgemaskiner som Google med at forstå hensigten bag komplekse søgeforespørgsler og levere mere præcise resultater.
Historiske opdateringer: Google-opdateringer som RankBrain og BERT er baseret på dyb læring og har forbedret søgeresultatets relevans gennem sprogforståelse.
Fremtiden: Forventes at spille en endnu større rolle i AI’s udvikling, hvilket kan føre til endnu mere præcise og kontekstuelle søgeresultater.

Med dyb læring kan maskiner lære at udføre komplekse opgaver ved blot at observere og analysere data. Det kan være alt fra at genkende dit ansigt, når du låser din iPhone op, til at forudsige, hvilken ny serie du vil se på Netflix næste gang. Tidligere skulle man bruge eksperter, for at kunne trække forståelse ud af komplekse datasæt. Med dyb læring kan maskiner hjælpe med at forstå og udnytte data.

Hvordan fungerer dyb læring?

Forestil dig et lille barn, der lærer at genkende dyr. Ved at se på billeder og få feedback bliver barnet bedre og bedre til at identificere dem. Dyb læring fungerer på samme måde. Ved at fodre systemet (barnet) med masser af data (som billeder af dyr) og fortælle det, hvad det ser (dette er en kat, her ser du en hund), bliver det bedre til at genkende mønstre og danne forudsigelser baseret på disse.

Søgemaskiner og dyb læring

Søgemaskiner og i den betragtning særligt Google, har i mange år benyttet sig af maskin læring men også af dyb læring. Et eksempel på dette kunne være overgangen fra søgeord til forståelse af søgehensigten bag en søgning. Med dyb læring har søgemaskiner udviklet sig til at forstå sprog på næsten samme måde som et menneske ville gøre det.

De kan forstå den underliggende betydning af en søgning, hvilket betyder, at de kan levere resultater, der er mere relevante for hensigten bag den, ikke bare for de specifikke søgeord der er indtastet. Hvilket var hvordan søgemaskiner fungerede inden denne overgang, kontekstuelle matchingmaskiner.

Forbedring af søgeresultaterne

Ved at anvende neurale netværk, ligesom de, der bruges i dyb læring, kan søgemaskiner analysere enorme mængder data og lære fra dem. Dette betyder, at de bliver bedre og bedre til at forudsige, hvilke sider man vil finde nyttige, baseret på tidligere søgeadfærd og baseret på resultaterne af millioner af andre brugere.

Personlige søgeoplevelser

Det er også på grund af dyb læring søgemaskiner kan tilbyde personlige søgeresultater. Ved at lære fra dine tidligere søgninger og klikhistorik, kan en søgemaskine tilpasse de informationer, den viser dig, altså et personligt tilpasset resultat.

Bekæmpelse af fake news

En af de største udfordringer på internettet i dag er fake news. Dyb læring giver søgemaskiner mulighed for at identificere og nedjustere synligheden af falske nyheder og upålidelige kilder i deres søgeresultater. Ved at analysere mønstre i sprogbrug koblet sammen med information kan systemerne blive bedre til at skelne mellem troværdigt og ikke troværdigt indhold.

I fremtiden, vil vi sandsynligvis, se søgemaskiner, der ikke bare finder information – de forstår den. De vil potentielt set kunne tilbyde svar på spørgsmål, vi endnu ikke har stillet.

Google opdateringer hvor dyb læring spillede en større rolle:

RankBrain (2015)

Google begyndte at bruge dyb læring til at forstå brugerens intention bag søgeforespørgsler. Formålet var at forbedre evnen til at matche sider med brugernes søgeforespørgsler, særligt for nye eller meget sjældne sete søgeforespørgsler. Google blev altså i stand til at give et kvalificeret gæt på hvad det var en bruger søgte efter. Rankbrain anvender neurale netværk til at fortolke sprog og kontekst, hvilket i sidste ende giver mere relevante søgeresultater.

BERT (Bidirectional Encoder Representations from Transformers) (2019)

En teknik til naturlig sprogforståelse, der anvender dyb læring til at forstå sammenhængen og nuancer i brugeres søgeforespørgsler. Formålet var at forbedrer forståelsen af komplekse søgeforespørgsler og gøre det muligt for Google at levere mere præcise svar på disse. BERT-modellen analyserer ord i en søgeforespørgsel i forhold til alle de andre ord, i stedet for ét ad gangen, hvilket giver en større forståelse af forespørgslen.