Hvad er dyb læring?
Dyb læring er den del af AI der for alvor har ændret mit syn på hvad computere kan. Det er en underkategori af maskinlæring der bygger på neurale netværk med mange lag, og jo flere lag du tilføjer, jo mere komplekse mønstre kan systemet genkende. Derfor hedder det dyb læring. Ikke fordi det er dybtfølt, men fordi netværkene er dybe.
Jeg husker da det gik op for mig hvor kraftfuld teknologien er. Det var da jeg så et AI-system generere billeder der lignede fotografier, og tænkte det kan ikke passe. Men det kunne det. Og det byggede på dyb læring.
Med dyb læring kan maskiner gøre ting der for 10 år siden virkede som science fiction. Genkende dit ansigt når du låser din iPhone op. Forudsige hvilken serie Netflix anbefaler dig. Oversætte mellem sprog i realtid. Generere tekst og billeder. Alt det bygger på dybe neurale netværk der er trænet på massive datamængder. Tidligere sad eksperter og trak forståelse ud af data manuelt, nu gør maskinerne det arbejde, og de gør det bedre.
Indholdsfortegnelse
Hvordan fungerer dyb læring?
Jeg forklarer det altid med barnet og dyrene. Et lille barn lærer at genkende en kat ved at se mange katte og få at vide ‘det er en kat’. Over tid bliver barnet bedre og kan genkende katte det aldrig har set før. Dyb læring fungerer præcis sådan. Du fodrer systemet med masser af data, billeder eller tekst eller lyd, og fortæller det hvad det ser. Systemet finder selv mønstrene og bliver gradvist bedre.
Forskellen fra almindelig maskinlæring er dybden. Hvor et simpelt neuralt netværk måske har et eller to skjulte lag, kan et dybt netværk have hundredvis. Hvert lag lære at genkende lidt mere komplekse mønstre, fra simple kanter i et billede til hele ansigter. Nu flere lag, nu dybere læring.
Søgemaskiner og dyb læring
Google har brugt dyb læring i årevis, og det er her jeg virkelig mærker det i mit daglige arbejde. Det store skift var da søgemaskiner gik fra ren søgeord-matching til faktisk at forstå hvad brugeren mener. Det er dyb læring der gør det muligt.
Synes du det er svært at finde relevante linkbuilding-medier? Så prøv Bazoom – en af verdens største handelspladser for linkbuilding. Her finder du relevante medier fra stort set alle lande, opdelt efter sprog, kategori og domæneautoritet. Brug koden Bondtofte1500 og få 1.500 kr. i sign-up bonus (mod normalt 750 kr.).
Før dyb læring var Google i bund og grund en kontekstuel matchingmaskine. Du skrev nogle ord, Google fandt sider med de ord. Simpelt, men dumt. Nu forstår Google betydningen bag din søgning og kan levere resultater der svarer på dit spørgsmål, selvom siderne ikke indeholder de præcise ord du søgte på. Det har ændret SEO fundamentalt.
Forbedring af søgeresultaterne
Neurale netværk analyserer milliarder af søgninger og lærer fra dem. De bliver bedre til at forudsige hvilke sider du finder nyttige, baseret på din adfærd og resultaterne af millioner af andre brugeres søgninger. Det er en feedback-loop der konstant forbedrer sig selv.
Personlige søgeoplevelser
Dyb læring gør det muligt for Google at tilpasse søgeresultaterne til dig specifikt. Din søgehistorik, dine klik, din lokation, alt sammen fodres ind i modellerne og påvirker hvad du ser. Det er derfor to personer der søger på det samme kan få vidt forskellige resultater. Som SEO-konsulent er det en udfordring jeg skal tage højde for dagligt.
Bekæmpelse af fake news
Falske nyheder er et reelt problem, og dyb læring hjælper søgemaskiner med at identificere og nedprioritere upålidelige kilder. Systemerne analyserer sprogmønstre, kildekvalitet og en masse andre signaler for at vurdere troværdighed. Det er ikke perfekt, langt fra, men det er bedre end alternativet.
Jeg tror fremtidens søgemaskiner ikke bare finder information, men rent faktisk forstår den. Vi er allerede godt på vej.
Google opdateringer hvor dyb læring spillede en større rolle:
RankBrain (2015)
RankBrain var det øjeblik hvor Google for alvor begyndte at bruge dyb læring i søgning. Formålet var at forstå hvad brugeren egentlig mente, særligt for søgninger Google aldrig havde set før. Og det virker. RankBrain bruger neurale netværk til at fortolke sprog og kontekst, og det giver resultater der faktisk matcher intentionen bag søgningen. Da jeg første gang læste om RankBrain tænkte jeg at det her kommer til at ændre alt ved SEO. Og det havde jeg ret i.
BERT (2019)
BERT, Bidirectional Encoder Representations from Transformers, er Googles dyb læring model til at forstå sprog. Det smarte ved BERT er at den analyserer alle ord i en søgning samtidigt, i stedet for ét ad gangen. Så den forstår at ‘fange en bus’ og ‘fange en fisk’ er helt forskellige ting, fordi den ser hele konteksten. BERT-modellen gav en markant forbedring i Googles evne til at forstå komplekse søgninger, og det er noget jeg kan se direkte i mine kunders data.
Kilder og referencer
- Google AI Blog: BERT
Googles annoncering af BERT-opdateringen
blog.google/products/search - DeepLearning.AI
Andrew Ng kurser i dyb læring
deeplearning.ai - MIT Deep Learning Book
Grundbog i dyb læring fra MIT
deeplearningbook.org