SEO
25 min read

Hoe Google Search ranking werkt? Een technische gids

Gepubliceerd
September 5, 2024
Auteur
Bob Pieterse

Het is inmiddels wel duidelijk dat de gelekte Google-documentatie en openbare stukken uit antitrustzaken niet precies onthullen hoe de rangschikking daadwerkelijk wordt bepaald. De structuur van organische zoekresultaten is tegenwoordig zo complex – mede door de inzet van machine learning – dat zelfs de engineers die aan de algoritmes werken niet altijd kunnen uitleggen waarom een bepaalde pagina op nummer één of twee staat. De precieze weging van de vele signalen en hun onderlinge werking blijft grotendeels onbekend.

Toch is het cruciaal om enig inzicht te krijgen in de opbouw van de zoekmachine om te begrijpen waarom goed geoptimaliseerde pagina's soms niet scoren, terwijl korte en ogenschijnlijk niet-geoptimaliseerde resultaten juist bovenaan kunnen eindigen. Het belangrijkste hierbij is om je perspectief te verbreden en te kijken naar wat echt van belang is.

Alle beschikbare informatie wijst hierop. Iedereen die zich bezighoudt met rankings zou deze inzichten moeten integreren in hun eigen strategie. Het kan je helpen om je websites op een geheel andere manier te bekijken en nieuwe metrics te betrekken in je analyses, plannen en beslissingen.

De informatie op het web over deze systemen varieert sterk in interpretatie, en de gebruikte terminologie kan soms verwarrend zijn, zelfs wanneer hetzelfde wordt bedoeld.

Een voorbeeld hiervan is het systeem dat verantwoordelijk is voor het optimaliseren van de ruimte op een zoekresultatenpagina, dat soms Tangram wordt genoemd en in andere gevallen Tetris, mogelijk als verwijzing naar het bekende spel.

Na weken van intensief onderzoek en analyse van bijna 100 documenten, is dit artikel tot stand gekomen. Het doel is niet om uitputtend of volledig nauwkeurig te zijn, maar om een zo compleet mogelijk beeld te schetsen op basis van de beschikbare informatie, aangevuld met een gezonde dosis onderzoeksdrang.

Een nieuw document in afwachting van Googlebot

A graphic of how Google Search ranking works.

Wanneer je een nieuwe website publiceert, verschijnt deze niet direct in de index van Google. Eerst moet Google op de hoogte worden gebracht van de nieuwe URL. Dit gebeurt meestal via een geüpdatete sitemap of door een link op een reeds bekende URL. Veelbezochte pagina’s zoals de homepage helpen dit proces te versnellen.

Het crawlersysteem van Google haalt nieuwe content op en bepaalt wanneer de URL opnieuw bezocht moet worden om eventuele updates te controleren. Dit wordt geregeld door een onderdeel dat de scheduler wordt genoemd. De server beslist vervolgens of de URL wordt doorgestuurd naar de index of in een zogeheten sandbox wordt geplaatst.

Hoewel Google ontkent dat er een sandbox bestaat, suggereren recente lekken dat verdachte sites en sites van lage kwaliteit hierin worden ondergebracht. Het is ook bekend dat Google sommige spam-URL's doorstuurt voor verdere analyse, vermoedelijk om de algoritmen te trainen.

Stel dat ons hypothetische document deze eerste fase doorkomt. Alle uitgaande links worden dan geëxtraheerd en gesorteerd op basis van interne of externe verwijzingen. Deze informatie wordt door andere systemen gebruikt voor bijvoorbeeld linkanalyse en de berekening van PageRank (hierover later meer).

Afbeeldingen worden doorgegeven aan de ImageBot, die ze opvraagt en opslaat, soms met vertraging. Vervolgens worden ze, samen met vergelijkbare beelden, in een beeldcontainer geplaatst. De crawler past zijn eigen PageRank toe om te bepalen hoe vaak een website moet worden gecrawld. Websites met meer verkeer worden vaker gecontroleerd (ClientTrafficFraction).

Alexandria: De grote digitale bibliotheek

An example of Alexandria URL collection.

Google’s indexeringssysteem, bekend als Alexandria, wijst een unieke DocID toe aan elk stukje content dat het tegenkomt. Als de inhoud al bekend is, bijvoorbeeld bij duplicaten, wordt er geen nieuwe ID aangemaakt; in plaats daarvan wordt de bestaande URL gekoppeld aan een reeds bestaande DocID.

Het is belangrijk om te begrijpen dat Google onderscheid maakt tussen een URL en een document. Een document kan uit meerdere URL's bestaan, bijvoorbeeld als dezelfde content in verschillende talen beschikbaar is en correct is gelabeld. Ook URL's van andere domeinen kunnen aan hetzelfde document worden gekoppeld. Alle signalen van deze URL's worden dan toegepast op die gemeenschappelijke DocID.

Wanneer het gaat om dubbele content, kiest Google de meest relevante of canonieke versie, die dan zichtbaar wordt in de zoekresultaten. Dit verklaart waarom andere URL's soms op een vergelijkbare positie kunnen verschijnen; de keuze voor de 'originele' URL kan in de loop van de tijd veranderen.

In het geval van ons document, dat uniek is op het web, krijgt het een eigen DocID toegewezen. Vervolgens worden specifieke delen van onze site doorzocht op relevante zoekwoordzinnen, waarna deze in de zoekindex worden geplaatst. Hier wordt eerst een "hitlijst" samengesteld, die alle belangrijke woorden op de pagina samenvat en ze in de directe index plaatst.

Een cruciale stap volgt hierop: de afzonderlijke zoekwoorden worden opgenomen in het omgekeerde indexsysteem, waar ze worden toegevoegd aan een woordenlijst. Zo wordt bijvoorbeeld het woord "potlood," dat prominent aanwezig is in ons document, gekoppeld aan onze DocID in deze index.

De DocID wordt vervolgens voorzien van een algoritmisch berekende IR-score (information retrieval) voor het zoekwoord "potlood." Deze score wordt later gebruikt om te bepalen waar ons document terechtkomt in de zogenaamde Posting List. Wanneer het zoekwoord extra benadrukt is, zoals vetgedrukt in de tekst of opgenomen in een H1-kop, kan dit de IR-score verhogen.

Documenten die als belangrijk worden beschouwd, worden verplaatst naar het HiveMind, het hoofdgeheugen van Google. Voor langetermijnopslag van minder urgente gegevens gebruikt Google zowel SSD's als traditionele harde schijven, die binnen het systeem bekend staan als TeraGoogle. Dit uitgebreide netwerk zorgt ervoor dat miljoenen geheugenmodules naadloos kunnen samenwerken.

Interessant genoeg schatten experts dat, voordat de AI-boom begon, ongeveer de helft van de wereldwijde webservers bij Google waren ondergebracht. Een enorm netwerk van met elkaar verbonden clusters maakt het mogelijk om gigantische hoeveelheden data gezamenlijk te verwerken. Een ingenieur van Google heeft zelfs eens opgemerkt dat, in theorie, Google’s hoofdgeheugen voldoende capaciteit heeft om het hele web op te slaan.

Een belangrijk detail is dat links, inclusief backlinks, die worden opgeslagen in het HiveMind, aanzienlijk zwaarder meewegen. Links van belangrijke documenten krijgen meer gewicht, terwijl links van URL's die in TeraGoogle (HDD) zijn opgeslagen mogelijk minder zwaar worden meegenomen of zelfs volledig genegeerd kunnen worden.

Tip: Zorg ervoor dat je documenten voorzien zijn van plausibele en consistente datumwaarden. Data zoals BylineDate (datum in de broncode), syntaticDate (uit de URL of titel geëxtraheerde datum) en semanticDate (datum afgeleid uit de tekst) spelen hierbij een rol.

Het manipuleren van de datum om actualiteit te simuleren kan leiden tot een lagere ranking. De attributen lastSignificantUpdate registreren wanneer de laatste belangrijke wijziging in een document is doorgevoerd. Kleine correcties of het aanpassen van typfouten hebben geen invloed op deze teller.

Aanvullende signalen en gegevens voor elke DocID worden dynamisch opgeslagen in de repository, bekend als PerDocData. Veel systemen kunnen hier later toegang toe krijgen bij het verder verfijnen van relevantie. Het is handig om te weten dat de laatste 20 versies van een document hier worden bewaard (via CrawlerChangerateURLHistory).

Google heeft de mogelijkheid om wijzigingen in documenten door de tijd heen te beoordelen. Als je van plan bent om de inhoud of het onderwerp van een document drastisch te veranderen, zou je in theorie 20 tussentijdse versies moeten creëren om de oude signalen te overschrijven. Dit is de reden waarom het heractiveren van een verlopen domein, bijvoorbeeld een domein dat ooit actief was maar later is verlaten of verkocht, geen voordeel biedt in termen van ranking.

Als de eigenaar (Admin-C) van een domein verandert en tegelijkertijd de inhoud een nieuwe richting opgaat, kan dit gemakkelijk worden herkend door Google's systemen. In dat geval worden alle signalen teruggezet naar nul, en het oude domein biedt geen voordelen meer ten opzichte van een volledig nieuw geregistreerd domein.

QBST: Iemand zoekt naar 'potlood'

Wanneer iemand "potlood" intypt in Google als zoekterm, komt het QBST-systeem in actie. Deze zoekopdracht wordt geanalyseerd en, indien het meerdere woorden bevat, worden de relevante termen naar de omgekeerde index gestuurd om daar de juiste resultaten op te halen.

Het proces van termweging is bijzonder complex en maakt gebruik van geavanceerde systemen zoals RankBrain, DeepRank (voorheen bekend als BERT), en RankEmbeddedBERT. De belangrijke termen, zoals "potlood," worden vervolgens doorgestuurd naar de Ascorer voor verdere verwerking.

Ascorer: De ‘groene ring’ ontstaat

De Ascorer haalt de top 1.000 DocIDs voor het zoekwoord "potlood" uit de omgekeerde index, gerangschikt op basis van de IR-score. In interne documenten wordt deze lijst aangeduid als een "groene ring," binnen de industrie beter bekend als een posting list.

De Ascorer maakt deel uit van een rankingsysteem genaamd Mustang, waarin verdere filtering plaatsvindt via methoden zoals deduplicatie met behulp van SimHash (een soort documentfingerprint), passage-analyse en systemen voor het herkennen van originele en waardevolle content. Het doel is om de 1.000 kandidaten terug te brengen tot de uiteindelijke "10 blauwe links" of de "blauwe ring."

Op dit moment staat ons document over potloden op de 132e plaats in deze lijst. Zonder verdere systemen zou dit zijn definitieve positie zijn.

Superroot: Van 1.000 naar 10!

Mustang generates Superroot example.

Het Superroot-systeem is verantwoordelijk voor het her-rankeren van de resultaten en zorgt ervoor dat de "groene ring" (1.000 DocIDs) wordt gereduceerd tot de "blauwe ring" met slechts 10 resultaten.

Twiddlers en NavBoost voeren deze taak uit. Er zijn waarschijnlijk nog andere systemen in gebruik, maar hun precieze werking is onduidelijk vanwege de beperkte informatie.

Het is belangrijk op te merken dat Google Caffeine, zoals het ooit bestond, niet langer in deze vorm bestaat. De naam is wel gebleven, maar Google werkt nu met een groot aantal microservices die met elkaar communiceren en attributen genereren voor documenten. Deze attributen worden als signalen gebruikt door verschillende ranking- en her-rankingsystemen en zijn cruciaal voor het trainen van de neurale netwerken om voorspellingen te doen.

Filter na filter: De Twiddlers

Twiddler types

Uit diverse documenten blijkt dat er honderden Twiddler-systemen in gebruik zijn. Je kunt je een Twiddler voorstellen als een plug-in, vergelijkbaar met die in WordPress.

Elke Twiddler heeft een specifiek doel en is zo ontworpen dat het relatief eenvoudig te creëren is, zonder dat de complexe algoritmes in Ascorer aangepast hoeven te worden.

Het aanpassen van deze algoritmes is namelijk een uitdaging en zou veel planning en programmering vereisen vanwege mogelijke bijwerkingen. Twiddlers daarentegen werken parallel of opeenvolgend en zijn zich niet bewust van de activiteiten van andere Twiddlers.

Er zijn in principe twee soorten Twiddlers.

PreDoc Twiddlers kunnen werken met de gehele set van honderden DocIDs omdat ze weinig tot geen aanvullende informatie nodig hebben.

Aan de andere kant zijn er "Lazy" Twiddlers die meer informatie nodig hebben, bijvoorbeeld uit de PerDocData-database. Dit duurt dus langer en is complexer.

Om die reden verminderen de PreDocs eerst de posting list tot aanzienlijk minder entries, waarna de tragere filters worden ingezet. Dit bespaart een enorme hoeveelheid rekenkracht en tijd.

Sommige Twiddlers passen de IR-score aan, hetzij positief, hetzij negatief, terwijl andere direct de rankingpositie wijzigen. Aangezien ons document nieuw is in de index, kan een Twiddler die bedoeld is om nieuwe documenten een betere kans te geven, bijvoorbeeld de IR-score met een factor 1,7 vermenigvuldigen. Hierdoor zou ons document kunnen stijgen van de 132e naar de 81e positie.

Een andere Twiddler bevordert diversiteit (strideCategory) in de SERPs door documenten met vergelijkbare inhoud te devalueren. Hierdoor verliezen enkele documenten voor ons hun positie, waardoor ons potlooddocument 12 plaatsen stijgt naar positie 69. Bovendien zorgt een Twiddler die het aantal blogpagina’s voor bepaalde zoekopdrachten beperkt tot drie, ervoor dat onze ranking verder stijgt naar 61.

Ons document heeft een nul ontvangen (voor "Ja") voor het attribuut CommercialScore. Het Mustang-systeem herkende een commercieel doel tijdens de analyse. Google weet waarschijnlijk dat zoekopdrachten naar "potlood" vaak gevolgd worden door verfijnde zoekopdrachten zoals "potlood kopen," wat wijst op een commerciële of transactionele intentie. Een Twiddler die rekening houdt met deze zoekintentie, voegt relevante resultaten toe en verhoogt onze pagina met 20 plaatsen, waardoor we stijgen naar positie 41.

Een andere Twiddler komt in actie en legt een "pagina drie penalty" op die pagina's waarvan wordt vermoed dat ze spam zijn, beperkt tot een maximale rang van 31 (pagina 3). De beste positie voor een document wordt gedefinieerd door het attribuut BadURL-demoteindex, dat voorkomt dat een document boven deze grens rankt. Attributen zoals DemoteForContent, DemoteForForwardlinks en DemoteForBacklinks worden voor dit doel gebruikt. Hierdoor worden drie documenten boven ons gedegradeerd, waardoor onze pagina stijgt naar positie 38.

Ons document had ook gedevalueerd kunnen worden, maar om het eenvoudig te houden, gaan we ervan uit dat het niet wordt aangetast. Laten we nog één Twiddler overwegen die beoordeelt hoe relevant onze potloodpagina is voor ons domein op basis van embeddings. Aangezien onze site zich uitsluitend richt op schrijfinstrumenten, werkt dit in ons voordeel en beïnvloedt dit 24 andere documenten negatief.

Stel bijvoorbeeld een prijsvergelijkingssite voor met een breed scala aan onderwerpen, maar met één "goede" pagina over potloden. Omdat het onderwerp van deze pagina sterk verschilt van de algemene focus van de site, zou het door deze Twiddler gedevalueerd worden.

Attributen zoals siteFocusScore en siteRadius geven deze thematische afstand weer. Hierdoor wordt onze IR-score opnieuw verhoogd, en andere resultaten worden verlaagd, waardoor we stijgen naar positie 14.

Zoals eerder vermeld, dienen Twiddlers een breed scala aan doeleinden. Ontwikkelaars kunnen experimenteren met nieuwe filters, vermenigvuldigers of specifieke positieregelingen. Het is zelfs mogelijk om een resultaat specifiek voor of achter een ander resultaat te plaatsen.

Een van Google’s gelekte interne documenten waarschuwt dat bepaalde Twiddler-functies alleen door experts en na overleg met het kernzoekteam mogen worden gebruikt.

Daarnaast zijn er Twiddlers die alleen annotaties maken en deze toevoegen aan de DocID op weg naar de SERP. Zo kan er bijvoorbeeld een afbeelding verschijnen in de snippet, of kunnen de titel en/of beschrijving later dynamisch worden herschreven.

Als je je afvroeg waarom tijdens de pandemie je nationale gezondheidsautoriteit (zoals het Amerikaanse ministerie van Volksgezondheid) consequent bovenaan stond bij COVID-19 zoekopdrachten, dan was dat te danken aan een Twiddler die officiële bronnen versterkt op basis van taal en land met behulp van queriesForWhichOfficial.

Je hebt weinig controle over hoe Twiddler je resultaten herschikt, maar het begrijpen van de werking kan je helpen om ranking schommelingen of "onverklaarbare rankings" beter te interpreteren. Het is waardevol om regelmatig de SERP’s te bekijken en de soorten resultaten te noteren.

Let bijvoorbeeld op of je consequent een bepaald aantal forum- of blogposts ziet, zelfs bij verschillende zoekopdrachten. Hoeveel van de resultaten zijn transactioneel, informatief of navigatief? Komen dezelfde domeinen herhaaldelijk voor, of variëren ze met kleine veranderingen in de zoekterm?

Als je merkt dat er slechts een paar online winkels in de resultaten worden opgenomen, kan het minder effectief zijn om te proberen te ranken met een vergelijkbare site. Richt je in plaats daarvan op meer informatiegerichte content. Maar trek niet te snel conclusies, want later bespreken we het NavBoost-systeem.

Google’s kwaliteitsevaluatoren en RankLab

Wereldwijd werken duizenden kwaliteitsevaluatoren voor Google om specifieke zoekresultaten te beoordelen en nieuwe algoritmes of filters te testen voordat ze 'live' gaan.

Hoewel Google verklaart dat hun beoordelingen geen directe invloed hebben op de ranking, hebben deze evaluaties wel degelijk een aanzienlijke indirecte impact op de zoekresultaten.

Hier is hoe dat werkt: Raters ontvangen URL's of zoektermen vanuit het systeem en beantwoorden vooraf bepaalde vragen, meestal op mobiele apparaten.

Ze kunnen bijvoorbeeld gevraagd worden: "Is het duidelijk wie deze content heeft geschreven en wanneer? Heeft de auteur professionele expertise op dit gebied?" De antwoorden op deze vragen worden opgeslagen en gebruikt om machine learning-algoritmen te trainen. Deze algoritmen analyseren de kenmerken van goede en betrouwbare pagina's in tegenstelling tot minder betrouwbare.

In plaats van dat de Google-zoekteams zelf criteria opstellen voor rangschikking, gebruiken de algoritmen deep learning om patronen te herkennen, gebaseerd op de trainingen van menselijke beoordelaars.

Laten we dit met een gedachte-experiment verduidelijken. Stel je voor dat mensen intuïtief content als betrouwbaar beoordelen als deze voorzien is van een foto van de auteur, de volledige naam en een link naar een LinkedIn-profiel. Pagina's zonder deze kenmerken worden als minder betrouwbaar ervaren.

Als een neuraal netwerk wordt getraind met diverse pagina-kenmerken samen met deze "Ja" of "Nee" beoordelingen, zal het deze eigenschap herkennen als een belangrijke factor. Na verschillende positieve testfases, die doorgaans minimaal 30 dagen duren, kan het netwerk deze eigenschap gaan gebruiken als een rankingsignaal. Hierdoor kunnen pagina's met een auteursfoto, volledige naam en LinkedIn-link een hogere ranking krijgen, mogelijk via een Twiddler, terwijl pagina's zonder deze kenmerken worden gedevalueerd.

De officiële verklaring van Google dat auteurs geen focus hebben, kan in dit scenario passen. Toch onthullen gelekte informatie bronnen zoals het attribuut isAuthor en concepten zoals "auteur fingerprinting" via het AuthorVectors attribuut, dat de idiolect (het individuele taalgebruik en formuleringen) van een auteur onderscheidbaar of herkenbaar maakt – wederom via embeddings.

De beoordelingen van de raters worden samengesteld tot een "informatie tevredenheid" (IS) score. Hoewel veel raters bijdragen, is een IS-score slechts beschikbaar voor een klein deel van de URL's. Voor andere pagina's met vergelijkbare patronen wordt deze score geëxtrapoleerd voor rangschikking.

Google merkt op: "Veel documenten hebben geen klikken maar kunnen toch belangrijk zijn." Wanneer extrapolatie niet mogelijk is, stuurt het systeem automatisch het document naar raters om een score te genereren.

De term "gouden" wordt genoemd in relatie tot kwaliteitsevaluatoren, wat suggereert dat er een gouden standaard kan zijn voor bepaalde documenten of documenttypen. Het is aannemelijk dat het afstemmen van je content op de verwachtingen van menselijke testers kan helpen je document aan deze gouden standaard te laten voldoen. Bovendien is het waarschijnlijk dat één of meerdere Twiddlers een aanzienlijke boost geven aan DocIDs die als "gouden" worden beschouwd, wat ze mogelijk in de top 10 kan brengen.

Kwaliteitsevaluatoren zijn doorgaans geen fulltime Google-medewerkers en werken mogelijk via externe bedrijven. In tegenstelling hiermee opereren Google’s eigen experts binnen het RankLab, waar ze experimenten uitvoeren, nieuwe Twiddlers ontwikkelen en evalueren of deze of verfijnde Twiddlers de kwaliteit van de resultaten verbeteren of enkel spam filteren.

Bewezen en effectieve Twiddlers worden dan geïntegreerd in het Mustang-systeem, waar complexe, rekenintensieve en onderling verbonden algoritmen worden gebruikt.

Maar wat willen gebruikers? NavBoost biedt de oplossing!

Click data has an enormous ranking impact.

Ons document over potloden is nog niet volledig geslaagd. Binnen Superroot speelt een ander kernsysteem, NavBoost, een belangrijke rol in het bepalen van de volgorde van zoekresultaten. NavBoost gebruikt "slices" om verschillende datasets te beheren voor mobiel, desktop en lokale zoekopdrachten.

Hoewel Google officieel heeft ontkend gebruikersklikken te gebruiken voor rankingdoeleinden, onthullen FTC-documenten een interne e-mail waarin wordt gesteld dat het omgaan met klikgegevens vertrouwelijk moet blijven.

Dit moet niet tegen Google worden gebruikt, want de ontkenning van het gebruik van klikgegevens betreft twee belangrijke aspecten. Ten eerste zou het erkennen van het gebruik van klikgegevens de media kunnen provoceren tot verontwaardiging over privacykwesties, waarbij Google wordt neergezet als een "data-octopus" die ons online gedrag volgt. Echter, de bedoeling achter het gebruik van klikgegevens is om statistisch relevante metrics te verkrijgen, niet om individuele gebruikers te monitoren. Hoewel voorstanders van gegevensbescherming dit anders kunnen zien, helpt dit perspectief om de ontkenning te verklaren.

FTC-documenten bevestigen dat klikgegevens worden gebruikt voor rankingdoeleinden en noemen daarbij het NavBoost-systeem (54 keer in de hoorzitting van 18 april 2023). Een officiële hoorzitting in 2012 onthulde ook dat klikgegevens invloed hebben op de rangschikking.

Het is vastgesteld dat zowel het klikgedrag op zoekresultaten als het verkeer op websites of webpagina's invloed hebben op de rangschikking. Google kan gemakkelijk het zoekgedrag evalueren, inclusief zoekopdrachten, klikken, herhaalde zoekopdrachten en herhaalde klikken, direct binnen de SERP’s.

Er is gespeculeerd dat Google domeinbewegingsgegevens zou kunnen afleiden uit Google Analytics, wat sommigen ertoe heeft aangezet om dit systeem niet te gebruiken. Deze theorie kent echter beperkingen.

Ten eerste biedt Google Analytics geen toegang tot alle transactiegegevens van een domein. Belangrijker nog, met meer dan 60% van de mensen die de Google Chrome-browser gebruiken (meer dan drie miljard gebruikers), verzamelt Google gegevens over een groot deel van de webactiviteit.

Dit maakt Chrome tot een cruciaal onderdeel in het analyseren van webbewegingen, zoals benadrukt tijdens hoorzittingen. Daarnaast worden Core Web Vitals signalen officieel verzameld via Chrome en samengevoegd tot de “chromeInTotal” waarde.

De negatieve publiciteit rondom "monitoring" is een van de redenen voor de ontkenning, terwijl een andere reden de bezorgdheid is dat het evalueren van klik- en bewegingsgegevens spammers en bedriegers zou kunnen aanmoedigen om verkeer te vervalsen met behulp van botsystemen om ranglijsten te manipuleren. Hoewel de ontkenning frustrerend kan zijn, zijn de onderliggende redenen op zijn minst begrijpelijk.

Een aantal van de metrics die worden opgeslagen, zijn onder andere badClicks en goodClicks. De duur dat een zoeker op de doelpagina blijft en de informatie over hoeveel andere pagina's ze daar bekijken en wanneer (Chrome-gegevens) worden waarschijnlijk meegenomen in deze evaluatie.

Een korte uitstap naar een zoekresultaat en een snelle terugkeer naar de zoekresultaten om verder te klikken op andere resultaten, kan het aantal badClicks verhogen. Het zoekresultaat dat de laatste “goede” klik had in een zoeksessie, wordt geregistreerd als de lastLongestClick.

De gegevens worden gecomprimeerd (d.w.z. samengeperst) zodat ze statistisch genormaliseerd en minder vatbaar voor manipulatie zijn.

Als een pagina, een cluster van pagina's of de startpagina van een domein over het algemeen goede bezoekersstatistieken heeft (Chrome-gegevens), heeft dit een positief effect via NavBoost. Door analyse van bewegingspatronen binnen een domein of over domeinen heen, is het zelfs mogelijk om te bepalen hoe goed de gebruikersbegeleiding is via de navigatie.

Aangezien Google volledige zoeksessies meet, is het theoretisch zelfs mogelijk om in extreme gevallen te herkennen dat een compleet ander document als passend wordt beschouwd voor een zoekopdracht. Als een zoeker het domein dat ze aanklikten in het zoekresultaat verlaat binnen dezelfde zoekopdracht en naar een ander domein gaat (omdat dat mogelijk zelfs daarvandaan is gelinkt) en daar blijft als het herkenbare einde van de zoekopdracht, kan dit “eind”-document in de toekomst via NavBoost naar voren worden geschoven, mits het beschikbaar is in de selectie ring set. Dit zou echter een sterk statistisch relevant signaal van veel zoekers vereisen. 

CTR data graph

Laten we eerst de klikdata in de zoekresultaten bekijken. Elke rankingpositie in de SERP’s heeft een verwachte gemiddelde doorklikratio (CTR), die dient als een prestatiebenchmark. Volgens een analyse van Johannes Beus, gepresenteerd op CAMPIXX in Berlijn dit jaar, ontvangt de organische positie 1 gemiddeld 26,2% van de klikken, terwijl positie 2 15,5% van de klikken krijgt.

Als de werkelijke CTR van een snippet aanzienlijk lager ligt dan het verwachte percentage, registreert het NavBoost-systeem deze afwijking en past de rangorde van de DocIDs dienovereenkomstig aan. Als een resultaat historisch gezien veel meer of minder klikken genereert dan verwacht, zal NavBoost het document omhoog of omlaag in de rangorde verplaatsen, afhankelijk van wat nodig is.

Deze benadering is logisch omdat klikken in wezen een stem van gebruikers vertegenwoordigen over de relevantie van een resultaat op basis van de titel, beschrijving en het domein. Dit concept wordt zelfs gedetailleerd beschreven in officiële documenten.

The clicks concept for ranking as seen in official docs.

Omdat ons document over potloden nog nieuw is, zijn er nog geen beschikbare CTR-waarden. Het is onduidelijk of CTR-afwijkingen worden genegeerd voor documenten zonder gegevens, maar dit lijkt waarschijnlijk, aangezien het doel is om gebruikersfeedback te integreren. Alternatief kan de CTR aanvankelijk worden geschat op basis van andere waarden, vergelijkbaar met hoe de kwaliteitsscore wordt behandeld in Google Ads.

SEO-experts en data-analisten hebben al lang opgemerkt dat ze het volgende fenomeen waarnemen bij het uitgebreid monitoren van hun eigen doorklikpercentages: Als een document nieuw verschijnt in de top 10 voor een zoekopdracht en de CTR aanzienlijk achterblijft bij de verwachtingen, zie je vaak dat de rangschikking binnen enkele dagen (afhankelijk van het zoekvolume) daalt.

Omgekeerd stijgt de rangorde vaak als de CTR aanzienlijk hoger ligt in verhouding tot de positie. Je hebt maar een korte tijd om te reageren en de snippet aan te passen als de CTR slecht is (meestal door de titel en beschrijving te optimaliseren) zodat er meer klikken worden gegenereerd. Zo niet, dan verslechtert de positie en is het vervolgens niet zo eenvoudig om deze terug te winnen. Men vermoedt dat dit fenomeen te wijten is aan tests. Als een document zichzelf bewijst, mag het blijven. Als zoekers het niet leuk vinden, verdwijnt het weer. Of dit daadwerkelijk gerelateerd is aan NavBoost is echter niet duidelijk of definitief te bewijzen.

Op basis van de gelekte informatie lijkt het erop dat Google uitgebreide gegevens van een pagina's “omgeving” gebruikt om signalen voor nieuwe, onbekende pagina's te schatten.

Bijvoorbeeld, NearestSeedversion suggereert dat de PageRank van de startpagina HomePageRank_NS wordt overgedragen aan nieuwe pagina's totdat ze hun eigen PageRank ontwikkelen. Bovendien lijkt pnavClicks te worden gebruikt om de kans op klikken via navigatie te schatten en toe te wijzen.

Het berekenen en bijwerken van PageRank kost veel tijd en rekenkracht, wat de reden is waarom de PageRank_NS-metric waarschijnlijk wordt gebruikt. “NS” staat voor “nearest seed,” wat betekent dat een set van gerelateerde pagina's een PageRank-waarde deelt, die tijdelijk of permanent wordt toegepast op nieuwe pagina's.

Waarschijnlijk worden waarden van naburige pagina's ook gebruikt voor andere kritische signalen, waardoor nieuwe pagina's hoger kunnen ranken ondanks een gebrek aan significant verkeer of backlinks. Veel signalen worden niet in real-time toegeschreven, maar kunnen een merkbare vertraging hebben.

Google zelf gaf een goed voorbeeld van actualiteit tijdens een hoorzitting. Bijvoorbeeld, als je zoekt naar “Stanley Cup,” verschijnen normaal gesproken resultaten over de beroemde beker. Echter, wanneer de Stanley Cup ijshockeywedstrijden daadwerkelijk plaatsvinden, past NavBoost de resultaten aan om informatie over de wedstrijden te prioriteren, wat veranderingen in zoek- en klikgedrag weerspiegelt.

Versheid verwijst hier niet naar nieuwe (d.w.z. “verse”) documenten, maar naar veranderingen in zoekgedrag. Volgens Google zijn er dagelijks meer dan een miljard (dat is geen typefout) nieuwe gedragingen in de SERP’s! Dus elke zoekopdracht en elke klik draagt bij aan het leerproces van Google. De veronderstelling dat Google alles weet over seizoensgebondenheid is waarschijnlijk niet juist. Google herkent fijne veranderingen in zoekintenties en past het systeem voortdurend aan – wat de illusie wekt dat Google daadwerkelijk “begrijpt” wat zoekers willen.

De klikgegevens voor documenten worden blijkbaar gedurende een periode van 13 maanden opgeslagen en geëvalueerd (met één maand overlap in het jaar voor vergelijkingen met het voorgaande jaar), volgens de laatste bevindingen.

Omdat ons hypothetische domein sterke bezoekersstatistieken heeft en aanzienlijk direct verkeer ontvangt via advertenties, en een bekend merk is (wat een positief signaal is), profiteert ons nieuwe potlooddocument van de gunstige signalen van oudere, succesvolle pagina's.

Als resultaat verhoogt NavBoost onze rangschikking van de 14e naar de 5e plaats, waarmee we ons bevinden in de “blauwe ring” of top 10. Deze top 10-lijst, inclusief ons document, wordt vervolgens samen met de andere negen organische resultaten doorgestuurd naar de Google Web Server.

In tegenstelling tot wat je zou verwachten, levert Google niet veel gepersonaliseerde zoekresultaten. Tests hebben waarschijnlijk aangetoond dat het modelleren van gebruikersgedrag en het aanbrengen van veranderingen daarin betere resultaten oplevert dan het evalueren van de persoonlijke voorkeuren van individuele gebruikers.

Dit is opmerkelijk. De voorspellingen via neurale netwerken sluiten nu beter aan op ons gedrag dan onze eigen surf- en klikgeschiedenis. Toch worden individuele voorkeuren, zoals een voorkeur voor videocontent, nog steeds meegenomen in de persoonlijke resultaten.

De GWS: Waar alles samenkomt en een nieuw begin ontstaat

De Google Web Server (GWS) is verantwoordelijk voor het samenstellen en leveren van de zoekresultatenpagina (SERP). Dit omvat de 10 blauwe links, samen met advertenties, afbeeldingen, Google Maps-weergaven, “Mensen vragen ook” secties en andere elementen.

Het Tangram-systeem zorgt voor de geometrische ruimteoptimalisatie, waarbij wordt berekend hoeveel ruimte elk element nodig heeft en hoeveel resultaten in de beschikbare “vakken” passen. Het Glue-systeem plaatst deze elementen vervolgens op de juiste plekken.

Ons potlooddocument, momenteel op de 5e plaats, maakt deel uit van de organische resultaten. Maar op het laatste moment kan het CookBook-systeem nog ingrijpen. Dit systeem omvat FreshnessNode, InstantGlue (reageert binnen periodes van 24 uur met een vertraging van ongeveer 10 minuten) en InstantNavBoost. Deze componenten genereren aanvullende signalen met betrekking tot actualiteit en kunnen de rangschikking in de laatste momenten vóór het weergeven van de pagina aanpassen.

Stel dat er op de Duitse televisie een programma begint over 250 jaar Faber-Castell en de mythes rond het woord “potlood.” Binnen enkele minuten grijpen duizenden kijkers naar hun smartphones of tablets om online te zoeken. Dit is een typisch scenario. FreshnessNode detecteert de toename van zoekopdrachten naar “potlood” en merkt op dat gebruikers informatie zoeken in plaats van aankopen te doen, en past de rangschikkingen dienovereenkomstig aan.

In deze uitzonderlijke situatie verwijdert InstantNavBoost alle transactionele resultaten en vervangt deze in real-time door informatieve resultaten. InstantGlue werkt vervolgens de “blauwe ring” bij, waardoor ons eerder verkoopgerichte document uit de top rangschikkingen verdwijnt en wordt vervangen door relevantere resultaten.

Hoe pijnlijk het ook mag zijn, dit hypothetische einde van onze rankingreis illustreert een belangrijk punt: een hoge ranking behalen gaat niet alleen om het hebben van een goed document of het implementeren van de juiste SEO-maatregelen met kwalitatief hoogwaardige content.

Rangschikkingen kunnen worden beïnvloed door een verscheidenheid aan factoren, waaronder veranderingen in zoekgedrag, nieuwe signalen voor andere documenten en veranderende omstandigheden. Daarom is het cruciaal te erkennen dat het hebben van een uitstekend document en goed werk verrichten met SEO slechts één onderdeel is van een bredere en dynamischere rankinglandschap.

Het proces van het samenstellen van zoekresultaten is buitengewoon complex, beïnvloed door duizenden signalen. Met talloze tests die live worden uitgevoerd door SearchLab met behulp van Twiddler, kunnen zelfs backlinks naar je documenten worden beïnvloed.

Deze documenten kunnen worden verplaatst van HiveMind naar minder kritieke niveaus, zoals SSD's of zelfs TeraGoogle, wat hun impact op de rangschikkingen kan verzwakken of elimineren. Dit kan de rangordes verschuiven, zelfs als er niets is veranderd aan je eigen document.

Google’s John Mueller heeft benadrukt dat een daling in de rangschikking vaak niet betekent dat je iets verkeerd hebt gedaan. Veranderingen in gebruikersgedrag of andere factoren kunnen de prestaties van resultaten beïnvloeden.

Als bijvoorbeeld zoekers in de loop van de tijd de voorkeur beginnen te geven aan meer gedetailleerde informatie en kortere teksten, zal NavBoost automatisch de rangschikkingen dienovereenkomstig aanpassen. De IR-score in het Alexandria-systeem of Ascorer blijft echter ongewijzigd.

Een belangrijke les is dat SEO in een bredere context moet worden begrepen. Het optimaliseren van titels of content zal niet effectief zijn als een document en de zoekintentie niet op elkaar aansluiten.

De impact van Twiddlers en NavBoost op rangschikkingen kan vaak zwaarder wegen dan traditionele on-page, on-site of off-site optimalisaties. Als deze systemen de zichtbaarheid van een document beperken, zullen extra on-page verbeteringen weinig effect hebben.

Maar onze reis eindigt niet op een sombere noot. De impact van het tv-programma over potloden is tijdelijk. Zodra de zoekgolf afneemt, zal FreshnessNode geen invloed meer hebben op onze rangschikking en keren we terug naar onze positie op de 5e plaats.

Als we het verzamelen van klikgegevens opnieuw starten, wordt een CTR van ongeveer 4% verwacht voor positie 5 (gebaseerd op Johannes Beus van SISTRIX). Als we deze CTR kunnen handhaven, kunnen we verwachten in de top tien te blijven. Alles komt weer goed.

Essentiële SEO-strategieën om je website te optimaliseren

In een steeds complexer wordend digitaal landschap is het cruciaal om strategieën toe te passen die verder gaan dan de standaard SEO-tactieken. Het gaat erom een diepgaand begrip te hebben van hoe zoekmachines werken en deze kennis te gebruiken om je website op alle mogelijke manieren te optimaliseren. Hieronder vind je een aantal belangrijke inzichten en aanbevelingen om je online zichtbaarheid te vergroten en te behouden.

  • Diversifieer je bronnen van verkeer: Het is belangrijk om bezoekers aan te trekken via meerdere kanalen, niet alleen via zoekmachines. Ook verkeer vanuit sociale media of directe toegang via Chrome kan waardevol zijn. Zelfs als sommige pagina’s niet door Google’s crawler kunnen worden bereikt, kan Google nog steeds bijhouden hoe bezoekers op je site belanden.
  • Versterk je merk en domeinherkenning: Bekendheid met je merk of domeinnaam kan de kans vergroten dat gebruikers op jouw website klikken in de zoekresultaten. Het richten op veel long-tail zoekwoorden kan ook helpen je domein meer zichtbaar te maken, wat bijdraagt aan de algehele autoriteit van je site.
  • Begrijp en speel in op zoekintentie: Het is essentieel om te weten wat bezoekers echt zoeken en waarom. Door tools zoals Semrush of SimilarWeb te gebruiken, kun je ontdekken waar je bezoekers vandaan komen en waar ze naartoe gaan. Zorg ervoor dat jouw content aansluit bij hun behoeften, zodat je de ultieme bestemming wordt in hun zoekproces.
  • Verbeter je titels en beschrijvingen om de CTR te verhogen: Optimaliseer je titels en meta-beschrijvingen door visuele accenten te leggen die de aandacht trekken, zoals het strategisch gebruik van hoofdletters. Dit kan helpen om de doorklikratio te verhogen en daardoor je rankings te verbeteren.
  • Analyseer het gebruik van verborgen content: Controleer of het gebruik van verborgen content, zoals accordeons, leidt tot een hoger bouncepercentage. Als bezoekers te veel moeite moeten doen om de informatie te vinden die ze zoeken, kan dit leiden tot negatieve signalen en een lagere ranking.
  • Elimineer zwakke pagina’s: Pagina’s die weinig verkeer genereren of slecht presteren, kunnen het beste worden verwijderd. Ze kunnen negatieve signalen doorgeven aan andere pagina’s in hetzelfde cluster, waardoor de prestaties van je hele site achteruitgaan.
  • Optimaliseer je paginavormgeving: Een heldere, overzichtelijke structuur en gebruiksvriendelijke navigatie zijn cruciaal voor het behalen van topposities in de zoekresultaten. Zorg ervoor dat je site gemakkelijk te navigeren is, zodat gebruikers snel vinden wat ze zoeken.
  • Verhoog de betrokkenheid van bezoekers: Hoe langer bezoekers op je site blijven, hoe positiever de signalen die je naar zoekmachines stuurt. Zorg ervoor dat je site alle benodigde informatie biedt, zodat bezoekers niet elders hoeven te zoeken.
  • Werk bestaande content bij in plaats van steeds nieuwe te creëren: Het bijwerken van bestaande content kan vaak meer opleveren dan het steeds maken van nieuwe content. Investeer in het verbeteren van bestaande pagina’s door hoogwaardige media en unieke inhoud toe te voegen, wat de waarde van je site vergroot.
  • Zorg voor consistente koppen en inhoud: Koppen moeten duidelijk aansluiten bij de inhoud die volgt. Een goede thematische consistentie tussen koppen en tekst helpt niet alleen de gebruikerservaring, maar ook de interpretatie door zoekmachines.
  • Maak slim gebruik van webanalyse: Door tools zoals Google Analytics te gebruiken, kun je effectief het gedrag van je bezoekers volgen en gebieden identificeren die verbetering behoeven. Let vooral op hoge bouncepercentages en onderneem actie om deze te verlagen.
  • Richt je op niche zoekwoorden: In plaats van direct te mikken op zeer competitieve zoekwoorden, kan het zinvol zijn om eerst te scoren met minder competitieve termen en zo een solide basis van positieve signalen op te bouwen.
  • Verzamel kwalitatieve backlinks: Focus op het verkrijgen van links van relevante, recente en goedbezochte pagina’s, bij voorkeur binnen hetzelfde geografische en thematische bereik als je eigen content. Vermijd links die schadelijk kunnen zijn voor je site.
  • Let op de context rond links: Het is niet alleen de anchor-tekst die telt; de tekst rondom de link is ook van belang voor de interpretatie door zoekmachines. Zorg ervoor dat je links natuurlijk in de context van je inhoud passen.
  • Wees bewust van de beperkingen van de Disavow-tool: Hoewel de Disavow-tool gebruikt kan worden om slechte links te negeren, lijkt het erop dat zoekalgoritmes deze actie niet direct in overweging nemen. Het blijft vooral een administratieve handeling voor het bestrijden van spam.
  • Benadruk de expertise van de auteur: Zorg ervoor dat de auteurs die je gebruikt worden erkend als deskundig in hun vakgebied. Een paar goed erkende experts kunnen meer waarde toevoegen aan je site dan een groot aantal minder bekende auteurs.
  • Creëer unieke, waardevolle en goed gestructureerde content: Voor belangrijke pagina’s is het cruciaal om echte expertise en unieke inzichten te tonen. Hoogwaardige content is essentieel om in de huidige zoekresultaten te concurreren.

Het optimaliseren van je website voor zoekmachines is een continu proces dat veel verder gaat dan eenvoudige aanpassingen aan de content. Het vereist een holistische aanpak waarbij je rekening houdt met een breed scala aan factoren, van technische optimalisaties tot gebruikersgedrag en contentkwaliteit. Door bovenstaande strategieën toe te passen, zorg je ervoor dat je website goed voorbereid is om zich aan te passen aan de steeds veranderende criteria van zoekmachines en tegelijkertijd te voldoen aan de behoeften van je doelgroep.

Dibbes is jouw partner om je beter te laten scoren op zoekmachines. Als je klaar bent om jouw concurrent te verpletteren, neem dan contact met ons op of bekijk onze diensten.

Deel dit artikel
Veel gestelde vragen

Veelgestelde vragen

Hoe werkt Google's zoekrangschikking en waarom is het zo complex?

Google's zoekrangschikking is extreem complex vanwege de combinatie van duizenden signalen en de inzet van machine learning. Zelfs de ingenieurs die aan de algoritmes werken, kunnen vaak niet precies uitleggen waarom een pagina op een bepaalde positie staat. Dit komt doordat de gewichten van verschillende signalen en hun onderlinge interacties voortdurend veranderen en door AI worden geoptimaliseerd, wat resulteert in een systeem dat zichzelf leert en aanpast op basis van gebruikersgedrag en nieuwe informatie.

Wat is de rol van Twiddlers in Google's rangschikking?

Twiddlers zijn kleine filters of 'plug-ins' die specifieke aspecten van de rangschikking beïnvloeden zonder dat de hoofdalgoritmes van Google aangepast hoeven te worden. Ze passen de IR-score van documenten aan of wijzigen hun positie direct. Twiddlers kunnen bijvoorbeeld recente content een boost geven, of juist de diversiteit in zoekresultaten bevorderen. Ze worden vaak gebruikt om de rangschikking te finetunen en kunnen zowel positief als negatief invloed uitoefenen op de uiteindelijke positie van een pagina in de zoekresultaten.

Waarom is het belangrijk om de zoekintentie van gebruikers te begrijpen?

Het begrijpen van de zoekintentie is cruciaal omdat het bepaalt welke content gebruikers zoeken en hoe je website daarop inspeelt. Door te analyseren waar je bezoekers vandaan komen en wat hun zoekdoelen zijn, kun je je content beter afstemmen op hun behoeften. Dit helpt niet alleen om beter te ranken in zoekmachines, maar verhoogt ook de kans dat bezoekers op je site blijven en niet verder zoeken. Het zorgt ervoor dat je website als de 'ultieme bestemming' wordt gezien in hun zoekproces.

Dibbes team aan het werk

Praat met een van onze specialisten voor een plan op maat

Als je op accepteren klikt, stem je in met onze Coockie verklaring. Je kunt je voorkeuren hier beheren.