Spring naar content

Google Search

Google Search, Google Zoeken in het Nederlands, is met een marktaandeel van bijna 92% in 2022 de meest gebruikte zoekmachine ter wereld. Het is onderdeel van Google LLC. De zoekmachine werd in 1997 geïntroduceerd door Larry Page en Sergey Brin. Het heeft sindsdien een enorme impact gehad op het zoeken en vinden van informatie via internet. In Nederland is het marktaandeel van Google ongeveer 98%. Het is dan ook niet voor niets dat Googelen een Nederlands werkwoord is geworden.

Voor de beeldvorming:

  • Per dag worden wereldwijd ongeveer 8,5 miljard zoekopdrachten gedaan
  • Dit zijn meer dan 100.000 zoekopdrachten per seconde
  • 15% van deze zoekopdrachten zijn uniek

Google Search bestaat uit drie verschillende onderdelen: de crawler, de index en het algoritme. Deze drie onderdelen zoeken, indexeren en rangschikken websites en pagina’s op basis van diverse factoren en laten de meest relevante resultaten aan de gebruiker zien.

  1. Crawling: Om de informatie op het internet in kaart te brengen maakt Google gebruik van zogenoemde crawlers of spiders zoals Googlebot. Dit zijn geautomatiseerde programma’s die het internet voortdurend afstruinen opzoek naar nieuwe websites, pagina’s en informatie. Ze volgen alle links op een pagina tot ze de volledige website in kaart hebben gebracht.
    Omdat zelfs Google niet oneindig vermogen heeft, krijgt Googlebot een limiet aan het aantal pagina’s dat per website per dag gecrawld wordt. Dit limiet hangt af van de autoriteit van de website, technische kwaliteit van de website en kwaliteit van de content. Pagina’s worden dus niet elke dag opnieuw gecrawld, wat kan betekenen dat een nieuwe versie pas na een aantal dagen in Google wordt getoond.
    Met een goede websitestructuur en sitemap zorg je ervoor dat de crawler eenvoudig de website in kaart kan brengen, maar ook dat in de volgende stappen de inhoud van de website goed kan worden gelezen. Wil je dat pagina’s niet worden gevonden door Googlebot? Via het robots.txt bestand geef je aan welke pagina’s niet door Google gevonden mogen worden. Ook zijn er de noindex tag, robots meta tag en de X-robots tag waarmee de crawler kan sturen.
  2. Indexeren: Nadat webpagina’s zijn gecrawld, worden ze geïndexeerd. In dit proces wordt de inhoud van elke webpagina geanalyseerd en opgeslagen in de Google-index. Hierbij kijkt Google naar de tekst, afbeeldingen, video’s en andere informatie en proberen ze het doel van de pagina te begrijpen. Hier worden diverse technieken gebruikt en spelen diverse soorten informatie een rol. Dit is de uiteindelijke database waar de informatie voor de zoekresultaten vandaan komt.
  3. Rangschikken: Als je iets zoekt in Google, gaat het algoritme in de index naar relevante pagina’s zoeken en rangschikt deze op basis van relevantie en kwaliteit. Eén van de bekende algoritmes van Google die zoekresultaten samenstellen heet PageRank. Bij het rangschikken van de resultaten spelen een heel aantal factoren een rol.

Google fungeert dus als een grote bibliotheek die door crawlers wordt bijgewerkt, door middel van indexatie wordt gesorteerd en met rangschikken op de ‘meest optimale’ manier aan de gebruiker wordt getoond. Hoe Google Search precies werkt weet niemand, behalve Google uiteraard zelf. Het wordt ook wel een Black Box genoemd. Je stopt er informatie in en er komt informatie uit, maar hoe het precies werkt is onbekend.

De zoekvolumes in Google zijn inmiddels zo enorm dat er een volledig vakgebied is ontstaan om websites zo goed mogelijk te laten scoren in de zoekresultaten. Dit wordt Search Engine Optimization (SEO) genoemd en omvat zowel on-page als off-page optimalisatie. De technieken die hiervoor worden gebruikt veranderen continu doordat Google de werking en de algoritmes updatet.

Voorbeelden van factoren die nu een rol spelen bij het ranken op zoekwoorden zijn:

  • Metadata zoals meta title, meta description en meta robots
  • Content op de pagina met relevante zoekwoorden
  • Interne linkstructuur
  • Backlinks van andere websites
  • Foutmeldingen en technische problemen
  • Laadsnelheid
  • Mobielvriendelijkheid
  • Gebruikerservaring (UX)

Het is ook mogelijk om te adverteren binnen Google Search. Dit wordt Search Engine Advertising (SEA) genoemd.

Google is continu bezig om de algoritmes en taalmodellen te verbeteren. Hoewel niet exact duidelijk wordt hoe het werkt, geven ze vaak richtlijnen die een grove richting bieden.

Core Web Vitals

Google meet de gebruikerservaring op een website met Core Web Vitals. Lees in dit artikel meer over wat Core Web Vitals is en waar je aan moet denken.

E-E-A-T

E-E-A-T is een richtlijn die Google gebruikt bij het bepalen of de inhoud van een pagina geschikt is voor lezers en hoe goed het moet ranken in de zoekresultaten. Hier lees je meer over E-E-A-T.

Your Money or Your Life (YMYL)

Sinds 2018 zijn een aantal onderwerpen die Google zo belangrijk vindt dat de kwaliteit en betrouwbaarheid van de content direct impact heeft op de ranking van een website. Onderwerpen die hieronder vallen zijn:

  • Gezondheid
  • Financiën
  • Wetgeving en overheidszaken
  • Andere pagina’s die impact hebben op de bezoeker

De kwaliteit wordt niet alleen door automatisch door algoritmes gecontroleerd, maar ook handmatig door medewerkers van Google. De YMYL update is, net als E-E-A-T, gebaseerd op Quality Rater Guidelines. Het doel van deze update is geweest om de informatie die Google laat zien betrouwbaarder te maken. Zo zijn de prestaties van websites met dubieuze en niet wetenschappelijk onderbouwde claims op het gebied van bijvoorbeeld gezondheid flink gedaald.

Nieuwsgierig geworden? Laten we eens een kop koffie drinken!

Herman Koot

Laten we eens kennismaken!

Plan een afspraak

Deze website maakt gebruik van cookies
We gebruiken cookies voor de werking van deze website, om functies voor social media te bieden en om ons websiteverkeer te analyseren. Pas hieronder je voorkeuren aan en klik vervolgens op OK om akkoord te gaan met deze cookies.

Cookie settings