Google algoritmes door de jaren heen

Google algoritmes door de jaren heen

Google is ontstaan uit het “backrub” project, een project van de twee studenten Larry Page en Sergey Brin. Scott Hassan was toen ook nog betrokken bij het project maar is later wat anders gaan doen.

  In essentie kwam het erop neer dat ze met een algoritme gingen kijken naar backlinks. Ze waren ervan overtuigd dat pagina’s met de meeste links naar hun pagina van andere relevante pagina’s over hetzelfde onderwerp DE meest relevante pagina zou moeten zijn. De Web crawler draait sinds 1996 en is gelanceerd vanaf Page’s eigen stanford pagina. leuk wiki-feitje; in het begin gebruikte ze de helft van de hele bandbreedte van de universiteit.In 1998 hadden ze 60 miljoen pagina’s gecrawled.

Na dit eerste Algoritme zijn er velen gevolgd, waarin ze eigenlijk altijd bezig zijn met de ervaring van de gebruiker. En helaas was niet iedere webdeveloper daarmee bezig. Ik vindt het lijken op het “spel” van de politie en criminelen. Webdevelopers vinden een manier om een slechte website toch te laten Ranken en Google ontwikkelt een patch om deze er weer uit te filteren. ook zitten er updates tussen om het publiek te beschermen. De medic core update bijvoorbeeld heeft heel wat louche financiele en medische pagina’s de das omgedaan

Als de geschiedenis van de algoritme’s bekijkt Is er eigenlijk maar een ding belangrijk.  Geef jouw klanten wat ze willen; 

dat betekent:

  •  mee bewegen met ontwikkelingen zoals mobiel eerst ontwikkelen,
  •  geen irritante popups die je hele scherm blokkeren,
  • maar ook leveren wat je belooft en mensen niet om de tuin leiden

 

  dit artikel van Brightedge geeft een mooi overzicht vanaf 2011 https://www.brightedge.com/glossary/major-google-updates

Share on facebook
Share on twitter
Share on linkedin
Share on reddit
Share on whatsapp

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.