Zoekmachineoptimalisatie

Uit Wikipedia, de vrije encyclopedie
(Doorverwezen vanaf Zoekmachine optimalisatie)
Naar navigatie springen Naar zoeken springen

Zoekmachineoptimalisatie (Engels: search engine optimization of SEO) is bedoeld om websites hoog te laten scoren in de zoekresultaten van zoekmachines op internet. SEO is een onderdeel van zoekmachinemarketing en kan worden gedefinieerd als het geheel aan activiteiten bedoeld om een webpagina hoog te laten scoren in de organische zoekresultaten van een zoekmachine, op de voor die webpagina relevante trefwoorden. Aangezien een vermelding in die organische resultaten gratis is, vormen deze zoekresultaten een interessant alternatief voor zoekmachineadverteren. SEO kan een bedrijf concurrentievoordeel opleveren.

Binnen de optimalisatietechieken wordt onderscheid gemaakt tusen white hat (toegestaan door Google) en black hat (niet toegestaan). De black hat-technieken zijn over het algemeen bedoeld om de volgorde van zoekresultaten te manipuleren.

SEO kan ook staan voor search engine optimizers. Dit zijn adviseurs die zich bezighouden met het uitvoeren van optimalisatieprojecten voor klanten.

Rankingfactoren[bewerken | brontekst bewerken]

Het is grotendeels onduidelijk hoe zoekmachines zoals Google precies hun zoekresultatenvolgorde (SERP) bepalen. Wel is duidelijk dat dit (in elk geval grotendeels) geautomatiseerd gebeurt met behulp van search ranking factors, waarbij aan elke search-rankingfactor een numeriek gewicht wordt toegekend.[1] Google heeft diverse malen laten weten dat het meer dan 200 search-rankingfactoren hanteert.[2] Diverse SEO-professionals[3] hebben gepoogd om al die factoren te ordenen naar belang.

In 1998 werd het oorspronkelijke PageRank-algoritme van Google aan de wereld gepresenteerd,[4] toen nog onder de vlag van Stanford University, waar de Google-oprichters Larry Page en Sergey Brin op dat moment werkten aan hun zoekmachine.

In 2018 heeft Google 654.680 experimenten uitgevoerd en 3.234 wijzigingen in het algoritme gedaan. [5] Het algoritme van Google wijzigt elke dag. De meeste Google algoritme wijzigingen worden niet aangekondigd, maar veel algoritme wijzigingen worden bijgehouden door diverse websites.

Tegenwoordig zijn de Google-zoekresultaten steeds meer op de gebruiker afgestemd en vooral ook regionaal verschillend, wat ook wel lokale SEO wordt genoemd. Voor kleine bedrijven is het hierdoor haalbaarder geworden om in hun regio vindbaar te worden. Daarnaast lijkt het verkrijgen van trust en implied links een grote rol te spelen in het bepalen van rankings. Recente Core updates vanuit Google laten echter zien dat RankBrain steeds meer gewicht krijgt bij het opbouwen van de resultaten.

Enkele technische rankingfactoren zijn:

  • Laadsnelheid

De snelheid waarmee webpagina’s worden geladen is een factor in het ranking algoritme van Google. Het doel van Google is om mensen snel te voorzien van relevante pagina ́s en wanneer een website traag laadt en ze deze via Google hebben gevonden dan koppelen gebruikers dit al snel aan het gebruiks(on)gemak van Google en de kwaliteit van de zoekresultaten. Een pagina die snel laadt heeft bij Google een streepje voor op de websites die traag laden. Bovendien zorgt een langzame website voor een slechte gebruikservaring en zullen bezoekers onverrichter zake snel een website weer verlaten. Dit zorgt voor een verhoging van het bounce percentage en is hiermee dus van invloed op de positie.

  • Indexatie

Voordat een pagina zichtbaar wordt in de zoekresultaten van Google moet hij eerst worden opgenomen in hun database. Dit proces heet indexatie. De duur hiervan kan variëren van dagen tot maanden, afhankelijk van de grootte van de website, kwaliteit van de (nieuwe) content en eventuele commando’s die je aan de crawlers doorgeeft.

  • Fouten

Techische fouten (errors) zijn ook van invloed op de zoekresultatenvolgorde van een pagina: een error heeft een negatieve invloed op de ranking.

Dit zijn de meest voorkomende errors:

Een 404 pagina wordt getoond zodra een pagina niet meer bestaat. Dit kan bijvoorbeeld gebeuren wanneer een nieuwe website wordt opgeleverd maar de pagina’s nog niet zijn doorverwezen. Ook kan dit komen door een typefout in een link op de pagina.

Een 301 en een 302 melding (ook wel redirect genoemd) geven beide aan dat een pagina verplaatst is naar een andere URL. Het verschil tussen de twee is dat een 302 een tijdelijke verhuizing aangeeft en een 301 een permanente verhuizing. Bij een 302 blijft de originele URL bestaan. Bij een 301 daarentegen wordt de originele locatie verwijderd uit de index en komt de nieuwe URL hiervoor in de plaats. Het grootste voordeel naast het gebruiksgemak voor de bezoeker is dat door een redirect de linkwaarde doorverwezen wordt naar de nieuwe pagina.

Een 500 error is een probleem dat aan de serverzijde ligt en daar ook opgepakt dient te worden.

Een 200 code geeft aan dat de pagina aanwezig is en de inhoud die er op staat mag onder die URL worden geïndexeerd.

  • Duplikaatinhoud

Er is sprake van duplikaatinhoud (duplicate content) wanneer twee of meer pagina’s dezelfde of nagenoeg dezelfde inhoud hebben. Hierdoor ontstaat interne concurrentie waardoor een zoekmachine niet de juiste rankingwaarde kan bepalen.

  • Veiligheid

Een website wordt beveiligd door middel van HTTPS (HyperText Transfer Protocol Secure). Hiermee worden de integriteit en vertrouwelijkheid van de gegevens van gebruikers beschermd. Zoekmachines hechten waarde aan deze bescherming wat maakt dat deze webpagina's hoger ranken dan webpagina's zonder beveiliging.

  • XML-sitemap

Een XML sitemap (vaak heet deze sitemap.xml) is bij zoekmachineoptimalisatie een belangrijk hulpmiddel. Een xml-sitemap is een XML bestand dat speciaal gemaakt is voor de zoekmachines en ook alleen gebruikt wordt door de zoekmachines. Een sitemap is vergelijkbaar met een een inhoudsopgave in een boek. Met behulp van een XML sitemap kunnen zoekmachines zoals Google, Yahoo en Bing de inhoud van een site sneller indexeren.

  • Nationale en internationale targeting

Google gebruikt specifieke informatie om de verschillen tussen landen en taalvarianten te herkennen. Dit kan zowel vanuit een tag (Hreflang-tag) in de broncode of vanuit de XML sitemap worden aangeduid. De Hreflang-tag is bedoeld om bij webpagina’s in meerdere talen, Google te laten weten in welke taal de content is geschreven en op welke regio de content is gericht.

Optimalisatietechnieken[bewerken | brontekst bewerken]

In het algemeen geldt dat zoekmachineoptimalisatie een viertal analysegebieden beslaat:

  • Techniek: alles wat te maken heeft met de broncode van de website (opmaak, snelheid, schema.org opmaak, caching, e.d.)
  • Content: Alle inhoud van de website (site structuur, navigatie, gebruik van zoekwoorden, pagina titels, afbeeldingen, e.d.)
  • Links: Alle links die wijzen naar een website (zowel intern als extern)
  • Gebruikersinteractie (RankBrain): Dit beslaat het zelflerende systeem van het algoritme. Het systeem leert een website indexeren op basis van de keuzes die bezoekers maken.

Over het algemeen leveren kwalitatief hoogstaande inhoud (zogenaamde content) en een gedegen structuur de beste optimalisatie voor een website. Zoekmachines gaan namelijk op zoek naar de beste inhoud voor de gebruikers van de zoekmachine, en een goede inhoud is daarom een noodzaak. Vaak wordt er rekening gehouden met keyword-dichtheid, de title-tag en het juiste gebruik van headers. Door juiste (X)HTML te gebruiken wordt er gewicht toegekend aan tekst. Zo weegt tekst tussen <h1>-tags binnen websites zwaarder dan tekst tussen paragraph-tags (<p>).

Wie goed gevonden wil worden op bepaalde producten zal in de eerste plaats er zo veel mogelijk over moeten vertellen en ervoor zorgen dat deze informatie goed geïndexeerd kan worden.

Daarnaast is het ook van belang om de website op een juiste manier op te bouwen en een goede titel te gebruiken. De meta-description-tag wordt door zoekmachines zoals Google, Yahoo en Bing overgenomen. Deze metatag is zichtbaar in de lijst van resultaten. Door een betere omschrijving te maken per pagina (description) zal iemand uw vermelding eerder aanklikken. Op die manier heeft u dus invloed op de CTR ("click-through rate"). De zogenaamde dood van de metatag[6] is hiermee dus na acht jaar een achterhaald verhaal geworden. Google heeft in december 2017 een vernieuwde versie van hun 'SEO Starter Guide' gepubliceerd.[7] Hier staat duidelijk omschreven hoe Google over de meeste belangrijke zaken rond zoekmachineoptimalisatie denkt en worden er aanbevelingen – de do's-and-don'ts van SEO – gedaan.

Geoorloofde technieken (white hat)[bewerken | brontekst bewerken]

Enkele white hat (door Google toegestane) SEO-mogelijkheden:

  • Gebruik van trefwoorden in de meta-titel van een pagina (iedere unieke pagina een eigen unieke titel)
  • Gebruik van trefwoorden in HTML heading-tags (<h1>, <h2>, <h3>)
  • Gebruik van trefwoorden in de paginanaam van een URL
  • Geen dynamic-page-parameters in een URL
  • Beperkte paddiepte in een URL, bij voorkeur via maximaal 3 mappen
  • Gebruik van trefwoorden in de "ALT"-tag van afbeeldingen
  • Gebruik van trefwoorden in de body-tekst van een pagina
  • Gebruik van trefwoorden in de ankerteksten van (interne) hyperlinks
  • Gebruik van een sitemap, maar te veel gebruikmaken van sitemaps heeft juist een negatief effect
  • Het verbeteren van de laadtijden van de website voor een betere bezoekerservaring[8]
  • Het toepassen van 'rich snippets'[9] voor meer informatie in de zoekresultaten
  • Websites die responsive/mobile-friendly zijn, krijgen een betere positie in Google[10]
  • Gebruik van afbeeldingen in een blog[11]
  • Gebruik van spreektaal in artikelen
  • Het beantwoorden van vragen die gebruikers hebben
  • Het gebruik van gestructureerde gegevens [12]
  • Het uitsluiten van pagina's die de bot van Google niet hoeft te bezoeken

Manipulatie (black hat)[bewerken | brontekst bewerken]

Naast de door Google genoemde SEO-richtlijnen (door Google geoorloofde technieken die het predicaat white hat SEO hebben meegekregen) proberen sommige websites de zoekresultaten van zoekmachines in hun voordeel te beïnvloeden door gebruik te maken van ongeoorloofde methoden (black hat SEO).

Een bekende methode is het plaatsen van trefwoorden in dezelfde kleur als de achtergrondkleur van de website zodat websitegebruikers die trefwoorden niet zien maar webcrawlers wel. Deze methodes werken soms voor een korte periode, totdat ze veel gebruikt worden. Dan verzinnen de makers van zoekmachines methodes om dit soort ongewenste optimalisatiemethoden tegen te gaan. Tegenwoordig treden makers van zoekmachines op tegen zulke ongewenste trucjes, waarbij websites zelfs uit de index van de zoekmachine verwijderd kunnen worden.

Google geeft aan dat het actief vergaren van backlinks (links inkopen of links ruilen voor zoekmachineoptimalisatiedoeleinden) wordt beschouwd als black hat SEO. Het komt erop neer dat alleen (maar niet alle) on-page SEO white hat is en bijna alle off-page SEO black hat.

In 1997 werd voor zoekmachines bekend dat webmasters moeite deden hoog te worden gepositioneerd in de organische zoekresultaten.[13] Oude zoekmachines, zoals Infoseek, pasten de algoritmes hierop aan, om te voorkomen dat webmasters de resultaten manipuleren.[14]

Door de hoge marketingwaarde van gerichte zoekresultaten is er kans op vijandige verhoudingen tussen zoekmachines en aanbieders van zoekmachineoptimalisatie. AIRWeb (Adversarial Information Retrieval on the Web)[15] werd in 2005 gemaakt om de beschadigende effecten van agressieve webproviders te minimaliseren.

Sommige webmasters manipuleerden hun posities in de zoekresultaten door pagina's aan te maken met overbodige of irrelevante meta-tags. In Duitsland is dit manipuleren van zoekresultaten in 2004 door de rechtbank verboden.[16] Een bedrijf met een te agressieve techniek loopt daarnaast kans te worden verbannen uit de zoekresultaten. In 2005 heeft The Wall Street Journal zo'n bedrijf gerapporteerd. Dit bedrijf was Traffic Power en het gebruikte, naar verluidt, technieken met een te hoog risico. Het mislukte om dit risico af te schermen van de klanten.[17] Het tijdschrift Wired Magazine schreef dat ditzelfde bedrijf Aaron Wall had aangeklaagd omdat hij had geschreven over het krijgen van een ban.[18] Googles hoofd van het webspamteam, Matt Cutts, heeft later bevestigd dat het inderdaad Traffic Power en een paar van haar klanten heeft verbannen uit de resultaten.[19]

Ook de Duitse website van BMW is dertig dagen volledig uit de zoekindex verwijderd[20] omdat ze een landingspagina (webpagina waarop een bezoeker 'landt' als hij een bepaalde zoekterm in een zoekmachine ingeeft en van waaruit de bezoeker daarna naar andere pagina's binnen die website kan navigeren) met alleen maar keywords maakten voor zoekmachines, terwijl daadwerkelijke bezoekers werden omgeleid door middel van JavaScript. Ook in Nederland bestaan dergelijke verhalen. Zo werd in 2006 een dagblad[21] tijdelijk verbannen, en viel na heftige discussies op Googles Forum voor Webmasters en diverse SEO-blogs een black hat SEO-bedrijf uit de rankings.[22]

Sommige zoekmachinebedrijven zijn daarentegen bewust naar de SEO-sector gestapt en zijn onder meer actief geworden als sponsoren en/of gasten op SEO-conferenties en congressen. Door de komst van betaalde opname zien deze zoekmachinebedrijven het belang van de vitaliteit van de optimalisatiegemeenschap. Daarom heeft Google een platform ontwikkeld om webmasters te helpen.[23] Ook de zoekmachine Yahoo heeft in het verleden de Yahoo Site Explorer aangeboden voor het monitoren van de context op het internet.[24] De zoekmachine Bing biedt de Bing Toolbox voor het optimaliseren van de website voor zoekmachines.[25]

Wedstrijden[bewerken | brontekst bewerken]

Er zijn ook websites die zogenoemde SEO contests (SEO-wedstrijden) organiseren waarbij het de bedoeling is, op vooraf bepaalde zoektermen, zo hoog mogelijk te scoren in Google of een andere zoekmachine. Meestal gaat het dan om combinaties waar nog geen zoekresultaat voor bestaat.