Technische SEO: 3 gênante errors die je NU moet checken!

pexels-photo-90807

Zorg ervoor dat je je positie in de zoekresultaten behoudt door technische SEO-errors te voorkomen of herstellen. Een schijnbaar ‘kleine’ fout in de code van je website kan er zomaar voor zorgen dat je welverdiende, organische zichtbaarheid nutteloos wordt; het is al voldoende om je website volledig uit de resultaten van Google te halen, of te verbergen, hoeveel energie je ook in content marketing en linkbuilding hebt gestoken…  

Een beangstigende situatie. Zeker als je organisatie goed gedijt op organisch verkeer. Daarom is samenwerken belangrijk bij SEO. Iedereen die toegang heeft tot de website moet bekend zijn met deze potentiële blunders om consequenties te voorkomen. Of je nu marketing manager, CEO, entrepreneur of een andere professional bent, jij (en je hele team) moet weten wat technische SEO-errors je kunnen kosten.

SEO-errors, leer ze te herstellen

SEO is sowieso al lastig soms, maar technische SEO al helemaal. Je bent dan op een heel ander level bezig. Ondanks dat, levert het zeker wat op als je er vaak genoeg tijd aan besteed. Dus, fris je geheugen op en ga aan de slag! Ik ga hieronder in op drie mogelijke fouten, waar je meteen naar moet kijken. Controleer deze technische SEO-errors om ervoor te zorgen dat je online zichtbaarheid niet wordt aangetast. En leer ze te herstellen! Mocht je positie in de zoekresultaten door deze errors zijn gezakt…

Error No 1. Het ontketenen van de single-line code of doom

We maken allemaal fouten, maar een fout maken in dit specifieke bestand, heeft serieuze gevolgen… Ik heb het over je .htaccess file. Alleen al een karakter te veel of te weinig in dit bestand, zelfs een extra spatie, kan je website onderuit halen!

Even wat achtergrondinformatie voordat we de ultieme error onthullen…

Als je de Apache webserver gebruikt (wat in de meeste gevallen zo is), kun je je .htaccess bestand beschouwen als de ‘master command centre’ van jouw website – de cockpit als het ware.

Andere populaire servers zijn NGINX en Microsoft-IIS. Deze worden lang niet zo veel gebruikt als Apache. Hetzelfde geldt voor Google Servers en LiteSpeed. Het gebruik van NGINX groeit wel behoorlijk. Om het nog iets verwarrender te maken… de NGINX-versie van het .thaccess bestand wordt nginx.conf genoemd en de versie van Microsoft-IIS is een web.config bestand. Het zijn niet exact dezelfde bestanden, maar ze zijn vergelijkbaar met soortgelijke functies van master controle.

Tip: Je kunt onder andere met behulp van de tool ‘browserSPY’ snel opzoeken welke server je gebruikt. Vul simpelweg je URL of domeinnaam in en je weer het!

Screenshot van BrowserSpy, de resultaten voor inboundmarketing.nl

De error: Welke codelijn moet je vermijden?

Dit zijn de foutieve SEO-codes van de twee populairste servers, Apache en NGINX:

Voor Apache: als je deze codelijn in je .htacces bestand hebt staan, zal je website niet in de zoekmachine resultaten worden opgenomen.

Header set X-Robots-Tag “noindex, nofollow”

Voor NGINX: als je deze codelijn in je nginx.conf bestand hebt staan, zal jouw website niet in de zoekmachine resultaten worden opgenomen.

add_header  X-Robots-Tag “noindex, nofollow”;

Je kunt de aanwezigheid van deze commands, ook wel HTTP headers, opzoeken met de tool: http://headers.cloxy.net/

Hoe kan het fout gaan?

X-Robots richtlijnen, zoals de voorbeelden hierboven, zijn handig voor een ordelijk en efficiënte SEO. Gebruik ze wel heel voorzichtig en zorg er altijd voor dat er backups van je .htaccess bestanden worden gemaakt, onderhouden en gecontroleerd na elke website wijziging. Doe je dat niet? Dan kan het goed fout gaan. Soms worden er ook wijzigingen aan de website, als die nog in ontwikkeling is, meegenomen als het live gaat.

Bekijk het zo… Je wilt écht niet degene zijn die een fout maakt in het master control bestand van jouw bedrijf. Wees altijd alert voor plotselinge afname in traffic.

Error No. 2. De controle over je URL parameters verliezen

URL is een afkorting voor Uniform Resource Locator – een mooie naam voor het webadres van elke pagina op het internet. Als je een e-commerce of grote nieuwssite runt, zal je waarschijnlijk in veel URL’s ‘=’ hebben staan en suffixes (achtervoegsels) hebben die beginnen met ‘/?’. Deze worden gebruikt om dezelfde of vergelijkbare content in verschillende formats te presenteren. Deze staan bekend als parameters.

Parameter URL’s zijn meestal lang en lelijk…  En ze kunnen een behoorlijk zooitje veroorzaken!

  • URL parameters kunnen in Google Search Console via de ‘Crawl’ tab aan de linkerzijde worden vastgesteld. Je kunt hier aangeven dat je wilt dat Google deze pagina’s met dubbele content negeert. Hierdoor kan je echter wel de autoriteit verliezen, die je met backlinks hebt gekregen.
  • Je robots.txt.file kan er ook voor zorgen dat zoekmachines deze dubbele pagina’s niet crawlen. Als jouw parameter URL /?sort=order_popular bevat, kan je deze ‘wildcard’ richtlijnen gebruiken om Google te laten stoppen de parameter te crawlen: User-agent: * en Disallow: /?*

Dit zorgt er helaas niet automatisch voor dat de ‘spiders’ van andere zoekmachines ook tegen worden gehouden…

web spiders crawlers crawl internet zoekmachine

Brrr…

Als je de ‘schuldige’ parameter URL’s met dubbele content op tijd ontdekt en deze wilt opschonen voor ze door Google geïndexeerd worden, kun je de volgende stappen nemen…

  1. Als je een kleinere website hebt en alsnog parameters gebruikt, dan kun je snel alle ‘schuldige’ URL’s van Google verwijderen met de Search Console ‘Remove URL’s ’- tool. Schrik niet! Dit moet wel handmatig, URL voor URL, gebeuren.
  2. Zorg dat je pagina’s zonder parameters makkelijk te vinden zijn door zoekmachines, door deze aan te geven in jouw .xml sitemap. Als extra maatregel gebruik je de ‘allow’ directive in je robots.txt bestand (yourdomain.com/robots.txt) terwijl je daar ook je .xml sitemap aangeeft.

Om in zulke scenario’s ervoor te zorgen dat er niks over het hoofd gezien wordt, kun je de “noindex, follow” meta robots tag gebruiken op elke URL die je niet geïndexeerd wil hebben, terwijl je ook de rel=”canonical” meta tag toepast. Door deze canonical tag toe te passen, geef je bij Google aan welke pagina je hoofd of ‘master’ pagina is voor andere URL’s met vergelijkbare content.

<link rel=”canonical” href=”http://yourdomain.com/clean-url”>

Je moet deze tag op alle dubbele pagina’s en de hoofd pagina gebruiken om het effectief te laten werken. Daarbij vereist elke URL wel een aangepaste tag, die past bij die URL.

Als je een grote website hebt, zou je zeker dynamic canonical tags moeten implementeren om het proces te automatiseren.

Een inzicht: Als je bij Google aangeeft dat pagina’s niet door robots.txt gecrawld moeten worden, betekent het waarschijnlijk dat je meta robots en canonical tags op die pagina’s niet erkend worden. Robots.txt richtlijnen worden echter niet altijd gevolgd, dus in zo’n situatie vormen deze tags een veiligheidsnet.

Nog een inzicht 😉  Crawl budget is alleen een issue voor grote website of websites met een oneindig aantal paginaresultaten. Kleinere websites kunnen dus zeker zijn over het laten crawlen van alle pagina’s, terwijl ze gebruik maken van meta robots, X-Robots en canonical tags.

Wat als deze parameter URLs al een paar mooie backlinks hebben?

Ik zal eerst ingaan op wat je kunt doen met een standaard URL die je niet geïndexeerd wilt hebben (een URL zonder parameters als ‘?’ achter de eerste slash), maar die wel waardevolle backlinks oppikt. Je kan de URL weglaten in robot.txt (zo dat het kan crawlen) en voeg daarvoor in de plaats de eerder genoemde regel “noindex, follow” tag toe, ook wel bekend als meta robots.

Het volgende is dan toegevoegd in jouw pagina’s HTML <head> sectie:

<meta name=”robots” content=”noindex, follow” />

Bovenstaande regel geeft Google de opdracht om verworven links naar andere pagina’s te verplaatsen, maar niet om de pagina in de zoekresultaten te indexeren. Om het overzichtelijk te houden kun je daarna de pagina verwijderen van Google’s index, via Search Console.

Je kunt backlinks checken via een tool als AHREFS: https://ahrefs.com/

Notitie: Wees er zeker van dat je canonical tags goed staan en jouw master pagina al geïndexeerd is voordat je dit doet.

En oplossingen voor parameter URL’s?

Hier wordt het een beetje lastig! Parameter URL’s zijn moeilijker te manipuleren door hun dynamische aard (Het zijn geen ‘vaste’ pagina’s).

Als dit het geval is, is het mogelijk om alle autoriteit die je van de linkende websites hebt gekregen, te behouden en tegelijkertijd voorkomen dat er meer aandacht naar deze parameter URL’s gaat. Dit doe je wederom door dynamisch toegepaste canonical tags en via slimme .htaccess commando’s om “noindex, follow” toe te passen op deze pagina’s.

Als gevolg daarvan zullen ze vroeg of laat uit Google’s index verdwijnen. Maar je zou ook nog een keer de URL removal tool kunnen gebruiken voor belangrijke pagina’s, al een sneller alternatief.

inbound marketing SEO technisch   We zijn op de helft!

Als het goed is heb je inmiddels wel door hoe gevoelig het .htaccess bestand is. Zorg altijd dat je een testomgeving gebruikt die je makkelijk terug kunt zetten of herstellen, voordat je het bestand opent. Test nooit je live website!

Hier heb je trouwens nog een handig trucje, mocht je een grote website hebben die crawl budget vreet en hoofdpijn krijgen van alle dynamische canonicals of .htaccess commando’s:

Zorg dat je developers de functies van ‘schuldige’ parameters veranderen (en daardoor ook hun URL’s) die veel links binnenhalen. Dit terwijl je de originele parameter URL’s doorstuurt of -linkt naar hun tegenhangers, standaard en non-parameter URL’s.

Hier heb je een voorbeeld:

  • Parameter URL die waardevolle links heeft verkregen: www.jouwdomein.com/hallo/?sum=high
  • Nieuwe parameter URL die dezelfde content biedt: www.jouwdomein.com/hallo/?sum=high_content
  • Originele URL zonder enige parameter: www.jouwdomein.com/hallo/
  • De te omleiden parameter. Stuur deze parameter door naar de originele URL: www.jouwdomein.com/hallo/?sum=high
  • Naar de originele URL: www.jouwdomein.com/hello/

Bij 301 omleidingen zorg je ervoor dat je vol gebruik kunt maken van de linkbuilding die parameters hebben verworven. Het geeft de kans op een betere positie voor je hoofd of master pagina’s in Google. Om het geordend te houden, kun je elk spoor van de originele parameter URL’s verwijderen van jouw robots.txt bestand.

Zodra je het hebt omgeleid, kun je de robots.txt. ‘disallow’ optie gebruiken voor nieuwe parameter URL’s.

Notitie: Als je een grote website hebt of een oneindig aantal paginaresultaten, is het gunstiger als je parameter URL’s blokkeert tegen crawlen via robots.txt. Voor relatief kleine ‘basic’ websites, zijn canonical en meta robots “noindez, nofollow” tags vaak de beste actie.

Je kunt ongewenste pieken en dalen van de crawl rate onder andere in de gaten houden via je Search Console ‘Crawl Stats’ tab. Neem altijd de tijd om de voor- en nadelen tegen elkaar af te wegen voordat je technische wijzigingen aanbrengt. Wil ik een complexe verandering inbrengen om het voordeel te maximaliseren voor een of twee links? Waarschijnlijk niet.

Het helpt allemaal bij het ordenen van jouw gewenste master pagina’s, in plaats van het verdunnen van de autoriteit van jouw website.

Error no. 3: Verschillende versies van jouw website tonen

Dit is een van de ergste en toch ook meest makkelijkst te vermijden erro die ik ben tegengekomen… al veel te vaak!

Wist je dat jouw website meerdere versies kan hebben die tegelijkertijd live staan?

Bijvoorbeeld:

  • www.yourwebsite.com
  • yourwebsite.com
  • yourwebsite.com/index.html (op Apache)
  • https://yourwebsite.com
  • Deze vier variaties kunnen dezelfde pagina’s en website laten zien!

Hoewel de content precies hetzelfde is, zullen zoekmachines deze domeinen als vier verschillende websites zien. Dit kan problemen veroorzaken bij de indexatie van deze pagina’s en zorgt voor verwarring bij de gebruikers.

Controles die je kunt uitvoeren:

  • Zorg er eerst voor dat je één van de domeinen als ‘preferred domain’ selecteert in Google Search Console.
  • Controleer het lijstje domeinvariaties op jouw voorkeursdomein om te zien of je via daar automatisch doorgestuurd wordt naar jouw master domein URL, je ‘preferred domain’.
  • Zo niet: dan hebben we een probleem!

Acties die je kunt ondernemen:

  • Vraag je developers om 301 (permanente) omleidingen te maken voor alle dubbele versies, als dat mogelijk is. (LET OP: alle pagina’s moeten aan elkaar gekoppeld zijn en verwijzen naar hun tegenhangers, wat je snel kunt doen via .htaccess, als je een grote website hebt).
  • De meeste Content Management Systemen (CMS) zoals WordPress zullen hoofdletters in URL’s hoofdletters automatisch omzetten in kleine letters. Als dit niet het geval is bij jouw CMS, kun je speciale richtlijnen insluiten in, je raadt het al: de .htacces!
  • Als het, om wat voor reden dan ook, niet mogelijk is om de URL’s om te leiden, zou ik alleen de canonical en “noindex, follow” tag toepassen waar dit kan en alle geïndexeerde URL’s in Google verwijderen (gebruik hier de URL removal tool via Search Console).
    • Ook in dit geval, als de betreffende domeinen en pagina’s al zijn ontdekt en linkbuilding hebben, zou ik niet de “nofollow” tag of ‘Disallow’ in robots.txt toepassen, omdat de opgebouwde SEO-waarde kan verdwijnen.
    • Zorg er ook voor dat alle interne links binnen jouw ‘preferred’ domein dezelfde domein links gebruiken en niet naar een ander versie van je website wijzen. Het is een makkelijke fout om te maken…

Als je nog steeds problemen hebt met het identificeren en oplossen van technische SEO-errors, dan kun je ons altijd bereiken!

Dit artikel is een vertaling en bewerking van dit artikel op digitalcurrent.com

0 I like it
0 I don't like it

Leave a Reply

Your email address will not be published. Required fields are marked *