Robots.txt-tester
Controleer of je robots.txt-bestand de juiste syntaxis heeft en of een specifiek pad is toegestaan voor de geselecteerde bot.
Wat doet de Robots.txt Tester?
De Robots.txt Tester haalt het robots.txt-bestand van je domein op en analyseert de regels. De tool detecteert redirects en test de regels op de uiteindelijke hosting. Zo voorkom je fouten wanneer een domein doorstuurt naar een taalversie.
Je kunt een populaire User agent kiezen, bijvoorbeeld Googlebot. Vervolgens controleert de tool of de opgegeven URL Toegestaan of Geblokkeerd is. In de resultaten zie je de overeenkomende regel en het regelnr.
De tool voert ook een syntaxisvalidatie van het robots.txt-bestand uit. Het toont gevonden problemen en markeert foutieve regels. Daarnaast wordt de volledige inhoud van het robots.txt-bestand getoond in een tekstveld.
Hoe helpt de Robots.txt Tester SEO-specialisten en website-eigenaren?
Één foutieve regel kan het crawlen en indexeren van belangrijke pagina's blokkeren. Dat betekent vaak minder zichtbaarheid en verlies van organisch verkeer. Met een test van één pad kun je snel risico's opsporen vóór je wijzigingen doorvoert.
In de praktijk bespaar je tijd tijdens een audit. In plaats van regels handmatig te analyseren, krijg je een duidelijke beslissing en match. Dat verkort de controle van minuten naar seconden en verkleint de kans op fouten.
- Controle of een adres toegankelijk is voor zoekmachinebots.
- Bekijk de overeenkomende regel en het regelnr. in robots.txt.
- Beoordeling van de syntaxis en snelle aanwijzing van fouten.
- Veilig lezen van robots.txt na redirects naar het uiteindelijke domein.
- Controle van HTTP-statussen van sitemap-adressen die in robots.txt zijn opgegeven.
Typische toepassingen van de Robots.txt Tester
- Controle of nieuwe pagina's niet worden geblokkeerd door Disallow.
- Regelcontrole na domeinmigratie of het implementeren van een CDN.
- Testen van toegang voor verschillende bots, waaronder Googlebot en Bingbot.
- Diagnose van problemen met crawlbudget en onverwachte uitsluiting van subpagina's.
- Controle of robots.txt geen HTML retourneert in plaats van een tekstbestand.
- Snelle validatie van Sitemap-directieven en hun HTTP-statussen.
Vergelijking van de Robots.txt Tester met andere tools
| Functionaliteit | DiagnoSEO | Andere tools |
|---|---|---|
| Automatisch ophalen van robots.txt van het domein | ✅ | ✅ |
| Testen van regels voor gekozen User agent | ✅ | ✅ |
| Beslissing Toegestaan of Geblokkeerd voor een specifiek pad | ✅ | ✅ |
| Weergave van de overeenkomende regel en regelnr. | ✅ | ❌ |
| Markeren van syntaxisfouten in de inhoud van robots.txt | ✅ | ❌ |
| Ondersteuning van redirects en ophalen van robots.txt van het uiteindelijke domein | ✅ | ❌ |
| Controleren van HTTP-status van sitemap-adressen uit robots.txt | ✅ | ❌ |
| Weergave van de volledige inhoud van robots.txt in een tekstveld | ✅ | ✅ |
Tips en best practices
- Test URL's van categorie-, filter- en paginatiepagina's vóór het publiceren van wijzigingen.
- Gebruik nauwkeurige Allow-regels wanneer je brede Disallow-patronen blokkeert.
- Zorg voor consistentie tussen robots.txt en de indexeringsstrategie van de website.
- Controleer na implementatie de HTTP-status van robots.txt en opgegeven sitemaps.
- Voorkom het per ongeluk blokkeren van middelen die nodig zijn voor het renderen van pagina's.
Meest voorkomende fouten
- Ontbrekend robots.txt-bestand.
- Belangrijke secties geblokkeerd door te algemene Disallow-regel.
- Foute syntaxis van directieven en ontbrekende dubbele punt.
- Regels vóór User agent, wat het interpreteren van groepen bemoeilijkt.
- Onbedoelde redirect van robots.txt naar HTML of de homepage.
- Verouderde sitemap-verwijzingen of foutieve server responsecodes.
Hoe gebruik je de Robots.txt Tester?
- Plak de URL van de pagina die je wilt testen.
- Kies een User agent uit de lijst, bijvoorbeeld Googlebot.
- Start de test en controleer de beslissing Toegestaan of Geblokkeerd.
- Bekijk de overeenkomende regel en het regelnr. in robots.txt.
- Bekijk de syntaxisvalidatieberichten en gemarkeerde fouten.
- Controleer onderaan de HTTP-statussen van XML sitemap-adressen uit robots.txt.
Case study
Een webwinkel merkte een daling van het aantal pagina's in de index op. Na tests bleek dat een Disallow-regel het nieuwe categoriepad blokkeerde. De tool toonde de match en het regelnr. in robots.txt. Na aanpassing van de regel en een nieuwe test werden de adressen weer correct gecrawld.
Bovendien liet de sitemap-statusstabel een probleem met één sitemap zien. De server gaf een fout, waardoor bots deze niet konden ophalen. Na herstel van het sitemapbestand werd het monitoren eenvoudiger.
FAQ
-
Toegestaan betekent dat de robots.txt-regels dit pad niet blokkeren voor de gekozen bot. Geblokkeerd betekent een blokkade.
-
Ja. De tool detecteert het uiteindelijke domein en haalt robots.txt op van de doelhost.
-
De tool zoekt de beste match. De langste overeenkomende regel wint. Allow wint bij een gelijkspel.
-
Fouten verschijnen als directieven verkeerd zijn geformatteerd of vóór een User agent staan. Markering helpt bij het corrigeren.
-
Robots.txt bevat vaak Sitemap-directieven. De tabel controleert of de server een correcte HTTP-status geeft voor deze adressen.