Robots.txt-Tester
Überprüfen Sie, ob Ihre robots.txt-Datei eine korrekte Syntax aufweist und ob ein bestimmter Pfad für den ausgewählten Bot erlaubt ist.
Was macht das Tool Robots.txt Tester?
Der Robots.txt Tester ruft die robots.txt-Datei von Ihrer Domain ab und analysiert deren Regeln. Das Tool erkennt Weiterleitungen und testet die Regeln auf dem Ziel-Hosting. So vermeiden Sie Fehler, wenn Ihre Domain auf eine Sprachversion weiterleitet.
Sie können einen beliebten User Agent auswählen, zum Beispiel den Googlebot. Anschließend prüft das Tool, ob die angegebene URL Erlaubt oder Verboten ist. In den Ergebnissen sehen Sie die passende Regel und die Zeilennummer.
Das Tool führt außerdem eine Syntaxvalidierung der robots.txt-Datei durch. Es zeigt erkannte Probleme an und hebt fehlerhafte Zeilen hervor. Zusätzlich wird der vollständige Inhalt der robots.txt-Datei in einem Textfeld angezeigt.
Wie hilft das Tool Robots.txt Tester SEO-Spezialist:innen und Website-Besitzer:innen?
Eine fehlerhafte Regel kann das Crawling und die Indexierung wichtiger Seiten Ihrer Website blockieren. Das führt oft zu Sichtbarkeitsverlust und Verlust von organischem Traffic. Mit dem Test eines einzelnen Pfades können Sie Risiken vor einer Änderung schnell erkennen.
In der Praxis sparen Sie Zeit beim Audit. Statt die Regeln manuell zu analysieren, erhalten Sie eine eindeutige Entscheidung und ein passendes Ergebnis. Das verkürzt die Prüfung von Minuten auf Sekunden und verringert Fehler.
- Überprüfung, ob die Adresse für Suchmaschinen-Bots zugänglich ist.
- Anzeige der passenden Regel und der Zeilennummer in robots.txt.
- Bewertung der Syntax und schnelles Aufzeigen von Problemen.
- Sicheres Auslesen der robots.txt nach Weiterleitungen auf die Zieldomain.
- Überprüfung des HTTP-Status der in robots.txt deklarierten Sitemap-Adressen.
Typische Anwendungsfälle für das Tool Robots.txt Tester
- Überprüfung, ob neue Seiten nicht durch Disallow blockiert werden.
- Prüfung von Regeln nach einer Domainmigration oder Einführung eines CDN.
- Zugriffstest für verschiedene Bots, darunter Googlebot und Bingbot.
- Diagnose von Problemen mit dem Crawl-Budget und unerwartetem Ausschluss von Unterseiten.
- Überprüfung, ob robots.txt keine HTML-Seite anstelle einer Textdatei zurückgibt.
- Schnelle Validierung von Sitemap-Direktiven und deren HTTP-Status.
Vergleich des Tools Robots.txt Tester mit anderen Tools
| Funktionalität | DiagnoSEO | Andere Tools |
|---|---|---|
| Automatisches Abrufen von robots.txt von der Domain | ✅ | ✅ |
| Testen von Regeln für den ausgewählten User Agent | ✅ | ✅ |
| Entscheidung Erlaubt oder Verboten für einen bestimmten Pfad | ✅ | ✅ |
| Anzeigen der passenden Regel und der Zeilennummer | ✅ | ❌ |
| Hervorhebung von Syntaxfehlern im Inhalt der robots.txt | ✅ | ❌ |
| Unterstützung von Weiterleitungen und Abrufen von robots.txt von der finalen Domain | ✅ | ❌ |
| Überprüfung des HTTP-Status der Sitemap-Adressen aus robots.txt | ✅ | ❌ |
| Anzeigen des vollständigen Inhalts der robots.txt im Textfeld | ✅ | ✅ |
Tipps und bewährte Praktiken
- Testen Sie die URL von Kategorieseiten, Filterseiten und Paginierungsseiten, bevor Sie Änderungen veröffentlichen.
- Verwenden Sie präzise Allow-Regeln, wenn Sie breite Disallow-Muster blockieren.
- Achten Sie auf Konsistenz zwischen robots.txt und Ihrer Indexierungsstrategie.
- Überprüfen Sie nach der Implementierung den HTTP-Status der robots.txt und der deklarierten Sitemaps.
- Vermeiden Sie das versehentliche Blockieren von Ressourcen, die zur Seitenanzeige benötigt werden.
Die häufigsten Fehler
- Fehlende robots.txt-Datei.
- Blockieren wichtiger Bereiche durch zu allgemeines Disallow.
- Fehlerhafte Syntax der Direktiven und fehlender Doppelpunkt.
- Regeln vor dem User Agent, was die Gruppeninterpretation erschwert.
- Unabsichtliche Weiterleitung der robots.txt auf HTML oder die Startseite.
- Veraltete Einträge zu Sitemap oder fehlerhafte Server-Antwortcodes.
Wie verwendet man das Tool Robots.txt Tester
- Fügen Sie die URL der Seite ein, die Sie testen möchten.
- Wählen Sie einen User Agent aus der Liste, zum Beispiel Googlebot.
- Starten Sie den Test und prüfen Sie die Entscheidung Erlaubt oder Verboten.
- Sehen Sie sich die passende Regel sowie die Zeilennummer in robots.txt an.
- Überprüfen Sie die Syntax-Validierungsmeldungen und hervorgehobene Fehler.
- Unten prüfen Sie die HTTP-Status der XML-Sitemap-Adressen aus der robots.txt-Datei.
Fallstudie
Ein Onlineshop stellte einen Rückgang der Anzahl der Seiten im Index fest. Nach Tests zeigte sich, dass eine Disallow-Regel den neuen Kategorienpfad blockierte. Das Tool zeigte die passende Regel und die Zeilennummer in robots.txt an. Nach Korrektur der Regel und erneutem Testen wurden die Adressen wieder korrekt gecrawlt.
Zudem zeigte die Sitemap-Status-Tabelle ein Problem mit einer Sitemap. Der Server gab einen Fehler zurück, sodass Bots sie nicht abrufen konnten. Nach der Reparatur der Sitemap-Datei wurde das Monitoring einfacher.
FAQ
-
Erlaubt bedeutet, dass die robots.txt-Regeln diesen Pfad für den gewählten Bot nicht blockieren. Verboten bedeutet Blockiert.
-
Ja. Das Tool erkennt die finale Domain und ruft die robots.txt vom Zielhost ab.
-
Das Tool sucht nach der besten Übereinstimmung. Die längste passende Regel gewinnt. Bei Gleichstand gewinnt Allow.
-
Fehler treten auf, wenn die Direktiven im falschen Format vorliegen oder vor dem User Agent stehen. Hervorhebung erleichtert die Korrektur.
-
Robots.txt enthält häufig Sitemap-Direktiven. Die Tabelle prüft, ob der Server für diese Adressen einen korrekten HTTP-Status zurückgibt.