Sitemap-URL-Inspektor

Untersuchen und validieren Sie eine sitemap.xml (oder einen Sitemap-Index), einschließlich .xml.gz-Sitemaps. Folgen Sie Weiterleitungen, parsen Sie eine konfigurierbare Anzahl von URLs, heben Sie häufige SEO/Crawler-Probleme hervor und exportieren Sie JSON/PDF-Berichte.

Loading…

Über Sitemap-URL-Inspektor

Eine saubere Sitemap hilft Suchmaschinen, Ihre URLs effizient zu entdecken, zu crawlen und zu verstehen. Dieses Tool ruft eine Sitemap-URL ab, unterstützt Weiterleitungen und GZIP-komprimierte Sitemaps, parst Einträge (einschließlich Sitemap-Indizes) und zeigt häufige Probleme wie ungültige Struktur, fehlendes <loc>, verdächtiges <lastmod> und andere Crawler-Fallen auf. Exportieren Sie die Ergebnisse als JSON/PDF, um Korrekturen über die Zeit zu verfolgen.

Funktionen

  • Standard-Sitemaps und Sitemap-Indizes (Sitemap-von-Sitemaps) parsen.
  • Unterstützt GZIP-komprimierte Sitemaps (.xml.gz) für große, reale Websites.
  • Optionale Weiterleitungsverfolgung, um die endgültig abgerufene Sitemap-URL zu prüfen.
  • Konfigurierbares Parsing-Limit (max. zu parsende URLs) für schnelle und vorhersehbare Audits.
  • Validiert Kern-Sitemap-Felder und hebt fehlende/ungültige Tags (insbesondere <loc>) hervor.
  • Extrahiert und überprüft die <lastmod>-Nutzung auf Konsistenz und Crawler-Freundlichkeit.
  • Hilft, Sitemap-Muster für mehrsprachige SEO zu erkennen (z.B. URL-Gruppierung und Hinweise für Hreflang-Strategien).
  • Kopierbare Ergebnisse und Zusammenfassungen für SEO-Tickets und Debugging.
  • Exportieren Sie Berichte als JSON oder PDF zur Dokumentation, Weitergabe und Regressionsverfolgung.

🧭 So verwenden Sie es for sitemap-url-inspector

1

Fügen Sie Ihre Sitemap-URL ein

Geben Sie die vollständige Sitemap-URL ein. Dies kann eine reguläre XML-Sitemap oder eine GZIP-komprimierte Sitemap mit der Endung .xml.gz sein.

2

Aktivieren Sie bei Bedarf „Weiterleitungen folgen“

Wenn Ihre Sitemap-URL weitergeleitet wird (http→https, non-www→www, CDN-Umleitungen), stellt die Aktivierung sicher, dass das Tool den endgültigen Sitemap-Standort abruft.

3

„Max. zu parsende URLs“ festlegen

Wählen Sie, wie viele URL-Einträge geparst werden sollen. Verwenden Sie kleinere Limits für schnelle Checks, größere Limits für tiefgehende Audits (bis zur Obergrenze des Tools).

4

Validierungsergebnisse und URL-Statistiken prüfen

Suchen Sie nach strukturellen Problemen (fehlendes <loc>, ungültige Datumsangaben, unerwartete Formate) und allen Warnungen, die das Crawling und die Indexierung beeinträchtigen könnten.

5

Bericht exportieren (JSON/PDF)

Laden Sie einen JSON- oder PDF-Bericht herunter, um ihn an SEO-Aufgaben anzuhängen, mit Teammitgliedern zu teilen oder Vorher/Nachher-Änderungen zu vergleichen.

Technische Spezifikationen

Unterstützte Eingaben

Das Tool ist dafür ausgelegt, Sitemaps abzurufen und zu parsen, die über HTTP(S) bereitgestellt werden, einschließlich komprimierter Varianten.

EingabetypBeispieleHinweise
XML-Sitemap[https://example.com/sitemap.xml](https://example.com/sitemap.xml)Parst <urlset>-Einträge.
Sitemap-Index[https://example.com/sitemap_index.xml](https://example.com/sitemap_index.xml)Parst <sitemapindex> und verschachtelte Sitemap-URLs.
Gzip-komprimierte Sitemap[https://example.com/sitemap.xml.gz](https://example.com/sitemap.xml.gz)Lädt und parst komprimierte Sitemaps.

Abrufverhalten und Grenzwerte

Das Anfrageverhalten ist für vorhersehbare Leistung und crawlerähnliche Einschränkungen optimiert.

EinstellungVerhaltenStandard
Weiterleitungen folgenFolgt Weiterleitungen beim Abrufen der Sitemap-URLAktiviert
Maximale WeiterleitungenMaximale Anzahl befolgter Weiterleitungen, wenn aktiviert10
TimeoutTimeout-Budget für Anfragen20000 ms
Maximale zu parsende URLsBegrenzt, wie viele Einträge aus dem Sitemap-Inhalt geparst werden500 (Bereich 10–5000)
User-AgentIdentifikations-Header für AnfragenEncode64Bot/1.0 (+[https://encode64.com](https://encode64.com))
Private NetzwerkeBlockiert Ziele in privaten NetzwerkenNicht erlaubt

Worauf die Validierung fokussiert

Der Inspektor priorisiert Probleme, die häufig die Sitemap-Verarbeitung beeinträchtigen oder die Crawling-Effizienz verringern: fehlende/ungültige <loc>-Elemente, fehlerhafte XML-Strukturen, verdächtige oder inkonsistente <lastmod>-Angaben und Muster, die Crawler verwirren können, wenn Sitemaps falsch generiert werden.

Eine Sitemap kann gültiges XML sein, aber dennoch von geringer Qualität für die SEO. Nutzen Sie die Ergebnisse, um Klarheit, Konsistenz und Wartbarkeit zu verbessern.

Befehlszeile

Verwenden Sie curl (oder PowerShell), um das Abrufen von Sitemaps und Weiterleitungen auf die gleiche Weise wie Crawler zu debuggen.

macOS / Linux

Sitemap-Header abrufen (keine Weiterleitung)

curl -I [https://example.com/sitemap.xml](https://example.com/sitemap.xml)

Statuscode, Content-Type und Caching-Header prüfen.

Weiterleitungen folgen und Header abrufen

curl -IL [https://example.com/sitemap.xml](https://example.com/sitemap.xml)

Nützlich, wenn eine Sitemap-URL durch CDN oder HTTPS-Kanonisierung weitergeleitet wird.

Sitemap-Inhalt herunterladen (Vorschau)

curl -s [https://example.com/sitemap.xml](https://example.com/sitemap.xml) | head -n 40

XML-Prolog und Root-Tags schnell einsehen.

Eine gezippte Sitemap prüfen (Vorschau)

curl -s [https://example.com/sitemap.xml.gz](https://example.com/sitemap.xml.gz) | gzip -dc | head -n 40

Dekomprimieren und den Anfang einer .xml.gz-Sitemap vorschauen.

Windows (PowerShell)

Sitemap-Inhalt herunterladen

Invoke-WebRequest -Uri [https://example.com/sitemap.xml](https://example.com/sitemap.xml) | Select-Object -ExpandProperty Content

Holt den XML-Body zur schnellen Überprüfung.

Wenn Ihre Sitemap sehr groß ist, validieren Sie zuerst einen repräsentativen Teil, bevor Sie umfangreichere Parses durchführen, um systematische Generierungsprobleme zu erkennen.

Anwendungsfälle

Eine neu generierte Sitemap validieren

Schnell überprüfen, ob sitemap.xml abrufbar, wohlgeformt ist und korrekte URL-Einträge enthält.

  • Bestätigen, dass Ihr Generator eine gültige XML-Struktur ausgibt
  • Fehlende <loc>-Werte frühzeitig erkennen

Gezippte Sitemaps auf Crawler-Kompatibilität prüfen

Sicherstellen, dass komprimierte Sitemaps korrekt ausgeliefert und sauber geparst werden.

  • Prüfen, ob .xml.gz-Inhalt lesbar und konsistent ist
  • CDN/Proxy-Content-Type-Probleme identifizieren

Probleme mit Weiterleitungen und Kanonisierung debuggen

Unerwartete Weiterleitungen oder Nicht-200-Antworten finden, die den Sitemap-Verbrauch blockieren können.

  • http→https-Weiterleitungsketten
  • www vs. non-www-Kanonisierung

Sitemap-Qualität über die Zeit verfolgen

Berichte exportieren und nach Releases, CMS-Migrationen oder mehrsprachigen Erweiterungen vergleichen.

  • Vorher/Nachher-Deploy-Regressionschecks
  • <lastmod>-Konsistenz nach Content-Updates überwachen

❓ Frequently Asked Questions

Was ist der Unterschied zwischen einer Sitemap und einem Sitemap-Index?

Eine Sitemap listet URLs direkt auf (normalerweise unter ). Ein Sitemap-Index listet mehrere Sitemap-Dateien auf (unter ), was bei großen Websites üblich ist.

Sollte meine Sitemap <lastmod> enthalten?

Es ist optional, aber nützlich, wenn es korrekt und konsistent formatiert ist. Falsche oder sich ständig ändernde -Werte können das Vertrauen verringern und helfen möglicherweise nicht beim Crawling.

Warum könnte eine Sitemap von Crawlern ignoriert werden?

Häufige Gründe sind Abruffehler (nicht 200), blockierter Zugriff, ungültige XML-Struktur, fehlendes , falscher Content-Type oder Redirect-Schleifen.

Ist es in Ordnung, wenn meine Sitemap weiterleitet?

Normalerweise ja, aber es ist besser, die endgültige kanonische Sitemap-URL einzureichen und zu veröffentlichen, um den Crawler-Aufwand zu reduzieren und versehentliche Unterbrechungen zu vermeiden.

Kann dieses Tool jeden URL in der Sitemap auf Statuscodes prüfen?

Dieser Inspektor konzentriert sich auf das Parsen und Validieren der Sitemap sowie das Extrahieren von Statistiken. Verwenden Sie einen dedizierten URL-Statuschecker oder Crawler, wenn Sie jede gelistete URL abrufen und validieren möchten.

Unterstützt dieses Tool Multi-Locale-/Hreflang-Sitemaps?

Es ist dazu konzipiert, Muster zu erkennen, die für Multi-Locale-SEO relevant sind. Wenn Sie URLs für alternative Sprachen veröffentlichen, stellen Sie sicher, dass Ihre Sitemap-Struktur und URL-Gruppierung mit Ihrer Hreflang-Strategie konsistent ist.

Pro Tips

Best Practice

Reichen Sie die endgültige kanonische Sitemap-URL in der Search Console ein (vermeiden Sie die Abhängigkeit von Weiterleitungen).

Best Practice

Für sehr große Websites: Teilen Sie Sitemaps auf und verwenden Sie einen Sitemap-Index. Halten Sie jede Sitemap innerhalb der Protokollgrenzen und in betrieblich handhabbaren Teilen.

Best Practice

Verwenden Sie <lastmod> nur, wenn es korrekt ist. Aktualisieren Sie es nicht bei jedem Deployment, wenn sich der Seiteninhalt nicht geändert hat.

Best Practice

Wenn Sie Multi-Locale-URLs haben (wie /fr/, /en/), stellen Sie sicher, dass Ihre Sitemap-Generierung über alle Locales hinweg konsistent ist, damit Crawler keine unvollständige Abdeckung sehen.

Best Practice

Exportieren Sie JSON/PDF nach größeren Releases, um Nachweise für die Fehlersuche bei Indexierungsschwankungen in der Search Console zu haben.

Additional Resources

Other Tools