Inspektor URL Sitemap

Periksa dan validasi sitemap.xml (atau indeks sitemap), termasuk sitemap .xml.gz. Ikuti pengalihan, parsing hingga jumlah URL yang dapat dikonfigurasi, sorot masalah SEO/crawler umum, dan ekspor laporan JSON/PDF.

Loading…

Tentang Inspektor URL Sitemap

Sitemap yang bersih membantu mesin pencari menemukan, merayapi, dan memahami URL Anda secara efisien. Alat ini mengambil URL sitemap, mendukung pengalihan dan sitemap gzipped, parsing entri (termasuk indeks sitemap), dan mengungkap masalah umum seperti struktur tidak valid, <loc> hilang, <lastmod> mencurigakan, dan jebakan crawler lainnya. Ekspor hasil sebagai JSON/PDF untuk melacak perbaikan dari waktu ke waktu.

Fitur

  • Parsing sitemap standar dan indeks sitemap (sitemap-of-sitemaps).
  • Mendukung sitemap gzipped (.xml.gz) untuk situs besar dunia nyata.
  • Opsi ikuti pengalihan untuk mengaudit URL sitemap akhir yang diambil.
  • Batas parsing yang dapat dikonfigurasi (maks URL untuk di-parsing) agar audit tetap cepat dan terprediksi.
  • Memvalidasi bidang inti sitemap dan menyorot tag yang hilang/tidak valid (terutama <loc>).
  • Mengekstrak dan meninjau penggunaan <lastmod> untuk konsistensi dan keramahan crawler.
  • Membantu mengidentifikasi pola sitemap yang relevan untuk SEO multi-lokale (misalnya, pengelompokan URL dan petunjuk untuk strategi hreflang).
  • Temuan dan ringkasan yang dapat disalin untuk tiket SEO dan debugging.
  • Ekspor laporan sebagai JSON atau PDF untuk dokumentasi, berbagi, dan pelacakan regresi.

🧭 Cara menggunakan for sitemap-url-inspector

1

Tempel URL sitemap Anda

Masukkan URL sitemap lengkap. Ini bisa berupa sitemap XML biasa atau sitemap gzipped yang berakhiran .xml.gz.

2

Aktifkan “Ikuti Pengalihan” jika diperlukan

Jika URL sitemap Anda dialihkan (http→https, non-www→www, penulisan ulang CDN), mengaktifkan pengalihan memastikan alat mengambil lokasi sitemap akhir.

3

Atur “Maks URL untuk di-parsing”

Pilih berapa banyak entri URL yang akan di-parsing. Gunakan batas lebih kecil untuk pemeriksaan cepat, batas lebih besar untuk audit mendalam (hingga batas maksimum alat).

4

Tinjau hasil validasi dan statistik URL

Cari masalah struktural (<loc> hilang, tanggal tidak valid, format tak terduga) dan peringatan apa pun yang dapat memengaruhi perayapan dan pengindeksan.

5

Ekspor laporan (JSON/PDF)

Unduh laporan JSON atau PDF untuk dilampirkan pada tugas SEO, dibagikan dengan rekan tim, atau dibandingkan sebelum/setelah perubahan.

Spesifikasi teknis

Input yang didukung

Alat ini dirancang untuk mengambil dan mem-parsing sitemap yang disajikan melalui HTTP(S), termasuk varian terkompresi.

Jenis inputContohCatatan
Peta situs XML[https://example.com/sitemap.xml](https://example.com/sitemap.xml)Mengurai entri <urlset>.
Indeks peta situs[https://example.com/sitemap_index.xml](https://example.com/sitemap_index.xml)Mengurai <sitemapindex> dan URL peta situs bersarang.
Peta situs terkompresi Gzip[https://example.com/sitemap.xml.gz](https://example.com/sitemap.xml.gz)Mengambil dan mengurai peta situs terkompresi.

Perilaku dan batasan pengambilan

Perilaku permintaan disesuaikan untuk kinerja yang dapat diprediksi dan batasan seperti crawler.

PengaturanPerilakuDefault
Ikuti PengalihanMengikuti pengalihan saat mengambil URL peta situsDiaktifkan
Pengalihan MaksimumPengalihan maksimum yang diikuti saat diaktifkan10
Batas WaktuAnggaran batas waktu permintaan20000 ms
URL Maksimum untuk DiuraiMembatasi berapa banyak entri yang diurai dari konten peta situs500 (rentang 10–5000)
User-AgentHeader identifikasi permintaanEncode64Bot/1.0 (+[https://encode64.com](https://encode64.com))
Jaringan pribadiMemblokir target jaringan pribadiTidak diizinkan

Fokus validasi

Inspektor memprioritaskan masalah yang umumnya mengganggu pemrosesan peta situs atau mengurangi efisiensi perayapan: <loc> yang hilang/tidak valid, struktur XML yang salah, <lastmod> yang mencurigakan atau tidak konsisten, serta pola yang dapat membingungkan crawler saat peta situs dibuat secara tidak benar.

Peta situs bisa berupa XML yang valid namun tetap berkualitas rendah untuk SEO. Gunakan temuan untuk meningkatkan kejelasan, konsistensi, dan kemudahan pemeliharaan.

Baris perintah

Gunakan curl (atau PowerShell) untuk men-debug pengambilan peta situs dan pengalihan dengan cara yang sama seperti crawler.

macOS / Linux

Ambil header peta situs (tanpa pengalihan)

curl -I [https://example.com/sitemap.xml](https://example.com/sitemap.xml)

Periksa kode status, tipe konten, dan header caching.

Ikuti pengalihan dan ambil header

curl -IL [https://example.com/sitemap.xml](https://example.com/sitemap.xml)

Berguna ketika URL peta situs dialihkan oleh CDN atau kanonisasi HTTPS.

Unduh konten peta situs (pratinjau)

curl -s [https://example.com/sitemap.xml](https://example.com/sitemap.xml) | head -n 40

Dengan cepat periksa prolog XML dan tag root.

Periksa peta situs terkompresi gzip (pratinjau)

curl -s [https://example.com/sitemap.xml.gz](https://example.com/sitemap.xml.gz) | gzip -dc | head -n 40

Dekompresi dan pratinjau awal dari peta situs .xml.gz.

Windows (PowerShell)

Unduh konten peta situs

Invoke-WebRequest -Uri [https://example.com/sitemap.xml](https://example.com/sitemap.xml) | Select-Object -ExpandProperty Content

Mengambil badan XML untuk inspeksi cepat.

Jika peta situs Anda sangat besar, validasi subset perwakilan terlebih dahulu, lalu jalankan penguraian yang lebih besar untuk mendeteksi masalah pembangkitan sistemik.

Kasus penggunaan

Validasi peta situs yang baru dibuat

Dengan cepat verifikasi bahwa sitemap.xml dapat diambil, terbentuk dengan baik, dan berisi entri URL yang benar.

  • Konfirmasi generator Anda menghasilkan struktur XML yang valid
  • Tangkap nilai <loc> yang hilang lebih awal

Audit peta situs terkompresi gzip untuk kompatibilitas crawler

Pastikan peta situs terkompresi disajikan dengan benar dan terurai dengan bersih.

  • Periksa konten .xml.gz dapat dibaca dan konsisten
  • Deteksi masalah tipe konten CDN/proxy

Debug masalah pengalihan dan kanonisasi

Temukan pengalihan tak terduga atau respons non-200 yang dapat menghalangi konsumsi peta situs.

  • Rantai pengalihan http→https
  • Kanonisasi www vs non-www

Lacak kualitas peta situs dari waktu ke waktu

Ekspor laporan dan bandingkan setelah rilis, migrasi CMS, atau ekspansi multi-lokale.

  • Pemeriksaan regresi sebelum/setelah penyebaran
  • Pantau konsistensi <lastmod> setelah pembaruan konten

❓ Frequently Asked Questions

Apa perbedaan antara peta situs dan indeks peta situs?

Peta situs mencantumkan URL secara langsung (biasanya di bawah ). Indeks peta situs mencantumkan beberapa file peta situs (di bawah ) yang umum untuk situs besar.

Apakah sitemap saya harus menyertakan <lastmod>?

Ini opsional, tetapi berguna jika akurat dan diformat secara konsisten. Nilai yang salah atau terus berubah dapat mengurangi kepercayaan dan mungkin tidak membantu perayapan.

Mengapa sitemap bisa diabaikan oleh crawler?

Alasan umum termasuk kesalahan pengambilan (non-200), akses yang diblokir, struktur XML tidak valid, hilang, tipe konten salah, atau pengalihan berulang.

Apakah boleh jika sitemap saya dialihkan?

Biasanya ya, tetapi lebih baik mengirimkan dan mempublikasikan URL sitemap kanonik akhir untuk mengurangi beban crawler dan menghindari kerusakan tidak sengaja.

Dapatkah alat ini memeriksa setiap URL di sitemap untuk kode status?

Inspektor ini fokus pada penguraian dan validasi sitemap serta ekstraksi statistik. Gunakan pemeriksa status URL atau crawler khusus jika Anda ingin mengambil dan memvalidasi setiap URL yang terdaftar.

Apakah alat ini mendukung sitemap multi-lokale / hreflang?

Alat ini dirancang untuk membantu mengidentifikasi pola yang relevan dengan SEO multi-lokale. Jika Anda mempublikasikan URL bahasa alternatif, pastikan struktur sitemap dan pengelompokan URL konsisten dengan strategi hreflang Anda.

Pro Tips

Best Practice

Kirim URL sitemap kanonik akhir di Search Console (hindari mengandalkan pengalihan).

Best Practice

Untuk situs yang sangat besar, pisahkan sitemap dan gunakan indeks sitemap. Pertahankan setiap sitemap dalam batas protokol dan bagian yang dapat dikelola secara operasional.

Best Practice

Gunakan <lastmod> hanya jika akurat. Jangan perbarui untuk setiap penerapan jika konten halaman tidak berubah.

Best Practice

Jika Anda memiliki URL multi-lokale (seperti /fr/, /en/), pastikan pembuatan sitemap konsisten di semua lokale agar crawler tidak melihat cakupan parsial.

Best Practice

Ekspor JSON/PDF setelah rilis besar sehingga Anda memiliki bukti untuk debugging fluktuasi pengindeksan Search Console.

Additional Resources

Other Tools