Robots.txt Tester

Bir sitenin robots.txt kurallarına göre belirli bir yolun bir tarayıcı için izin verilip verilmediğini test edin. Bir User-Agent seçin (örn., Googlebot, bingbot veya *), son robots.txt'ye ulaşmak için yönlendirmeleri takip edin, Sitemap yönergelerini çıkarın ve SEO denetimleri ve izleme için sonuçları JSON olarak dışa aktarın.

Loading…

Hakkında Robots.txt Test Aracı

Robots.txt, site düzeyinde tarayıcı erişimini kontrol eder. Bu araç, sitenin robots.txt dosyasını getirir, seçilen bir User-Agent için kurallarını uygular ve belirli bir yolun izin verilmesi veya engellenmesi gerekip gerekmediğini söyler. İndeksleme sorunlarını teşhis etmek, geçiş değişikliklerini doğrulamak ve önemli bölümleri yanlışlıkla engellemediğinizden (veya özel bölümleri açığa çıkarmadığınızdan) emin olmak için idealdir.

Özellikler

  • Seçilen bir User-Agent (Googlebot, bingbot veya *) için robots.txt'ye karşı belirli bir yolu test edin.
  • Kuralları değerlendirmeden önce doğru ana bilgisayar/protokole ulaşmak için yönlendirmeleri takip edin.
  • Robots.txt'de bulunan Sitemap: yönergelerini çıkarın ve doğrulayın.
  • Yaygın yapılandırma hatalarını vurgulayın (çok geniş disallow'lar, eksik sitemap'lar, tutarsız ana bilgisayar yönlendirmeleri).
  • SEO talepleri ve hata ayıklama için sonuçları kopyalayın.
  • Denetimler, gerileme kontrolleri ve CI izleme için bir JSON raporu dışa aktarın.
  • Varsayılan olarak güvenli: özel ağ hedeflerini engeller ve sabit bir User-Agent kullanır.

🧭 Nasıl kullanılır for robots-txt-tester

1

Site URL'sini girin

Sitenin temel URL'sini yapıştırın (örneğin [https://example.com](https://example.com)). Araç, o site için robots.txt dosyasını bulacak ve okuyacaktır.

2

Bir User-Agent seçin

Herhangi bir botu simüle etmek için * seçin veya belirli grup kurallarını değerlendirmek için Googlebot / bingbot'u seçin. Robots.txt davranışı bota göre farklılık gösterebilir.

3

Test edilecek yolu ayarlayın

Doğrulamak istediğiniz yolu girin (örneğin /private/ veya /products/widget). Bu, Allow/Disallow kurallarına karşı değerlendirilir.

4

“Yönlendirmeleri Takip Et” seçeneğini etkin tutun (önerilir)

Siteniz http→https veya non-www→www (veya tersi) yönlendirmesi yapıyorsa, yönlendirmeleri takip etmek doğru ana bilgisayarın robots.txt dosyasını değerlendirmenizi sağlar.

5

Kararı ve sitemap satırlarını gözden geçirin

Yolun izin verilip verilmediğini onaylayın ve çıkarılan Sitemap yönergelerini kontrol edin. Denetimler veya izleme için kanıt saklamak üzere JSON'u dışa aktarın.

Teknik özellikler

Aracın değerlendirdikleri

Test aracı, sitenin robots.txt dosyasını getirir ve sağlanan yola User-Agent grup kurallarını uygular. Ayrıca SEO doğrulaması için Sitemap yönergelerini çıkarabilir.

GirdiAnlamıÖrnek
Site URLRobots.txt'nin alındığı temel site[https://example.com](https://example.com)
User-AgentDeğerlendirilecek tarayıcı grup kurallarıGooglebot, bingbot, *
Test edilecek yolAllow/Disallow direktiflerine karşı kontrol edilen yol/private/

İstek davranışı ve güvenlik

İstekler, güvenlik sınırları ve isteğe bağlı yönlendirme takibi ile sunucu tarafında gerçekleştirilir; bu, kanonik host/protokol kurulumları için önemlidir.

AyarDavranışVarsayılan
Yönlendirmeleri Takip EtDeğerlendirmeden önce son host/protokole yönlendirmeleri takip ederEtkin
Maks. YönlendirmeTakip etkin olduğunda yönlendirme sınırı10
Zaman Aşımıİstek zaman aşımı sınırı15000 ms
User-Agent (istekler)Araç isteği kullanıcı ajanını tanımlarEncode64Bot/1.0 (+[https://encode64.com](https://encode64.com))
Özel ağlarGüvenlik için özel ağ hedeflerini engellerDevre dışı (özel ağlara izin verilmez)

Pratik robots.txt kuralları yorumlaması

Robots.txt bir tarayıcı direktifidir (erişim kontrol sistemi değildir). Taramayı önlemeye yardımcı olur, ancak dizinden kaldırmayı garanti etmez ve hassas verileri korumaz.

Özel içeriği korumanız gerekiyorsa, kimlik doğrulama ve uygun yetkilendirme kullanın. Dizinden kaldırma için noindex başlıkları/meta etiketlerine güvenin ve kamuya açık bağlantıları kaldırın—robots.txt tek başına bir kaldırma aracı değildir.

Komut satırı

Curl kullanarak robots.txt'yi hızlıca inceleyebilir ve yönlendirmeleri doğrulayabilirsiniz.

macOS / Linux

Robots.txt'yi getir

curl -s [https://example.com/robots.txt](https://example.com/robots.txt)

Manuel inceleme için robots.txt içeriğini indirir.

Robots.txt'ye yönlendirmeleri takip et

curl -sL [https://example.com/robots.txt](https://example.com/robots.txt)

Ana bilgisayar veya protokol yönlendirme yaptığında kullanışlıdır (http→https, www olmayan→www, vb.).

robots.txt isteği için başlıkları göster

curl -I [https://example.com/robots.txt](https://example.com/robots.txt)

HTTP durumunu, önbellekleme başlıklarını ve yönlendirmelerin olup olmadığını kontrol eder.

Windows (PowerShell)

robots.txt'yi getir

Invoke-WebRequest -Uri [https://example.com/robots.txt](https://example.com/robots.txt) | Select-Object -ExpandProperty Content

robots.txt içeriğini yazdırır.

Geçişler sırasında, üretim kanonik ana bilgisayarda taramanın yanlışlıkla engellenmesini önlemek için robots.txt'yi her kanonik ana bilgisayar ve protokol varyantında (http/https + www/www olmayan) doğrulayın.

Kullanım alanları

“İndexlendi, ancak robots.txt tarafından engellendi” sorunlarını teşhis et

Hangi kuralın bir yolu engellediğini ve hangi bot grubu için olduğunu doğrulayın.

  • Tüm siteyi engelleyen yanlışlıkla yapılmış Disallow: / kuralını bul
  • Googlebot kurallarının * kurallarından farklı olduğunu doğrula

Geçiş ve kanonik ana bilgisayar değişikliklerini doğrula

Üretim kanonik ana bilgisayarının taranabilir olduğundan ve yönlendirmelerden sonra robots.txt'nin mevcut ve doğru olduğundan emin olun.

  • http→https yönlendirmeleri robots.txt keşfine hala izin veriyor
  • www/www olmayan kanonik ana bilgisayarı amaçlanan kuralları sunuyor

Site haritası bildirimlerini kontrol et

Sitemap: satırlarını çıkarın ve doğru, erişilebilir site haritası URL'lerine işaret ettiğinden emin olun.

  • Site haritası URL'lerinin kanonik ana bilgisayarı ve https kullandığını doğrula
  • Büyük sitelerde eksik Sitemap yönergelerini tespit et

Yanlışlıkla tarama israfını önle

Gerçekten önemsiz yolları (yönetici, dahili arama, parametreler) engellerken değerli bölümleri taranabilir tutun.

  • Dahili arama URL'lerini engelle
  • Önemli sayfalandırılmış/kategori yollarına izin ver

❓ Frequently Asked Questions

Robots.txt indekslemeyi engeller mi?

Güvenilir şekilde değil. Robots.txt taramayı kontrol eder, indekslemeyi değil. Bir URL, diğer sayfalar ona bağlantı veriyorsa veya zaten biliniyorsa, taranması engellenmiş olsa bile indekslenmiş görünebilir. İndeksten çıkarma stratejileri için noindex kullanın.

Robots.txt bir güvenlik özelliği mi?

Hayır. Kamuya açık bir dosyadır ve yalnızca uyumlu tarayıcılar için bir yönergedir. Hassas sayfaları korumak için asla robots.txt kullanmayın—bunun yerine kimlik doğrulama ve yetkilendirme kullanın.

Neden farklı User-Agent'ları test etmeliyim?

Robots.txt, User-Agent başına farklı kural grupları tanımlayabilir. Yapılandırmanıza bağlı olarak, bir yol bir tarayıcı için izin verilirken diğeri için engellenmiş olabilir.

“Yönlendirmeleri Takip Et” neden önemli?

Çünkü robots.txt ana bilgisayara özeldir. Siteniz kanonik bir ana bilgisayar/protokole yönlendirme yapıyorsa, yönlendirmeleri takip etmek son hedefin robots.txt kurallarını değerlendirmenizi sağlar.

En güvenli varsayılan yapılandırma nedir?

Kritik içeriği taranabilir tutun, yalnızca gerçekten yararsız URL'leri engelleyin ve her zaman kanonik https ana bilgisayarında bir site haritası (veya birden fazla site haritası) yayınlayın. Emin değilseniz geniş Disallow kalıplarından kaçının.

Taramayı engelleyip indekslemeye izin verebilir miyim?

robots.txt aracılığıyla taramayı engellerseniz ancak URL harici olarak bağlantılıysa, arama motorları içeriğini taramadan URL'yi indeksleyebilir. İndeks dışı bırakmak istiyorsanız, noindex kullanın (ve botların görebilmesi için taramaya izin verin).

Pro Tips

Best Practice

robots.txt'yi her zaman kanonik ana bilgisayar ve protokolde (https + seçtiğiniz www/non-www) test edin. Birçok 'engellenmiş' olay, yanlış ana bilgisayarın robots.txt'sini düzenlemekten kaynaklanır.

Best Practice

İndeks dışı bırakmak için robots.txt kullanmayın. Kaldırma ihtiyacınız varsa, noindex kullanın (ve taramaya izin verin), ayrıca dahili bağlantıları kaldırın ve site haritalarını güncelleyin.

CI Tip

Kanonik, erişilebilir site haritası URL'lerine (https, doğru ana bilgisayar adı) işaret eden Sitemap: yönergelerini ekleyin.

CI Tip

Dağıtımlar/geçişler sırasında, robots.txt'nin var olduğunu, 200 döndürdüğünü ve üretim için Disallow: / içermediğini doğrulayan hızlı bir CI kontrolü ekleyin.

Best Practice

Geniş kalıplarla aşırı engellemeden kaçının. Kaynakları veya ana bölümleri engellemek, oluşturma ve keşfi olumsuz etkileyebilir.

Additional Resources

Other Tools