مختبر ملف robots.txt
اختبر ما إذا كان مسار معين مسموحًا به لمحرك الزحف وفقًا لقواعد robots.txt للموقع. اختر وكيل مستخدم (مثل Googlebot أو bingbot أو *)، اتبع إعادة التوجيه للوصول إلى ملف robots.txt النهائي، استخرج توجيهات خريطة الموقع، وقم بتصدير النتائج إلى JSON لعمليات تدقيق وتحسين محركات البحث والمراقبة.
الميزات
- اختبر مسارًا محددًا مقابل ملف robots.txt لوكيل مستخدم محدد (Googlebot أو bingbot أو *).
- اتبع إعادة التوجيه للوصول إلى المضيف/البروتوكول الصحيح قبل تقييم القواعد.
- استخرج وتحقق من صحة توجيهات Sitemap: الموجودة في robots.txt.
- سلط الضوء على حالات التكوين الخاطئة الشائعة (عمليات المنع الواسعة جدًا، خرائط المواقع المفقودة، إعادة توجيه المضيف غير المتسقة).
- انسخ النتائج لتذاكر تحسين محركات البحث والتشخيص.
- قم بتصدير تقرير JSON لعمليات التدقيق، والتحقق من التراجع، ومراقبة التكامل المستمر.
- آمن افتراضيًا: يحظر الأهداف على الشبكة الخاصة ويستخدم وكيل مستخدم ثابت.
🧭 كيفية الاستخدام for robots-txt-tester
أدخل عنوان URL للموقع
الصق عنوان URL الأساسي للموقع (على سبيل المثال [https://example.com](https://example.com)). ستحدد الأداة وتقرأ ملف robots.txt لذلك الموقع.
اختر وكيل مستخدم
اختر * لمحاكاة أي بوت، أو اختر Googlebot / bingbot لتقييم قواعد مجموعتهم المحددة. قد يختلف سلوك robots.txt حسب البوت.
حدد المسار للاختبار
أدخل المسار الذي تريد التحقق منه (على سبيل المثال /private/ أو /products/widget). يتم تقييم هذا مقابل قواعد السماح/المنع.
اترك خيار "متابعة إعادة التوجيه" مفعلاً (موصى به)
إذا كان موقعك يعيد توجيه http→https أو non-www→www (أو العكس)، فإن متابعة إعادة التوجيه تضمن تقييم ملف robots.txt للمضيف الصحيح.
راجع الحكم وسطور خريطة الموقع
تأكد مما إذا كان المسار مسموحًا به، وتحقق من توجيهات خريطة الموقع المستخرجة. قم بتصدير JSON للحفاظ على الأدلة للتدقيق أو المراقبة.
المواصفات الفنية
ما تقيمه الأداة
تقوم أداة الاختبار بجلب ملف robots.txt للموقع وتطبق قواعد مجموعة وكيل المستخدم على المسار المقدم. يمكنها أيضًا استخراج توجيهات خريطة الموقع للتحقق من صحة تحسين محركات البحث.
| المدخل | المعنى | مثال |
|---|---|---|
| رابط الموقع | الموقع الأساسي الذي يتم منه جلب ملف robots.txt | [https://example.com](https://example.com) |
| وكيل المستخدم | مجموعة الزواحف التي سيتم تقييم قواعدها | Googlebot, bingbot, * |
| المسار للاختبار | المسار الذي يتم التحقق منه مقابل توجيهات السماع/المنع | /private/ |
سلوك الطلبات والسلامة
يتم تنفيذ الطلبات من جانب الخادم مع حدود أمان واتباع اختياري لإعادة التوجيه، وهو أمر مهم لإعدادات المضيف/البروتوكول الأساسي.
| الإعداد | السلوك | الافتراضي |
|---|---|---|
| اتباع إعادة التوجيه | يتبع عمليات إعادة التوجيه إلى المضيف/البروتوكول النهائي قبل التقييم | مفعل |
| الحد الأقصى لإعادة التوجيه | الحد الأقصى لإعادة التوجيه عند تفعيل المتابعة | 10 |
| المهلة | حد مهلة الطلب | 15000 مللي ثانية |
| وكيل المستخدم (الطلبات) | يحدد وكيل المستخدم لطلب الأداة | Encode64Bot/1.0 (+[https://encode64.com](https://encode64.com)) |
| الشبكات الخاصة | يحظر الأهداف على الشبكات الخاصة لأسباب أمنية | معطل (الشبكات الخاصة غير مسموح بها) |
التفسير العملي لقواعد robots.txt
ملف robots.txt هو توجيه للزواحف (وليس نظام تحكم في الوصول). فهو يساعد في منع الزحف، ولكنه لا يضمن إزالة الفهرسة ولا يحمي البيانات الحساسة.
سطر الأوامر
يمكنك فحص ملف robots.txt بسرعة والتأكد من عمليات إعادة التوجيه باستخدام curl.
macOS / Linux
جلب ملف robots.txt
curl -s [https://example.com/robots.txt](https://example.com/robots.txt)يقوم بتنزيل محتوى ملف robots.txt للفحص اليدوي.
اتباع إعادة التوجيه إلى robots.txt
curl -sL [https://example.com/robots.txt](https://example.com/robots.txt)مفيد عندما يقوم المضيف أو البروتوكول بإعادة التوجيه (http→https، non-www→www، إلخ).
عرض رؤوس طلب robots.txt
curl -I [https://example.com/robots.txt](https://example.com/robots.txt)يفحص حالة HTTP، ورؤوس التخزين المؤقت، وما إذا كانت هناك عمليات إعادة توجيه.
ويندوز (PowerShell)
جلب robots.txt
Invoke-WebRequest -Uri [https://example.com/robots.txt](https://example.com/robots.txt) | Select-Object -ExpandProperty Contentيطبع محتوى robots.txt.
حالات الاستخدام
تشخيص مشاكل "مفهرس، ولكن محظور بواسطة robots.txt"
تأكد من القاعدة الدقيقة التي تحظر مسارًا ولمجموعة الروبوتات التي تنطبق عليها.
- العثور على Disallow: / عن طريق الخطأ الذي يحظر الموقع بالكامل
- التحقق من اختلاف قواعد Googlebot عن قواعد *
التحقق من صحة الترحيل وتغييرات المضيف الأساسي
تأكد من إمكانية زحف محركات البحث إلى المضيف الأساسي للإنتاج وأن ملف robots.txt موجود وصحيح بعد عمليات إعادة التوجيه.
- عمليات إعادة التوجيه من http→https لا تزال تسمح باكتشاف robots.txt
- المضيف الأساسي www/non-www يقدم القواعد المطلوبة
التحقق من إعلانات خريطة الموقع
استخراج أسطر Sitemap: والتأكد من أنها تشير إلى عناوين URL لخرائط المواقع الصحيحة والقابلة للوصول.
- التحقق من استخدام عناوين URL لخريطة الموقع للمضيف الأساسي وبروتوكول https
- اكتشاف توجيهات Sitemap المفقودة على المواقع الكبيرة
منع هدر الزحف العرضي
حظر المسارات غير المهمة حقًا (الإدارة، البحث الداخلي، المعلمات) مع الحفاظ على إمكانية زحف الأقسام القيمة.
- حظر عناوين URL للبحث الداخلي
- السماح بمسارات الصفحات والفئات المهمة
❓ Frequently Asked Questions
❓هل يمنع robots.txt الفهرسة؟
❓هل يعتبر robots.txt ميزة أمان؟
❓لماذا يجب أن أختبر وكلاء المستخدم المختلفين؟
❓لماذا يهم "متابعة إعادة التوجيه"؟
❓ما هو التكوين الافتراضي الأكثر أمانًا؟
❓هل يمكنني منع الزحف مع السماح بالفهرسة؟
Pro Tips
اختبر دائماً ملف robots.txt على المضيف الأساسي والبروتوكول الصحيح (https + اختيارك لـ www/غير www). تأتي العديد من حوادث "المنع" من تحرير ملف robots.txt الخاص بالمضيف الخاطئ.
لا تستخدم robots.txt لإلغاء الفهرسة. إذا كنت بحاجة إلى الإزالة، استخدم noindex (وسمّح بالزحف)، بالإضافة إلى إزالة الروابط الداخلية وتحديث خرائط المواقع.
قم بتضمين توجيهات Sitemap: التي تشير إلى عناوين URL لخرائط المواقع الأساسية والقابلة للوصول (https، اسم المضيف الصحيح).
أثناء عمليات النشر/الترحيل، أضف فحصاً سريعاً لـ CI يتحقق من وجود ملف robots.txt، ويعيد الحالة 200، ولا يحتوي على Disallow: / للإنتاج.
تجنب المنع المفرط باستخدام أنماط واسعة. يمكن أن يؤدي منع الموارد أو الأقسام الرئيسية إلى الإضرار بالعرض والاكتشاف.
Additional Resources
Other Tools
- محسن CSS
- محسن HTML
- محسن Javascript
- محسن PHP
- منتقي الألوان
- مستخرج Sprite
- مُشَفِّر ثنائي Base32
- فَكَّاك Base32
- مُشَفِّر Base32
- مُشَفِّر ثنائي Base58
- فَكَّاك Base58
- مُشَفِّر Base58
- مُشَفِّر ثنائي Base62
- فَكَّاك Base62
- مُشَفِّر Base62
- مُشَفِّر ثنائي Base64
- فك تشفير Base64
- تشفير Base64
- مُشَفِّر ثنائي سداسي عشري
- فَكَّاك سداسي عشري
- مُشَفِّر سداسي عشري
- منسق Csharp
- منسق CSV
- Dockerfile Formatter
- منسق Elm
- منسق ENV
- منسق Go
- منسق Graphql
- منسق Hcl
- منسق INI
- منسق JSON
- منسق Latex
- منسق Markdown
- منسق Objectivec
- Php Formatter
- منسق Proto
- منسق Python
- منسق Ruby
- منسق Rust
- منسق Scala
- منسق سكريبت Shell
- منسق SQL
- منسق SVG
- منسق Swift
- منسق TOML
- Typescript Formatter
- منسق XML
- منسق YAML
- منسق Yarn
- مختصر CSS
- Html Minifier
- Javascript Minifier
- مختصر JSON
- مصغر XML
- Cache Headers Analyzer
- Cors Checker
- Csp Analyzer
- Dns Records Lookup
- عارض رؤوس HTTP
- Http Status Checker
- Open Graph Meta Checker
- Redirect Chain Viewer
- Security Headers Checker
- Security Txt Checker
- Sitemap Url Inspector
- Tls Certificate Checker
- PDF إلى نص
- مختبر Regex
- مدقق ترتيب SERP
- بحث Whois