Robots.txt Generator
อนุญาตหรือบล็อก Search Engine Bot ง่ายๆ สร้างโค้ดมาตรฐานพร้อมดาวน์โหลดไปใช้งานได้ทันที
Default Rule (All Bots)
Specific Search Robots
Options & Exclusions
ใส่ Path ของโฟลเดอร์ที่ไม่ต้องการให้ Bot เข้าถึง (บรรทัดละ 1 Path)
1User-agent: *2Disallow: /cgi-bin/3Disallow: /admin/45Sitemap: https://www.example.com/sitemap.xml
คำถามที่พบบ่อย (FAQ)
Q: ไฟล์ Robots.txt คืออะไร?
Robots.txt เป็น Text File พื้นฐานที่วางไว้ใน Root Directory ของเว็บไซต์ มีไว้เพื่อบอก Bot หรือ Spider ของ Search Engine (เช่น Googlebot, Bingbot) ว่าหน้าไหนหรือโฟลเดอร์ไหนของเว็บไซต์ที่ 'อนุญาต' (Allow) หรือ 'ไม่อนุญาต' (Disallow) ให้เข้ามาเก็บข้อมูล (Crawl)
Q: ทำไมถึงห้าม Bot เข้าบางโฟลเดอร์?
บางหน้าเราไม่ต้องการให้ปรากฏบนผลการค้นหาของ Google เช่น ระบบหลังบ้าน (/admin/), หน้าตะกร้าสินค้า, หน้าข้อมูลส่วนตัวลูกค้า หรือสคริปต์ที่รันอยู่เบื้องหลัง การกัน Bot ไว้ช่วยสงวนโควตาการ Crawl (Crawl Budget) ให้ไปเก็บข้อมูลหน้าที่สำคัญกว่าต่อ SEO ของเรา
Q: User-agent: * คืออะไร?
สัญลักษณ์ดอกจัน (*) ใน User-agent หมายถึง 'Bot ทุกตัวบนโลก' การตั้งค่าใต้บรรทัดนี้จะส่งผลกับ Bot ทุกค่าย ยกเว้นว่าเรามีการระบุชื่อ Bot เฉพาะเจาะจง (เช่น User-agent: Googlebot) แยกไว้ต่างหาก กฎเฉพาะเจาะจงจะมีความสำคัญกว่ากฎทั่วไปเสมอ