Generator Robots.txt
Buat file robots.txt secara visual dengan aturan user-agent, kontrol path, pemblokiran bot AI, dan pengujian URL.
User-agent: * Disallow:
Tentang Generator Robots.txt
File robots.txt memberi tahu crawler web halaman atau bagian mana dari situs web Anda yang boleh atau tidak boleh diakses. Menggunakan Robots Exclusion Protocol dengan direktif User-agent, Disallow, Allow, Crawl-delay, dan Sitemap. File robots.txt yang dikonfigurasi dengan benar membantu mengelola anggaran crawl, melindungi halaman privat, dan mengontrol pengumpulan data AI.
Cara Menggunakan
Pilih template cepat atau buat aturan kustom. Tambahkan aturan user-agent (bot tertentu atau semua bot dengan *). Untuk setiap bot, tambahkan path Disallow untuk memblokir dan path Allow untuk mengizinkan. Tambahkan URL sitemap Anda. Gunakan penguji URL untuk memverifikasi apakah URL tertentu akan diizinkan atau diblokir. Salin atau unduh robots.txt yang dihasilkan dan unggah ke root situs web Anda.
Kasus Penggunaan Umum
- Memblokir scraper web AI (GPTBot, CCBot) dari melatih konten Anda
- Melindungi halaman admin, login, dan privat dari mesin pencari
- Mengonfigurasi anggaran crawl dengan memblokir halaman konten duplikat/tipis
- Menyiapkan robots.txt untuk WordPress, e-commerce, atau situs kustom
- Menguji dan memvalidasi aturan robots.txt yang ada terhadap URL tertentu