Robots.txt Generator
Genereer robots.txt-bestanden visueel met user-agent-regels, padbesturing, AI-botblokkering en URL-testen.
User-agent: * Disallow:
Over Robots.txt Generator
Het robots.txt-bestand vertelt webcrawlers welke pagina's of secties van uw website ze wel of niet mogen openen. Het gebruikt het Robots Exclusion Protocol met User-agent, Disallow, Allow, Crawl-delay en Sitemap-richtlijnen. Correct geconfigureerde robots.txt-bestanden helpen het crawlbudget te beheren, privépagina's te beschermen en AI-gegevensverzameling te controleren.
Gebruiksaanwijzing
Kies een snel sjabloon of bouw aangepaste regels. Voeg user-agent-regels toe (specifieke bots of alle bots met *). Voeg voor elke bot Disallow-paden toe om te blokkeren en Allow-paden om toe te staan. Voeg uw sitemap-URL toe. Gebruik de URL-tester om te verifiëren of een specifieke URL wordt toegestaan of geblokkeerd. Kopieer of download het gegenereerde robots.txt en upload het naar de root van uw website.
Veelvoorkomende toepassingen
- AI-webscrapers (GPTBot, CCBot) blokkeren om uw inhoud voor training te gebruiken
- Admin-, login- en privépagina's beschermen tegen zoekmachines
- Crawlbudget configureren door dubbele/dunne inhoudspagina's te blokkeren
- Robots.txt instellen voor WordPress, e-commerce of aangepaste sites
- Bestaande robots.txt-regels testen en valideren tegen specifieke URL's