Générateur robots.txt
Générez des fichiers robots.txt visuellement avec des règles par user-agent, des contrôles de chemin, le blocage des bots IA et le test d'URL.
User-agent: * Disallow:
À propos du générateur robots.txt
Le fichier robots.txt indique aux robots d'exploration web les pages ou sections de votre site auxquelles ils peuvent ou non accéder. Il utilise le protocole d'exclusion des robots avec les directives User-agent, Disallow, Allow, Crawl-delay et Sitemap. Des fichiers robots.txt correctement configurés aident à gérer le budget d'exploration, protéger les pages privées et contrôler la collecte de données par l'IA.
Mode d'emploi
Choisissez un modèle rapide ou créez des règles personnalisées. Ajoutez des règles user-agent (bots spécifiques ou tous les bots avec *). Pour chaque bot, ajoutez des chemins Disallow pour bloquer et des chemins Allow pour autoriser. Ajoutez l'URL de votre sitemap. Utilisez le testeur d'URL pour vérifier si une URL spécifique serait autorisée ou bloquée. Copiez ou téléchargez le robots.txt généré et uploadez-le à la racine de votre site web.
Cas d'utilisation courants
- Bloquer les robots d'IA (GPTBot, CCBot) qui s'entraînent sur votre contenu
- Protéger les pages admin, connexion et privées des moteurs de recherche
- Configurer le budget d'exploration en bloquant les pages de contenu dupliqué ou mince
- Configurer robots.txt pour WordPress, e-commerce ou sites personnalisés
- Tester et valider les règles robots.txt existantes sur des URL spécifiques