Générateur robots.txt
Bots connus
Cliquez pour ajouter une règle de blocage
Moteurs de recherche
GooglebotBingbotYandexBaiduDuckDuckGo
Robots IA
GPTBotChatGPT UserGoogle AIAnthropicClaudeBotCommon CrawlPerplexityByteDance
Réseaux sociaux
TwitterFacebookLinkedIn
Outils SEO
AhrefsSemrushMajesticMoz
Règles
Sitemaps
Aperçu
User-agent: * Disallow:
Générateur robots.txt
Créez des fichiers robots.txt valides grâce à un constructeur visuel. Configurez les règles par user-agent, les chemins autorisés ou interdits, le crawl-delay et les références sitemap — avec un aperçu en direct qui se met à jour en temps réel.
Fonctionnalités
- Constructeur visuel de règles avec ajout/suppression
- Directives Allow et Disallow par user-agent
- Configuration du crawl-delay avec validation
- Références sitemap avec validation d'URL absolue
- Aperçu en direct avec copie en un clic
- Conforme à la RFC 9309 (Protocole d'exclusion des robots)
Comment ça marche
- Configurez un ou plusieurs groupes de règles par user-agent
- Ajoutez des directives Allow ou Disallow à chaque groupe
- Définissez éventuellement une valeur de Crawl-delay (attention : certains robots l'ignorent)
- Ajoutez les URL de vos sitemaps
- Copiez le résultat généré dans votre presse-papiers
Remarques
- Les caractères génériques (
*et$dans les chemins) sont des extensions spécifiques à certains moteurs de recherche et ne sont pas supportés universellement - Le Crawl-delay ne fait pas partie du standard officiel RFC 9309 et est ignoré par certains robots majeurs
- Les directives Sitemap apparaissent à la fin du fichier, en dehors de tous les groupes de règles, conformément à la spécification
- Les caractères non-ASCII dans les chemins sont automatiquement encodés en pourcentage dans la sortie