Gerador de robots.txt para IA

Gere um arquivo robots.txt otimizado para agentes de IA. Selecione quais bots permitir ou bloquear, configure as diretivas Content-Signal e baixe o resultado.

Bots de IA

Escolha como cada bot de IA pode acessar seu site. Padrão significa que nenhuma regra específica é gerada para esse bot.

GPTBot OpenAI — ChatGPT
ChatGPT-User OpenAI — ChatGPT browsing
ClaudeBot Anthropic — Claude
Claude-Web Anthropic — Claude web search
PerplexityBot Perplexity — Perplexity AI
Google-Extended Google — Gemini
Bytespider ByteDance — TikTok / Doubao
CCBot Common Crawl — Training data
Amazonbot Amazon — Alexa / Rufus
FacebookBot Meta — Meta AI
cohere-ai Cohere — Cohere models
Applebot-Extended Apple — Apple Intelligence
| |

Diretivas Content-Signal

Controle como os agentes de IA podem usar seu conteúdo. Essas diretivas são adicionadas à seção global do robots.txt.

Permitir indexação de busca por IA

Permitir uso como entrada/contexto de IA

Permitir uso para treinamento de IA

Configurações adicionais

segundos

robots.txt gerado

permitidos, bloqueados, bytes


        
        

O que é robots.txt para IA?

robots.txt é um arquivo padrão que indica aos rastreadores web quais páginas podem acessar. Com os agentes de IA se tornando uma fonte importante de tráfego, é essencial configurar robots.txt com regras específicas para bots de IA como GPTBot, ClaudeBot e PerplexityBot. As diretivas Content-Signal permitem especificar como os agentes de IA podem usar seu conteúdo.