robots.txt-Generator für KI

Erstellen Sie eine für KI-Agenten optimierte robots.txt-Datei. Wählen Sie, welche Bots erlaubt oder blockiert werden, konfigurieren Sie Content-Signal-Direktiven und laden Sie das Ergebnis herunter.

KI-Bots

Wählen Sie, wie jeder KI-Bot auf Ihre Website zugreifen kann. Standard bedeutet, dass keine spezifische Regel für diesen Bot generiert wird.

GPTBot OpenAI — ChatGPT
ChatGPT-User OpenAI — ChatGPT browsing
ClaudeBot Anthropic — Claude
Claude-Web Anthropic — Claude web search
PerplexityBot Perplexity — Perplexity AI
Google-Extended Google — Gemini
Bytespider ByteDance — TikTok / Doubao
CCBot Common Crawl — Training data
Amazonbot Amazon — Alexa / Rufus
FacebookBot Meta — Meta AI
cohere-ai Cohere — Cohere models
Applebot-Extended Apple — Apple Intelligence
| |

Content-Signal-Direktiven

Steuern Sie, wie KI-Agenten Ihren Inhalt nutzen dürfen. Diese Direktiven werden dem globalen Abschnitt der robots.txt hinzugefügt.

Suchindexierung durch KI erlauben

Nutzung als KI-Eingabe/Kontext erlauben

Nutzung für KI-Training erlauben

Zusätzliche Einstellungen

Sekunden

Generierte robots.txt

erlaubt, blockiert, bytes


        
        

Was ist robots.txt für KI?

robots.txt ist eine Standarddatei, die Web-Crawlern mitteilt, auf welche Seiten sie zugreifen können. Da KI-Agenten zu einer wichtigen Traffic-Quelle werden, ist es wichtig, robots.txt mit spezifischen Regeln für KI-Bots wie GPTBot, ClaudeBot und PerplexityBot zu konfigurieren. Content-Signal-Direktiven ermöglichen es, festzulegen, wie KI-Agenten Ihren Inhalt nutzen dürfen.