robots.txt-Generator für KI
Erstellen Sie eine für KI-Agenten optimierte robots.txt-Datei. Wählen Sie, welche Bots erlaubt oder blockiert werden, konfigurieren Sie Content-Signal-Direktiven und laden Sie das Ergebnis herunter.
KI-Bots
Wählen Sie, wie jeder KI-Bot auf Ihre Website zugreifen kann. Standard bedeutet, dass keine spezifische Regel für diesen Bot generiert wird.
Content-Signal-Direktiven
Steuern Sie, wie KI-Agenten Ihren Inhalt nutzen dürfen. Diese Direktiven werden dem globalen Abschnitt der robots.txt hinzugefügt.
Suchindexierung durch KI erlauben
Nutzung als KI-Eingabe/Kontext erlauben
Nutzung für KI-Training erlauben
Zusätzliche Einstellungen
Generierte robots.txt
erlaubt, blockiert, bytesWas ist robots.txt für KI?
robots.txt ist eine Standarddatei, die Web-Crawlern mitteilt, auf welche Seiten sie zugreifen können. Da KI-Agenten zu einer wichtigen Traffic-Quelle werden, ist es wichtig, robots.txt mit spezifischen Regeln für KI-Bots wie GPTBot, ClaudeBot und PerplexityBot zu konfigurieren. Content-Signal-Direktiven ermöglichen es, festzulegen, wie KI-Agenten Ihren Inhalt nutzen dürfen.