KI-Crawler-Kompatibilitätsprüfer

Können KI-Bots Ihre Website sehen? Geben Sie eine URL ein, um die Kompatibilität mit 12 KI-Crawlern zu prüfen. Wir analysieren robots.txt, X-Robots-Tag-Header und Meta-Robots-Tags für ein vollständiges Bild.

Wir rufen die robots.txt und die Seite ab, um alle 3 Zugriffskontrollschichten zu analysieren.

KI-Crawler-Kompatibilität

Punktzahl

Zugänglich Eingeschränkt Blockiert

KI-Bot-Kompatibilität

Zugriffskontrollschichten

robots.txt

Keine Einschränkungen gefunden Nicht gefunden

X-Robots-Tag-Header

Gefunden Nicht erkannt

Meta-Robots-Tags

Gefunden Nicht erkannt

Content-Signal

Nicht erkannt

Prüfungen

Sitemaps

Was sind KI-Crawler?

KI-Crawler sind automatisierte Bots, die von Unternehmen wie OpenAI, Anthropic, Google und anderen eingesetzt werden, um Webinhalte für KI-Produkte zu entdecken und zu indexieren. Genau wie Suchmaschinen-Crawler (Googlebot) respektieren KI-Crawler die robots.txt-Direktiven, X-Robots-Tag-Header und <meta>-Robots-Tags.

Drei Schichten der Zugriffskontrolle:
robots.txt — Steuert, welche Bots auf welche Pfade Ihrer Website zugreifen können (seitenweit).
X-Robots-Tag — HTTP-Header, der die Indexierung auf Seiten- oder Ressourcenebene steuert.
Meta robots — HTML-Tags, die die Indexierung pro Seite steuern, mit bot-spezifischen Regeln.

Dieses Tool prüft alle 3 Schichten gleichzeitig für 12 wichtige KI-Crawler und bietet Ihnen eine einheitliche Kompatibilitätsübersicht.

Erfahren Sie mehr über robots.txt und Meta-Robots-Tags.