AI向けrobots.txtチェッカー
robots.txtファイルを分析して、どのAIボットがサイトにアクセスできるかを確認します。Content-Signalディレクティブ、サイトマップ宣言を確認し、詳細なスコアを取得します。
このドメインから/robots.txtを取得し、AIボットアクセスについて分析します。
分析結果
AIボットルールのある有効なrobots.txt 無効または空のrobots.txt
/ チェック合格
許可
ブロック
デフォルト
AIボットのステータス
| ボット | 企業 | ステータス | ルール |
|---|---|---|---|
チェック合格
詳細
- Content-Signal:
- 見つかりません
- ポリシーコメント:
- はい いいえ
- Sitemaps:
- 見つかりません
- 統計:
- lines, bytes
生のコンテンツ
AI向けrobots.txtとは?
robots.txtはウェブサイトのルートにある標準ファイルで、クローラーがアクセスできるページを示します。GPTBot(OpenAI)、ClaudeBot(Anthropic)、PerplexityBotなどのAIエージェントの台頭により、これらのボット用の特定のルールを設定することが不可欠です。
Content-Signalディレクティブにより、AIエージェントがコンテンツをどのように使用できるかを指定できます:search=yesは検索インデックスを許可、ai-input=yesはAIコンテキストとしての使用を許可、ai-train=noはトレーニング用の使用をブロックします。
このツールは、ボットのアクセス可能性、Content-Signalの存在、サイトマップ宣言、ポリシーコメントを含む7つの基準でrobots.txtを確認します。