Robots.txtジェネレーター
ユーザーエージェントルール、パス制御、AIボットブロック、URLテスト付きでrobots.txtファイルを視覚的に生成します。
User-agent: * Disallow:
Robots.txtジェネレーターについて
robots.txtファイルは、WebクローラーにWebサイトのどのページやセクションにアクセスできるか、できないかを指示します。User-agent、Disallow、Allow、Crawl-delay、Sitemapディレクティブを使用するロボット排除プロトコルを使用します。適切に構成されたrobots.txtファイルは、クロールバジェットの管理、プライベートページの保護、AIデータ収集の制御に役立ちます。
使い方
クイックテンプレートを選択するか、カスタムルールを作成します。ユーザーエージェントルール(特定のボットまたは*ですべてのボット)を追加します。各ボットに対して、ブロックするDisallowパスと許可するAllowパスを追加します。サイトマップURLを追加します。URLテスターを使用して、特定のURLが許可またはブロックされるか確認します。生成されたrobots.txtをコピーまたはダウンロードして、Webサイトのルートにアップロードします。
一般的な使用例
- AIウェブスクレイパー(GPTBot、CCBot)によるコンテンツのトレーニング利用をブロック
- 管理画面、ログイン、プライベートページを検索エンジンから保護
- 重複/薄いコンテンツページをブロックしてクロールバジェットを設定
- WordPress、ECサイト、カスタムサイト用のrobots.txtの設定
- 特定のURLに対する既存のrobots.txtルールのテストと検証