Robots.txt ジェネレーター

robots.txt ファイルを即座に生成。User-agent ルール、Allow/Disallow パス、Sitemap URL を設定できます。登録不要で無料。

100% クライアントサイド データはブラウザ外に出ません 無料 · 登録不要
robots.txt
 

使い方

  1. ドロップダウンから User-agent を選択(* はすべてのボットを対象)するか、カスタムボット名を入力します。
  2. + Allow または + Disallow をクリックしてパスルールを追加します。
  3. ボットごとの設定が必要な場合は「+ Add User-agent Block」で追加ブロックを作成します。
  4. Sitemap がある場合は Sitemap URL を入力します。
  5. robots.txt の内容はリアルタイムで更新されます — Copy をクリックしてコピーしてください。

よく使われる robots.txt パターン

  • すべてのボットをブロック:User-agent: * + Disallow: /
  • すべてのボットを許可:User-agent: * + Disallow:(空欄)
  • 特定ディレクトリをブロック:Disallow: /admin/
  • Googlebot のみ許可:* をブロックした上で、Googlebot ブロックを追加して Disallow: を空にする

ファイルを生成したら、Web サーバーのルートディレクトリにアップロードし、 https://yourdomain.com/robots.txt でアクセスできる状態にしてください。

FAQ

robots.txt とは何ですか?

robots.txt はウェブサイトのルートディレクトリ(例:https://example.com/robots.txt)に置かれるテキストファイルで、クローラーがアクセスしてよいページや、してはいけないページをボットに伝えるものです。Robots Exclusion Protocol に準拠しています。

robots.txt はすべてのボットをブロックできますか?

いいえ。robots.txt はあくまで規約であり、セキュリティ対策ではありません。Googlebot や Bingbot などの良識あるクローラーは遵守しますが、悪意あるボットは無視する場合があります。コンテンツへのアクセスを確実に制限するには、サーバーレベルのアクセス制御を使用してください。

'Disallow: /' はどういう意味ですか?

指定した User-agent に対して、サイト内のすべてのページをクロールしないよう指示します。'User-agent: *' と 'Disallow: /' を組み合わせると、すべての準拠ボットがサイト全体にアクセスできなくなります。

複数の User-agent ブロックを設定できますか?

はい。クローラーごとに別々のルールセットを定義できます。「+ Add User-agent Block」をクリックして追加してください。各ブロックに独自の Allow/Disallow ルールを設定できます。

Sitemap ディレクティブはどこに書くべきですか?

robots.txt ファイルの末尾に記述するのが一般的です。検索エンジンに XML サイトマップの場所を伝え、インデックス対象のすべてのページを発見しやすくします。