Robots.txt ジェネレーター
ビジュアルエディターでウェブサイト用の robots.txt ファイルを作成できます。検索エンジンボットがクロールできるページを制御しましょう。
クイックプリセット
User-agent:
Crawl-delay:秒(任意)
エージェントブロック #1
User-agent:
Crawl-delay:秒(任意)
エージェントブロック #2
User-agent:
Crawl-delay:秒(任意)
エージェントブロック #3
生成された robots.txt
# Generated by ToolBox Hub User-agent: * Disallow: /admin/ Disallow: /private/ Allow: / User-agent: Googlebot Allow: / User-agent: Bingbot Allow: /
このコンテンツを robots.txt として保存し、ウェブサイトのルートに配置してください。
使い方
ビジュアルエディターでウェブサイト用の robots.txt ファイルを作成できます。検索エンジンボットがクロールできるページを制御しましょう。
- 1Choose a preset (Allow All, Block All, or SEO-Friendly) to load a starting configuration instantly.
- 2Customize each User-agent block: change the bot name, add Allow or Disallow path rules, and set an optional Crawl-delay.
- 3Add more User-agent blocks with the 'Add User-agent Block' button to target specific bots with different rules.
- 4Optionally enter your Sitemap URL to include a Sitemap directive in the output.
- 5Click 'Copy' to copy the generated robots.txt to your clipboard, then save it as robots.txt in your website's root directory.
主な機能
- Three quick presets: Allow All, Block All, and SEO-Friendly (Google + Bing)
- Add multiple User-agent blocks, each with their own Allow/Disallow rules and Crawl-delay
- Autocomplete suggestions for common bots (Googlebot, Bingbot, AhrefsBot, and more)
- Optional Sitemap URL field for the Sitemap directive
- Live robots.txt preview updates as you type — copy with one click