Generador de Robots.txt
Crea un archivo robots.txt para tu sitio web con un editor visual. Controla que bots de motores de busqueda pueden rastrear tus paginas.
Preajustes rapidos
User-agent:
Crawl-delay:segundos (opcional)
Bloque de agente #1
User-agent:
Crawl-delay:segundos (opcional)
Bloque de agente #2
User-agent:
Crawl-delay:segundos (opcional)
Bloque de agente #3
Robots.txt generado
# Generated by ToolBox Hub User-agent: * Disallow: /admin/ Disallow: /private/ Allow: / User-agent: Googlebot Allow: / User-agent: Bingbot Allow: /
Guarda este contenido como robots.txt y coloca el archivo en la raiz de tu sitio web.
Cómo usar
Crea un archivo robots.txt para tu sitio web con un editor visual. Controla que bots de motores de busqueda pueden rastrear tus paginas.
- 1Choose a preset (Allow All, Block All, or SEO-Friendly) to load a starting configuration instantly.
- 2Customize each User-agent block: change the bot name, add Allow or Disallow path rules, and set an optional Crawl-delay.
- 3Add more User-agent blocks with the 'Add User-agent Block' button to target specific bots with different rules.
- 4Optionally enter your Sitemap URL to include a Sitemap directive in the output.
- 5Click 'Copy' to copy the generated robots.txt to your clipboard, then save it as robots.txt in your website's root directory.
Características
- Three quick presets: Allow All, Block All, and SEO-Friendly (Google + Bing)
- Add multiple User-agent blocks, each with their own Allow/Disallow rules and Crawl-delay
- Autocomplete suggestions for common bots (Googlebot, Bingbot, AhrefsBot, and more)
- Optional Sitemap URL field for the Sitemap directive
- Live robots.txt preview updates as you type — copy with one click