Robots.txt Generator
Erstellen Sie eine robots.txt-Datei für Ihre Website mit einem visuellen Editor. Legen Sie fest, welche Suchmaschinen-Bots Ihre Seiten crawlen dürfen.
Schnell-Vorlagen
User-agent:
Crawl-delay:Sekunden (optional)
Agenten-Block #1
User-agent:
Crawl-delay:Sekunden (optional)
Agenten-Block #2
User-agent:
Crawl-delay:Sekunden (optional)
Agenten-Block #3
Generierte robots.txt
# Generated by ToolBox Hub User-agent: * Disallow: /admin/ Disallow: /private/ Allow: / User-agent: Googlebot Allow: / User-agent: Bingbot Allow: /
Speichern Sie diesen Inhalt als robots.txt und legen Sie ihn im Stammverzeichnis Ihrer Website ab.
Anleitung
Erstellen Sie eine robots.txt-Datei für Ihre Website mit einem visuellen Editor. Legen Sie fest, welche Suchmaschinen-Bots Ihre Seiten crawlen dürfen.
- 1Choose a preset (Allow All, Block All, or SEO-Friendly) to load a starting configuration instantly.
- 2Customize each User-agent block: change the bot name, add Allow or Disallow path rules, and set an optional Crawl-delay.
- 3Add more User-agent blocks with the 'Add User-agent Block' button to target specific bots with different rules.
- 4Optionally enter your Sitemap URL to include a Sitemap directive in the output.
- 5Click 'Copy' to copy the generated robots.txt to your clipboard, then save it as robots.txt in your website's root directory.
Funktionen
- Three quick presets: Allow All, Block All, and SEO-Friendly (Google + Bing)
- Add multiple User-agent blocks, each with their own Allow/Disallow rules and Crawl-delay
- Autocomplete suggestions for common bots (Googlebot, Bingbot, AhrefsBot, and more)
- Optional Sitemap URL field for the Sitemap directive
- Live robots.txt preview updates as you type — copy with one click