robots.txt für SEO richtig konfigurieren (meine Anleitung)

Die robots.txt ist eine kleine Datei mit großer Wirkung. Sie bestimmt, was Suchmaschinen auf Ihrer Website crawlen können und was nicht. Ein Fehler in dieser Datei kann zu blockierten Inhalten, verpasster Indizierung oder sogar zum Verlust des Rankings führen. In diesem Artikel erkläre ich Ihnen Schritt für Schritt, wie Sie eine robots.txt-Datei für SEO richtig einrichten.

1. Was ist robots.txt?

Die robots.txt ist eine Textdatei, die Sie im Stammverzeichnis Ihrer Domain ablegen (z.B. https://jouwdomein.nl/robots.txt). Suchmaschinen lesen diese Datei bei ihrem ersten Besuch, um festzustellen, welche Pfade sie crawlen dürfen.

Wichtig:

  • Es ist keine Garantie dafür, dass etwas nicht indiziert wird (verwenden Sie dafür auch noindex)
  • Es blockiert das Crawling, nicht unbedingt die Indizierung
  • Falsche Regeln können ungewollte SEO-Schäden verursachen

2. Aufbau einer robots.txt-Datei

Eine Standarddatei sieht wie folgt aus:

txt
User-agent: *
Disallow:
Sitemap: https://jouwdomein.nl/sitemap.xml
Copy to Clipboard

Erläuterung:

  • Benutzer-Agent: * = gilt für alle Bots
  • Nicht zulassen: ohne Pfad = alles zulassen
  • Disallow: /admin/ = alles im Ordner /admin/ blockieren
  • Erlauben: /pfad/ = explizit erlauben (nützlich für Ausnahmen)

3. Was blockieren Sie und was blockieren Sie nicht?

Aber blockieren:

  • Verwaltungs-/Anmeldeseiten (/wp-admin/, /cart/, /checkout/)
  • Interne Suchergebnisse (/search/)
  • Filtern von Seiten mit unnötigen Parametern (?color=, ?sort=)
  • Test/dev-Verzeichnisse (/beta/, /test/)

Nicht blockieren:

  • CSS- und JS-Dateien (erforderlich für die Rendering-Steuerung)
  • Wichtige Seitentypen (SEO-Seiten, Blog, Dienstleistungen)
  • Bilder (es sei denn, Sie möchten sie absichtlich aus den Suchergebnissen heraushalten)

Google sollte in der Lage sein, die Website so darzustellen, wie es die Benutzer tun. Blockieren Sie also keine Styling- oder Skriptdateien.

Aan de slag met SEO? Neem gerust contact op.

Senior SEO-specialist






    4. Beispiele für eine gute Konfiguration

    Für WordPress:

    txt
    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    Disallow: /?s=
    Disallow: /search/
    Sitemap: https://jouwdomein.nl/sitemap_index.xml
    Copy to Clipboard

    Für Webshops (z.B. WooCommerce):

    txt
    User-agent: *
    Disallow: /cart/
    Disallow: /checkout/
    Disallow: /my-account/
    Disallow: /?orderby=
    Disallow: /*add-to-cart=*
    Sitemap: https://jouwdomein.nl/sitemap.xml
    Copy to Clipboard

    5. Testen Sie Ihre robots.txt-Datei

    Fehler schleichen sich schnell ein. Testen Sie immer:

    • Google Search Console > Robots.txt-Tester
    • Screaming Frog > Konfiguration > Robots.txt
    • Chrome DevTools > „Blockiert durch robots.txt“ Fehlermeldungen

    6. Häufige Fehler

    FehlerLösung
    Alles blockieren mit Disallow: /Wenden Sie diese Methode nur in zeitlich befristeten Situationen an.
    CSS/JS-BlockierungFür die korrekte Wiedergabe immer zugänglich lassen
    Keine Sitemap-Zeile enthaltenSitemap am Ende der Datei hinzufügen
    Nicht zulassen: /*? ohne Test verwenden Stellen Sie sicher, dass Parameter, die einen Wert haben, zugänglich bleiben
    Verwendung von robots.txt anstelle von noindexVerwenden Sie noindex zur Indizierungskontrolle, robots.txt nur zum Crawlen

    7. Robots.txt und Bereitstellungs-/Testumgebungen

    Möchten Sie Test- oder Staging-Umgebungen abschirmen?

    Verwendung:

    txt
    User-agent: *
    Disallow: /
    Copy to Clipboard

    Aber: Dies verhindert nur das Crawlen, nicht die Indizierung. Kombinieren Sie mit:

    • HTTP-Authentifizierung (grundlegende Sicherheit)
    • noindex in <meta> tags
    • IP-Adresse über .htaccess oder Firewall blockieren

    Zusammenfassend

    Eine korrekt eingestellte robots.txt verhindert Crawl-Müll und schützt Ihre Website vor unbeabsichtigten Indizierungsproblemen. Arbeiten Sie mit klaren, kontrollierten Regeln – und testen Sie bei jeder Änderung. Kleine Datei, große Wirkung.

    Senior SEO-specialist

    Ralf van Veen

    Senior SEO-specialist
    Five stars
    Mein kunde hat mir bei Google 5.0 von 85 bewertungen gegeben

    Ich arbeite seit 12 Jahren als unabhängiger SEO-Spezialist für Unternehmen (in den Niederlanden und im Ausland), die auf nachhaltige Weise eine höhere Position in Google erreichen wollen. In dieser Zeit habe ich A-Marken beraten, groß angelegte internationale SEO-Kampagnen aufgesetzt und globale Entwicklungsteams im Bereich der Suchmaschinenoptimierung gecoacht.

    Mit dieser breiten Erfahrung im Bereich SEO habe ich den SEO-Kurs entwickelt und hunderten von Unternehmen geholfen, ihre Auffindbarkeit in Google nachhaltig und transparent zu verbessern. Dazu können Sie mein portfolio, referenzen und kooperationen einsehen.

    Dieser Artikel wurde ursprünglich am 3 Juni 2025 veröffentlicht. Die letzte Aktualisierung dieses Artikels erfolgte am 18 Juli 2025. Der Inhalt dieser Seite wurde von Ralf van Veen verfasst und genehmigt. Erfahren Sie mehr über die Erstellung meiner Artikel in meinen redaktionellen leitlinien.