Analyse von Protokolldateien mit Screaming Frog

Viele SEO-Spezialisten verwenden Screaming Frog für Crawls, vergessen aber, dass das Programm auch hervorragend für die Analyse von Logdateien geeignet ist. Dadurch erhalten Sie einen Einblick in die Suchmaschinen, die Ihre Website wirklich crawlen – und was sie nicht tun. In diesem Artikel: Wie Sie mit Screaming Frog Logdateien analysieren, Schritt für Schritt.

1. Warum sollten Sie Protokolldateien analysieren?

Während ein normaler Crawl zeigt, was technisch möglich ist, zeigt eine Protokolldatei, was Suchmaschinen tatsächlich tun. Denken Sie darüber nach:

  • Welche Seiten werden von Googlebot besucht?
  • Wie oft wird eine bestimmte URL gecrawlt?
  • Crawl-Zeit vs. Crawl-Budget: Was geht durch irrelevante URLs verloren?
  • Werden häufig Weiterleitungen, 404er oder Parameter-URLs aufgerufen?

Protokollanalyse = Realität. Nicht Absicht.

2. Was brauchen Sie?

Um Protokolldateien mit Screaming Frog zu analysieren, benötigen Sie Folgendes:

  • Eine komprimierte oder exportierte Protokolldatei von Ihrem Webserver (Apache: .log, NGINX: .access.log)
  • Oder exportieren Sie von einem CDN wie Cloudflare / Akamai
  • Eine Screaming Frog Lizenz (die Protokollanalyse funktioniert nur in der kostenpflichtigen Version)

Bitten Sie Ihren Entwickler oder Hoster um mindestens 7-30 Tage Protokolldaten.

3. Importieren Sie die Protokolldatei in Screaming Frog

  1. Screaming Frog öffnen
  2. Gehen Sie zu Modus > Log File Analyser
  3. Klicken Sie auf Neues Projekt > Protokolldateien importieren
  4. Wählen Sie Ihre Protokolldatei(en)
  5. Geben Sie an, welche Domäne Sie analysieren möchten

Das Tool erkennt automatisch Benutzer-Agenten, Antwortcodes, Statuscodes und Zeitstempel.

Aan de slag met SEO? Neem gerust contact op.

Senior SEO-specialist






    4. Analysieren Sie die Googlebot-Aktivität

    Gehen Sie auf die Registerkarte Bots > Googlebot zu sehen:

    • Welche Seiten am häufigsten besucht wurden
    • Statuscodes der Besuche (200, 301, 404, 5xx)
    • Letztes Crawl-Datum pro Seite
    • Verteilung nach Verzeichnis, Subdomain oder Seitentyp

    Sie können auch nach anderen Bots filtern: Bingbot, AdsBot, usw.

    5. Wichtige Erkenntnisse, die Sie gewinnen können

    EinsichtAktion
    Jede Menge Crawl auf 404sWeiterleitung einstellen oder Fehlerseiten löschen
    Crawlen nach Parameter-URLsÄndern Sie robots.txt oder setzen Sie canonical
    Wichtige Seiten werden nicht besuchtVerbessern Sie die internen Links oder nehmen Sie sie in die Sitemap auf.
    Crawlen von Entwicklungs-/Test-URLsÜber robots.txt ausschließen oder Authentifizierung obligatorisch machen
    Jede Menge Kriechgänge bei WeiterleitungenUmleitungsketten bereinigen, End-URLs in internen Links fördern

    6. Kombinieren von Daten mit Crawl-Daten

    Möchten Sie wissen, welche Seiten existieren, aber nicht besucht werden?

    1. Führen Sie einen normalen Crawl Ihrer Website in Screaming Frog durch
    2. Gehen Sie zu Log File Analyser > Crawl-Daten vergleichen
    3. Kombinieren Sie Crawl- und Protokolldaten
    4. Filtern nach: ‚Im Crawl gecrawlt, aber nicht im Logfile‘ → mögliche Probleme mit dem Crawl-Budget

    Dies gibt Aufschluss darüber, was Google übersehen oder ignoriert hat.

    7. Exportieren & Berichten

    Alle Tabellen sind in Excel/CSV exportierbar. Nützlich für:

    • Kunden- oder Entwicklungsberichte
    • Priorisierung der technischen Tickets
    • Beweise in den Crawl-Budget-Diskussionen liefern

    Verwenden Sie die visuelle Registerkarte „Übersicht“ für einen schnellen Einblick in die Verteilung nach Statuscode oder Crawl-Typ.

    Zusammenfassend

    Die Analyse der Logdateien durch Screaming Frog liefert Ihnen Daten, die Sie nirgendwo anders sehen: wie Google sich wirklich auf Ihrer Website bewegt. Kombinieren Sie dies mit Crawl-Daten und Sie haben eine starke Grundlage für technische SEO-Entscheidungen.

    Senior SEO-specialist

    Ralf van Veen

    Senior SEO-specialist
    Five stars
    Mein kunde hat mir bei Google 5.0 von 85 bewertungen gegeben

    Ich arbeite seit 12 Jahren als unabhängiger SEO-Spezialist für Unternehmen (in den Niederlanden und im Ausland), die auf nachhaltige Weise eine höhere Position in Google erreichen wollen. In dieser Zeit habe ich A-Marken beraten, groß angelegte internationale SEO-Kampagnen aufgesetzt und globale Entwicklungsteams im Bereich der Suchmaschinenoptimierung gecoacht.

    Mit dieser breiten Erfahrung im Bereich SEO habe ich den SEO-Kurs entwickelt und hunderten von Unternehmen geholfen, ihre Auffindbarkeit in Google nachhaltig und transparent zu verbessern. Dazu können Sie mein portfolio, referenzen und kooperationen einsehen.

    Dieser Artikel wurde ursprünglich am 3 Juni 2025 veröffentlicht. Die letzte Aktualisierung dieses Artikels erfolgte am 18 Juli 2025. Der Inhalt dieser Seite wurde von Ralf van Veen verfasst und genehmigt. Erfahren Sie mehr über die Erstellung meiner Artikel in meinen redaktionellen leitlinien.