Durchführen von Logfile-Analysen für SEO
Logdatei im Zusammenhang mit SEO bedeutet, dass Serverprotokolle gründlich überprüft werden, um zu sehen, wie Suchmaschinen eine Website crawlen. Die daraus resultierenden Daten geben Aufschluss darüber, wie Suchmaschinen-Bots mit einer Website interagieren, so dass SEO-Experten ihre Strategien anpassen können, um höhere Suchergebnisse zu erzielen und für Besucher besser sichtbar zu werden.
Sammeln von Protokolldateien
Die Protokolldateien dienen als detailliertes Tagebuch des Servers. Sie zeichnen jede Aktion auf, die auf der Website stattfindet. Das Ziel ist es, einen klaren und präzisen Einblick zu geben, welche Seiten von Suchmaschinen in welcher Häufigkeit besucht werden. Probleme mit Suchmaschinen werden ebenfalls erfasst.
Protokolldateien geben Aufschluss über die Interaktion zwischen einer Website und ihren Besuchern. Dies können sowohl Menschen als auch Bots sein. Sie können die besuchten URLs, IP-Adressen, Statuscodes und die genauen Besuchszeiten sehen. Anhand dieser Daten können Sie das Verhalten der Suchmaschinen analysieren und einen gezielten SEO-Fahrplan erstellen.
Sammeln von Protokolldateien
Sammeln Sie die Protokolldateien, um sich einen besseren Überblick zu verschaffen. Durch Einloggen in den Webserver oder ein Content Delivery Network (CDN) können Protokolldateien gesammelt und exportiert werden. Regelmäßige Backups sind notwendig, um später historische Daten einzusehen und Trends über die Jahre hinweg zu analysieren. Sammeln Sie die Protokolldateien anhand des unten stehenden Schemas:
- Wählen Sie, welche Protokolldateien benötigt werden. Hier geht es um die Logdateien des Webservers, die die Crawler der Suchmaschinen aufzeichnen.
- Bitten Sie um Zugang. Sie können über FTP, cPanel oder eine direkte Verbindung zum Hosting-Anbieter auf den Server der Website zugreifen.
- Geben Sie den Speicherort der Protokolldatei an. Es ist wichtig zu wissen, wo die Protokolldateien gespeichert werden. Dies geschieht häufig im Verzeichnis logs.
- Protokolldateien exportieren. Laden Sie Protokolldateien herunter und exportieren Sie sie auf das lokale System. Verwenden Sie zu diesem Zweck .txt- oder .log-Dateien.
- Sparen. Speichern Sie die heruntergeladenen Protokolldateien immer ordnungsgemäß und behalten Sie den Überblick, indem Sie verschiedene Ordner anlegen.
- Automatisieren Sie den Prozess. Um ständig Zugriff auf aktuelle Daten zu haben, empfiehlt es sich, den Erfassungsprozess über Skripte oder den Hosting-Anbieter zu automatisieren.
Zu verwendende Werkzeuge
Für die Analyse von Protokolldateien gibt es verschiedene Werkzeuge, von einfachen Texteditoren bis hin zu spezialisierter Software für die Tiefenanalyse. Zur letzteren Kategorie gehören Screaming Frog Log File Analyser oder Semrush. Die Tools filtern und visualisieren schnell große Datenmengen und bieten Einblicke in die Leistung der Website, was zur Verbesserung der Suchmaschinenoptimierung beiträgt.
Sie können auch direkt auf die Website des Hosting-Anbieters gehen, aber das ist ein bisschen komplizierter. Außerdem erhalten Sie auf diese Weise Einblick in die tatsächlichen Daten. Ein Beispiel für einen Hosting-Anbieter ist TransIP.
Welche Erkenntnisse liefern die Protokolldateien?
Logdateien zeigen, wie gesund ein Server ist und ob er ordnungsgemäß funktioniert. Protokolldateien geben auch Aufschluss über etwaige Fehler, die sich auf die Leistung auswirken können. Treten in den Protokolldateien Fehler auf, werden diese sofort behoben. Beispiele für Fehler sind langsame Antwortzeiten oder Serverfehler. Die Google Search Console kann teilweise helfen, Fehler zu erkennen und zu beheben.
Die Logdateien enthalten nicht nur Daten vom Google Bot, sondern auch von anderen Nutzer-Agenten und Besuchern. Einige SEO-Spezialisten setzen immer die Google Search Console ein, um Zeit zu sparen.
Identifizierung von Crawl-Problemen mit Protokolldateien
Anhand der Protokolldateien können Sie auch Crawling-Probleme erkennen. Achten Sie auf Fehlercodes wie Code 500 (Serverfehler) oder Code 404 (nicht gefunden) und halten Sie Ausschau nach Seitensprüngen. So erkennen Sie technische Probleme, die Sie sonst übersehen würden.
Sie müssen sich jedoch nicht selbst mit dem Studium befassen. Hierfür gibt es praktische Tools wie Screaming Frog. Die Werkzeuge arbeiten im Allgemeinen schneller und genauer.
Beziehungsprotokolldateien und Suchmaschinen-Crawler
Logdateien geben Aufschluss darüber, wie Suchmaschinen-Crawler auf einer Website navigieren. Sie zeigen, welche Seiten am häufigsten besucht werden und wie häufig. Dies sind wertvolle Informationen, um festzustellen, welche Aspekte der Website von den Suchmaschinen geschätzt werden und welche etwas mehr Aufmerksamkeit erfordern. Anhand dieser Informationen können Sie ermitteln, wie Sie Ihre Inhalte besser auf Crawler abstimmen und mit Ihrer Website bei Google weiter oben landen können.
Optimierung des Crawl-Budgets
Die Protokolldateien zeigen auch, wie das Kriechbudget verwendet wird und ob es unnötig verdoppelt wird. Verwenden Sie diese Daten bei der Strukturierung der Website und passen Sie die robots.txt-Datei an, um das Crawling zu optimieren. Das passt zu einem optimalen SEO-Paket.
Protokolldateien zeichnen jede Crawler-Aktion auf und geben Aufschluss darüber, welche Seiten indiziert werden und wie häufig sie erscheinen. Diese Informationen geben Aufschluss darüber, ob die Crawler zu den richtigen Inhalten führen oder nicht und ob Änderungen an der Content-Strategie vorgenommen werden sollten.
Ist die Google Search Console eine gute Alternative?
Anstatt die Logdateien selbst zu analysieren, kann die Google Search Console dabei helfen. Google Search Files zeigt, wie alle Bots mit der Website interagieren und identifiziert Crawling-Fehler. Dies nimmt weniger Zeit in Anspruch als die eigene Analyse von Protokolldateien und ist daher kostengünstiger. Außerdem verbessert es die Indexierung der Website.
Häufige Fehler bei der Analyse von Protokolldateien
Bei der Analyse von Protokolldateien werden sporadisch auftretende Fehler häufig übersehen. Die Auswirkungen scheinen gering zu sein, aber auf lange Sicht wirken sich diese Fehler negativ aus. Dabei handelt es sich nicht nur um große Fehler, sondern auch um kleine Unregelmäßigkeiten. Diese führen in der Zukunft zu größeren Problemen. Darüber hinaus sind Zahlen allein nicht aussagekräftig genug; auch der Kontext ist wichtig. Dies sind die häufigsten Fehler, die bei der Analyse von Protokolldateien gemacht werden:
- Veraltete Protokolldateien. Es ist wichtig, die Protokolldateien stets auf dem neuesten Stand zu halten. Veraltete Protokolldateien können irreführende Informationen über den aktuellen Zustand der Website liefern.
- Konzentration auf einen Aspekt. Ein Blick auf die HTTP-Statuscodes allein reicht nicht aus, um sich ein gutes Bild vom Zustand einer Website zu machen. Achten Sie auch auf die Ladezeiten, die Crawling-Häufigkeit und das Crawl-Budget.
- Ich behalte nicht den Überblick. Achten Sie darauf, nicht zu sehr auf Details zu achten, um den Überblick nicht zu verlieren. Außerdem sollten Sie die gefundenen Informationen immer strukturiert in übersichtlichen Ordnern ablegen.
- Ohne auf den Kontext zu achten. Wer nur auf Zahlen schaut, interpretiert Daten falsch und verleitet SEO-Spezialisten manchmal dazu, falsch zu handeln. Achten Sie daher immer auf den Kontext, um das Ganze klar zu verstehen.
Zusammenfassung
Die effiziente Nutzung der Logfile-Analyse bietet viele Vorteile für die SEO-Optimierung. Experten können Probleme frühzeitig erkennen, die Website besser auf die Anforderungen der Suchmaschinen abstimmen und das Crawl-Budget optimieren.
- https://developers.google.com/search/docs/appearance/google-images
- https://developers.google.com/search/docs/crawling-indexing/overview-google-crawlers
- https://developers.google.com/search/docs/crawling-indexing/robots/intro
- https://developers.google.com/search/docs/fundamentals/creating-helpful-content
- https://developers.google.com/search/docs/crawling-indexing/http-network-errors