Logfiles & Logfile-Analyse
Logfiles sind Protokolldateien auf einem Webserver, die jeden Zugriff auf die Seite speichern – also auch, wenn der Googlebot oder andere Suchmaschinen-Crawler vorbeischauen.
Die Logfile-Analyse ist eine Methode, um das Crawling-Verhalten von Google zu verstehen. Hierbei werden die Logfiles ausgewertet, um zu sehen:
✅ Welche Seiten wie oft von Google gecrawlt werden
✅ Ob es viele Fehlercodes gibt (z. B. 404 oder 500)
✅ Ob der Googlebot Zeit mit unwichtigen Seiten (z. B. Filter-URLs) verschwendet
Gerade bei großen Websites mit tausenden URLs hilft die Logfile-Analyse, das Crawl-Budget effizienter zu nutzen.