Mini-Tool analysiert Crawler von Suchmaschinen

Das PHP-Skript Crawltrack (www.crawltrack.info) registriert die Besuche auf einer Website und liefert detaillierte Statistiken darüber. Besonders interessant sei dies, wenn man eine neue Website aufgesetzt hat, berichtet das Fachmagazin Internet Professionell: Wann untersucht Google die neuen Seiten? Und wann tauchen die Seiten dann tatsächlich im Google-Index auf? Wie regelmäßig schaut Google überhaupt vorbei?

Auch für schon länger bestehende Websites bietet das Skript gute Informationen, die sich für die Suchmaschinenoptimierung nutzen lassen. Mit ein paar Experimenten lässt sich beispielsweise herausfinden, was die optimale Frequenz für Content-Updates auf der Website ist: Kommt der Googlebot nur alle zwei Wochen vorbei, auch wenn über längere Zeit hinweg täglich neue Inhalte eingestellt werden, dann kann man sich diese Arbeit möglicherweise sparen – zumindest unter dem Aspekt der Suchmaschinenoptimierung.

Crawltrack liefere auch Daten darüber, welche einzelnen Seiten der Website durch die Suchmaschinen-Crawler abgefragt haben. So lasse sich schnell herausfinden, wenn bestimmte Seiten möglicherweise so schlecht verlinkt sind, dass die Suchmaschinen sie nicht finden. Je nach den technischen Beschränkungen der eigenen Webhosting-Umgebung reiche in der Regel eine einzige Installation aus, um auch mehrere Websites unabhängig voneinander zu beobachten. Denn Crawltrack arbeite mit einem PHP-Codeschnipsel, das in jede zu beobachtende Seite integriert werden muss. Wichtig sei, dass PHP-Code auf diesen Seiten auch ausgeführt wird.