Hallo Leute,
ich bin gerade dabei meine Seite mit einer ordentlichen Statistik zu erweitern. Das Problem dabei ist leider das auch Spider auf meine Seite zugreifen ( nur ein Problem der Statistik ). Nun gibt es ja die Möglichkeit diese durch die robots.txt auszuschliessen. Aber gerade das möchte ich nicht, die Spider sollen auch weiter auf meine Seite zugreifen können. Ich würde schon gerne erfassen wie ein Spider wann und auf welche Seite zugreift.
Aber wie kann ich ein Spider von einem 'normalen' Besucher unterscheiden?
In der robots.txt geht das ausschliessen ja über: User-agent ... aber wenn ich die über php abfrage ( $_SERVER['HTTP_USER_AGENT'] ) steht da dann der verwendete Browser drinn..
Etwas anderes was ich noch gefunden hatte war das erstellen einer Tabelle in dem alle Spiders mit der IP gespeichert wurden. Allerdings kann ich mir nicht vorstellen das dies die einzige Lösung sein soll, und ich dann durchgehend eine weitere Tabelle pflegen soll.
Danke und Gruß,
iPixi
ich bin gerade dabei meine Seite mit einer ordentlichen Statistik zu erweitern. Das Problem dabei ist leider das auch Spider auf meine Seite zugreifen ( nur ein Problem der Statistik ). Nun gibt es ja die Möglichkeit diese durch die robots.txt auszuschliessen. Aber gerade das möchte ich nicht, die Spider sollen auch weiter auf meine Seite zugreifen können. Ich würde schon gerne erfassen wie ein Spider wann und auf welche Seite zugreift.
Aber wie kann ich ein Spider von einem 'normalen' Besucher unterscheiden?
In der robots.txt geht das ausschliessen ja über: User-agent ... aber wenn ich die über php abfrage ( $_SERVER['HTTP_USER_AGENT'] ) steht da dann der verwendete Browser drinn..
Etwas anderes was ich noch gefunden hatte war das erstellen einer Tabelle in dem alle Spiders mit der IP gespeichert wurden. Allerdings kann ich mir nicht vorstellen das dies die einzige Lösung sein soll, und ich dann durchgehend eine weitere Tabelle pflegen soll.
Danke und Gruß,
iPixi
Comment