Meine Neugierde darauf, aus welchen Ländern auf meine Webseiten zugegriffen wird, hat mich über Google Analytics zu Matomo gebracht. Warum ich Google Analytics nicht mehr nutzen möchte, hatte ich bereits erklärt. Dass Matomo gehen muss, liegt an den begrenzten Ressourcen, die mein Webspace bietet.
Warum dann nicht die Zugriffe mit einer Eigenprogrammierung erfassen, in eine Datenbank schreiben und dann wieder auslesen? Eine tolle Idee!
Tja, aber um diese Daten wieder auslesen zu können, müssen sie zunächst gesammelt werden. Und das erfordert wieder Ressourcen, denn es sind nicht gerade wenig Zugriffe für meinen Webspace. Die CPU-Auslastung liegt permanent höher als 30 %, in Spitzenauslastung geht es auch über 90 %. Zwar brechen die Seiten nicht mehr zusammen, wie mit Matomo, aber durch den hohen Traffic und der permanent zugreifenden Bots kommt schon einiges zusammen.
Also muss ich mir wieder etwas anderes einfallen lassen. Und das ist geschehen und ich bin mal wieder erstaut, dass ich das nicht früher in Erwägung gezogen habe.
Mein Webhoster sammelt diese Daten nämlich auch und stellt sie über verschiedene Tools regelmäßig zur Verfügung. Nach Durchsicht der Möglichkeiten, habe ich mich für die Auswertung von AWSTATS entschieden. Die Auswertungen wird immer für 20 Monate vorgehalten, wobei der aktuelle Monat täglich neu ausgewertet und zur Verfügung gestellt wird. Die Auswertungen liegen außerhalb von DocumentRoot, was das automatisierte Anpacken erschwert. Das ist im Moment aber noch nicht so schlimm.
Allerdings ist zu beachten, dass die Auswertungen mittlerweile eine Gesamtgröße von ca. 900MB haben und die Speicherkapazität auf meinem Webspace belasten. Alles nicht so einfach.
Derzeit arbeite ich daran, die strukturierten Textdateien auszuwerten bzw. ein Auswertungstool zu programmieren. Mir liegen im Moment die Daten ab 12/2021 vor. Und diese Daten möchte ich gerne in eine Tabelle schreiben. Das ist eine einmalige Aktion, aber die Grundlage für die regelmäßige Auswertung des aktuellen Monats. Somit komme ich an die Daten ran und kann, wenn auch rückblickend, meine Statistiken selber im Admincenter des Jagdzentrums anschauen. Ich wäre also nicht mehr nur an cPanel gebunden. Das ist mir immer wichtig, nicht von Drittsoftware abhängig zu sein.
Es ist aber so, dass mich das Programmieren schon beschäftigt und viel Zeit verbraucht. Leider kann ich das nicht mit Python machen, sondern ich muss mich wieder in PHP tummeln. Es macht aber Spaß. Insofern ist meine Neugierde nicht nur Arbeit, sondern auch ein Spaßfaktor.
Meine Neugierde bezieht sich auch darauf, welche Bots sich auf meinen Seiten bewegen, aber auch, welche nicht als Bots zu identifizierenden IP-Adressen zugreifen. Dass dabei auch VPN-Zugriffe vorhanden sind, ist nicht zu vermeiden und verunschönen die Statistiken.
Keep on watching
Hurtiger
Warum dann nicht die Zugriffe mit einer Eigenprogrammierung erfassen, in eine Datenbank schreiben und dann wieder auslesen? Eine tolle Idee!
Tja, aber um diese Daten wieder auslesen zu können, müssen sie zunächst gesammelt werden. Und das erfordert wieder Ressourcen, denn es sind nicht gerade wenig Zugriffe für meinen Webspace. Die CPU-Auslastung liegt permanent höher als 30 %, in Spitzenauslastung geht es auch über 90 %. Zwar brechen die Seiten nicht mehr zusammen, wie mit Matomo, aber durch den hohen Traffic und der permanent zugreifenden Bots kommt schon einiges zusammen.
Also muss ich mir wieder etwas anderes einfallen lassen. Und das ist geschehen und ich bin mal wieder erstaut, dass ich das nicht früher in Erwägung gezogen habe.
Mein Webhoster sammelt diese Daten nämlich auch und stellt sie über verschiedene Tools regelmäßig zur Verfügung. Nach Durchsicht der Möglichkeiten, habe ich mich für die Auswertung von AWSTATS entschieden. Die Auswertungen wird immer für 20 Monate vorgehalten, wobei der aktuelle Monat täglich neu ausgewertet und zur Verfügung gestellt wird. Die Auswertungen liegen außerhalb von DocumentRoot, was das automatisierte Anpacken erschwert. Das ist im Moment aber noch nicht so schlimm.
Allerdings ist zu beachten, dass die Auswertungen mittlerweile eine Gesamtgröße von ca. 900MB haben und die Speicherkapazität auf meinem Webspace belasten. Alles nicht so einfach.
Derzeit arbeite ich daran, die strukturierten Textdateien auszuwerten bzw. ein Auswertungstool zu programmieren. Mir liegen im Moment die Daten ab 12/2021 vor. Und diese Daten möchte ich gerne in eine Tabelle schreiben. Das ist eine einmalige Aktion, aber die Grundlage für die regelmäßige Auswertung des aktuellen Monats. Somit komme ich an die Daten ran und kann, wenn auch rückblickend, meine Statistiken selber im Admincenter des Jagdzentrums anschauen. Ich wäre also nicht mehr nur an cPanel gebunden. Das ist mir immer wichtig, nicht von Drittsoftware abhängig zu sein.
Es ist aber so, dass mich das Programmieren schon beschäftigt und viel Zeit verbraucht. Leider kann ich das nicht mit Python machen, sondern ich muss mich wieder in PHP tummeln. Es macht aber Spaß. Insofern ist meine Neugierde nicht nur Arbeit, sondern auch ein Spaßfaktor.
Meine Neugierde bezieht sich auch darauf, welche Bots sich auf meinen Seiten bewegen, aber auch, welche nicht als Bots zu identifizierenden IP-Adressen zugreifen. Dass dabei auch VPN-Zugriffe vorhanden sind, ist nicht zu vermeiden und verunschönen die Statistiken.
Keep on watching
Hurtiger