Mam jednak pewną wątpliwość. Na początku myślałem żeby oprzeć takie statystyki (w uproszczeniu) na tabeli logów zapisywanych w bazie danych. Każdy wiersz w tabeli reprezentowałby pojedynczą odsłonę, które planowałem grupować w wizyty. Jest jednak pewien problem. W przypadku monitorowania serwisu na którym powiedzmy jest 20 000 wizyt miesięcznie (czyli załóżmy że średnio 100 000 odsłon) w bazie danych ląduje 100 000 rekordów tylko dla jednego serwisu miesięcznie. A co jeśli takich serwisów mój system monitoruje 50. To daje już nam 5 000 000 rekordów miesięcznie. Obawiam sie o wydajność.
Czy ktoś wie jak ten problem powinien być porządnie rozwiązany....? myślałem o tym żeby szczegółowe dane dotyczące odsłon przechowywać tylko dla powiedzmy 20 czy 40 ostatnich odsłon dla każdego z monitorowanych serwisów WWW. Starsze dane możnaby agregować i gdzieś sobie przechowywać (na przykład w pliku xml). Agregacja dokonywałaby się powiedzmy co 30 minut (jakiś skrypt agregujący by był wykonywany na serwerze, przy użyciu np.: crona)
Co o tym myślicie – może ktoś wie jak to powinno być „porządnie” zrobione ...
