Cytat(kayman @ 8.01.2016, 22:42:40 )

przefiltruj np przez .htaccess roboty, spayderboty, clavierboty etc. czyli zajrzyj do logów serwera
poza tym jak masz -> jeżeli nie ma cookie to licznik ++ to bardzo źle, prawie każdy z powyższych nie korzysta z cookie
Dzięki, zaraz zajrzę na Google na temat robotów, może się coś "wydowiem" ciekawego.
Nie mam opcji licznik++, mam tak, że jeżeli nie ma cookie to deklaruje zmienną php o wartości 1, potam funkcja sprawdza czy istnieje zmienna o takiej wartości, jeżeli tak to inkrementuje licznik w bazie.
ps.
Jak stosujesz coś bardziej praktycznego, możesz zapodać przykładem

Właśnie zaglądam teraz w logi i faktycznie dużo tam Yandex, MJ12bot etc., trzeba by je będzie poblokować w hataccessie.
Podobno nie ma regułki na zablokowanie wszystkich robotów oprócz Google i Bing, jak można to zrobić w pliku robots, ale lepsze wyhaczenie konkretnych badbotow niż nic.
ps2.
Tylko teraz jeszcze taka opcja - widzę, że np. wyżej wymienione boty nie mają wpływu na inkrementacje licznika, więc tworzenie regułek blokujące je nic nie da, musiałbym konkretnie wiedzieć jaki bot robi takie numery. Jedynie zablokowanie wszystkiego oprócz Google coś by dało, a takiej formuły na razie nie znalazłem dla htaccessa.
Taka regułka jest poprawna?
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^.*(Googlebot|Yandex).*$ [NC]
RewriteRule .* - [F,L]
albo taka lepsza?
SetEnvIfNoCase User-Agent .*google.* search_robot
SetEnvIfNoCase User-Agent .*yahoo.* search_robot
SetEnvIfNoCase User-Agent .*BingBot.* search_robot
SetEnvIfNoCase User-Agent .*Mozilla.* search_robot #przeglądarki
Order Deny,Allow
Deny from All
Allow from env=search_robot