Witam, od kilka lat mam ten problem, że niektórzy nabijają sobie punkty w moim rankingu przez cURLa, dodałem już nawet token, ale nic nie pomaga, jak wiecie sprawdzanie useragenta czy referrera nic nie pomoże, w curlu można wszystko zasymulować, ale jak się bronić przed cURLem?
Jakie macie sprawdzone sposoby przeciwko cURLa oprócz captchy?
tehaha
2.09.2012, 10:29:18
Cytat
Jakie macie sprawdzone sposoby przeciwko cURLa oprócz captchy?
Żadnego. CURL może wysłać takie samo żądanie HTTP jak przeglądarka i jeżeli wszystko zostało ustawione (nagłówki, ciasteczka, user agent) to jest to nie do odróżnienia.
Cytat(tehaha @ 2.09.2012, 11:29:18 )

Żadnego. CURL może wysłać takie samo rządanie HTTP jak przeglądarka i jeżeli wszystko zostało ustawione (nagłówki, ciasteczka, user agent) to jest to nie do odróżnienia.
A może jest jednak jakiś sposób?
zegarek84
2.09.2012, 10:42:53
jak powyżej, możesz tylko próbować utrudnić...
np. możesz w sesji odblokowywać funkcjonalność jeśli jeden z dodatkowych elementów też zostanie wczytany (jakiś pliczek CSS/JS/obrazek [może być też znajdujący się w tle]), ale ktoś kto dobrze umie obserwować połączenie to też i do tego może dojść, poza tym jeśli ktoś wchodzi na stronę nie przez CURL'a a np. przez webkita w QT (C++) to style, skrypty js i obrazki są wczytywane z automatu... można by jeszcze pokusić się twierdzeniem, iż każdy korzystający z danego elementu strony używa myszki, wtedy można by sprawdzić wczytywanie się jakiegoś elementu tła (obrazek - :HOVER), lub zakładając, że JS jest włączony to acyklicznie wysyłać jakieś żądanie które przedłużało by pewną możliwość w sesji (ale i tu webkit domyślnie wykonuje skrypty JS).
oczywiście wszystkie pliki mające to sprawdzać (czy to CSS/JS/IMG) musiały by to być skrypty PHP, przy czym, by zaciemnić sytuację należy zrobić przekierowanie w .htaccess ze zwykłych plików na PHP by nie było rozszerzenia .php