Falcon2
13.03.2009, 15:23:00
Witam
Chciałbym się zapytać czy istnieje możliwość zablokowania serwera przed robotami uruchamianymi np. przed programy tworzące sitemap, które chodzą po stronie powodując spore obciążenie? Można wprowadzić jakieś ograniczenie maksymalnej ilości żądań przez jednego użytkownika na jakiś czas?
erix
13.03.2009, 18:07:46
Troszkę trzeba czasem pogooglać:
http://www.webhostingtalk.com/showthread.php?p=4930110Cytat
np. przed programy tworzące sitemap, które chodzą po stronie powodując spore obciążenie?
Np. w Google for Webmasters możesz ustawić, jak ma być indeksowana strona.
Możesz jeszcze spróbować z plikiem
robots.txt.