Cytat
Wydaje się, że podstawową sprawą jest rozróżnienie samej czynności crawlowania (automatycznego przeszukiwania treści stron internetowych, indeksowania jej i pobierania) od ewentualnego późniejszego wykorzystywania pozyskanych w ten sposób treści.
i to jest kluczowa kwestia własnie -> do czego posłużą dane pobrane dane, czy pobieranie będzie korzystne dla wydawcy strony etc.
dodam jeszcze że natarczywe roboty powodują czasami niemałe obciążenie serwera więc lepiej takie poinformować że strona o podanym adresie nie istnieje