Bo crawlera to sobie sam możesz pisać i nikt raczej nie ma ochoty pomagać w tym? Czemu? Zżera to tylko transfer stronom i obciąża je, a nie daje nic w zamian. Już widziałem ataki kiepskich crawlerów, które potrafiły zwinąć stronie w chwilę masy megabajtów i kończyło się to dla serwisu 500, gdyż hosting killował takie konto na jakiś czas, by mu na maszynce nie spowalniało innych.
EDIT: A jeśli to Twoja własna strona, to osobiście uważam, że dziwne by było, iż nie znasz routów na niej i na ich podstawie oraz ewentualnie bazy danych, nie umiesz ich zwyczajnie wygenerować