Tez kiedys sie zastanawialem nad tym gdzie wlaza i co robia przegladarki. Mysle ze jest na to sposob. Po pierwsze bodajze w katalogu glownym strony umieszcza sie plik 'robots.txt', w ktorym zapisuje sie podkatalogi do ktorych nie rzyczymy sobie aby boty wchodzily. Jesli boty sa uczciwe to beda przestrzegac regul zapisanych w tym pliku (pierwszy lepszy link do opisu
http://www.searchengineworld.com/robots/robots_tutorial.htm).
Jesli jednak tak nie jest mozna troche pokombinowac. Pozwolcie ze bede glosno myslec, bo nie jestem tego pewien ale na logike to powinno dzialac

. Po pierwsze mozna umiescic jakis button i dopiero jak sie go nacisnie to przekieruje nas na wlasciwa strone. Jesli boty radza sobie z buttonami to mozna np zrobic przepisywanie kodu wyswietlonego nad polem tekstowym [sprawdzenie czy kod sie zgadza itp]. Wiadomo ze przepisywanie nie jest wygodne wiec hm.. moznaby sobie pomoc javascriptem [tylko ze akurat nie wiem czy boty wykonuaj go czy nie?] i zrobic link po nacisnieciu ktorego js bedzie przekierowywac. Ew. zrobic prosty button we flashu [ktorego akurat boty nie maja szansa interpretowac]. Hm to takie luzne pomyslunki moje wiec mozna sie nad tym bardziej zastanowic

.