Karen
18.11.2006, 15:29:33
Witam,
czy da się w prosty sposób rozpoznać czy na stronę wchodzi robot wyszukiwarki czy normalny użytkownik?
A konkretnie:
Mam stronę, która od razu wymaga zalogowania, jak sprawić by skrypt przepuszczał tylko roboty wysz. do dalszej części?
Będę wdzięczna za pomoc.
bełdzio
18.11.2006, 16:04:24
sprawdzaj user-agent'a lub IP i jeśli pasuje do danych robota to podejmuj odpowiednią akcje
Karen
18.11.2006, 16:24:41
Rozumiem, że agenty do klasy trzeba samemu dodawać? Bo jeśli chcieć udostępnić stronę większej ilości robotów to jest trochę klepania.
batman
18.11.2006, 19:02:57
Niestety sprawdzanie user-agent na niewiele się zda, ponieważ w FF jest prosta sztuczka, która pozwala "zamienić" go w robota. Innymi słowy, można zmienić jedną rzecz w about:config i Twój FF będzie identyfikowany jako robot. Testowałem - działa bez zarzutu.
Karen
18.11.2006, 19:05:15
To nie dobrze

Czyli pozostaje tylko sprawdzanie ip?
batman
18.11.2006, 19:49:45
Samo sprawdzanie IP też na niewiele się zda. Jeśli robot ma możliwość czesania sieci z różnych adresów, wówczas będziesz musiała sprawdzać coraz to inne adresy. Możesz pokombinować z plikiem robots, chociaż nie jestem do końca przekonany, czy o to Ci właśnie chodzi.
Karen
18.11.2006, 19:54:38
Nie robots nic mi nie da.
Na stronie głównej skrypt sprawdza czy użytkownik jest zalogowany, jeśli tak to wyświetla zawartość strony. Jeśli nie odsyła do logowania.
Wszystko działa na sesjach.
Jeśli ktoś ma jakiś pomysł jak to rozwiązać będę wdzięczna.
zastanow sie czy tak naprawde warto kombinowac. jezeli rejestracja jest darmowa, a tresci dostepne po zarejestrowaniu to artukuly, posty itd. to raczej nie warto. tym bardziej ze odwiedzajacy nie wie, ze nalezy sie podszyc za robota, a wystarczy ze sie zarejestruje.
Karen
18.11.2006, 21:06:39
Problem w tym, że rejestarcja nie jest darmowa. Serwis wymaga specjalnych zaproszeń od kogoś z wewnątrz.
Czyli, że nie ma jakiejś uniwersalnej metody by się przed tym zabezpieczyć?
WereWolf
18.11.2006, 23:03:37
hmm.. jeśli serwis nie jest darmowy (a co za tym idzie, chodzi pewnie o artykuły na nim zawarte), to nie wiem czy chciałbyś, żeby roboty zaglądały do treści serwisu...
konkretnie, chodzi mi o to, że jeśli robot przeglądałby artykuły, to równie dobrze użytkownik korzystając z wyszukiwarki (a dokładniej z archiwum wyszukiwarki, np. google), mógłby podejrzeć te artykuły...
tak więc pozwalanie robotowi na wstęp "głębiej" w serwis chyba nie jest najlepszym pomysłem
Karen
19.11.2006, 00:31:14
Miałam raczej zamiar wrzucić wszystko do jednej funkcji. Wortal jest zbudowany tak, że łatwo byłby zarządzać materiałami, które mają być indexowane, a które nie.
Rozumiem, że ciężko będzie się skutecznie przed tym zabezpieczyć, w takim razie czy pomoże ktoś przy napisaniu takiej klasy? Albo przynajmniej zasugerowaniu jak miałaby wyglądać taka analiza agenta?
enigma
19.11.2006, 07:45:00
Karen mam ten sam problem ale w liczniku, próbowałem blokować boty, ale co się okazało, przed blokowaniem google odwiedzały mnie tak:
88.198.196.10 i nagłówek Mozilla/5.0 (compatible; googlebot/2.1; +http://www.google.com/bot.html)
teraz jak zrobiłem blokadę, tez mam odwiedziny z tego IP i licznik je zlicza, a dlaczego bo nagłówek wyglada tak jak normalnego internauty. Także nie opieraj się na user_agent
jaki inny sposób nie wiem, zastanawiam się jak jest z ciachami, próbować wysłac ciacho, jeśli nie przyjmie to uznajemy że to robot (użytkowników raczej nie odzrucimy ponieważ większość ma jednak obsługe ciastek włączoną), ale czy rzeczywiście boty nie przyjmują ciach nie wiem (
pytałem już tutaj 
ale odpowiedzi nie mam)
jak będę miał czas przetestuje to z ciachem na swojej stronie i dam znać
Karen
19.11.2006, 11:21:38
Dzięki Enigma za dłuższy post

A co do Twojego problemu to chyba wystarczy dodać: OR $_SERVER["REMOTE_ADDR"] = '88.198.196.10'
Mnie na innym forum powiedzieli, że to o co pytam jest niemoralne i że jest to oszustwo. Dorobili cała teorię i temat zamknięto.
bili.pl
19.11.2006, 11:29:50
Cytat
Mnie na innym forum powiedzieli, że to o co pytam jest niemoralne i że jest to oszustwo.
Bo boty mogą to potraktować za oszustwo i zbanować twoją stronkę w wyszukiwarce. Przynajmniej tak mi się wydaje, ale w pozycjonowaniu nie jestem biegły.
enigma
19.11.2006, 20:57:31
Cytat(Karen @ 19.11.2006, 11:21:38 )

OR $_SERVER["REMOTE_ADDR"] = '88.198.196.10'
niestety, google ma kilka ip, więc nic z tego
Cytat(bili.pl @ 19.11.2006, 11:29:50 )

Bo boty mogą to potraktować za oszustwo i zbanować twoją stronkę w wyszukiwarce. Przynajmniej tak mi się wydaje, ale w pozycjonowaniu nie jestem biegły.
to nie jest żadne oszustwo, żeby to były jakieś kombinacje w celu lepszego wypozycjonowania strony to tak, ale tu chodzi o coś całkiem innego
Czy nie mozna tego rozwiazac w ten sposob, ze naglowek (streszczenie) artykulu bedzie dostepne dla wszystkich (rowniez bot'ow)? Wystarczy je napisac w taki sposob zeby nic nie powiedziec a uzyc wszystkich waznych slow kluczowych?
Karen
19.11.2006, 21:09:36
Można, ale wtedy serwis trzeba byłoby częściowo otworzyć, czego nie chcę.
Nie widze innego rozwiazania. Odzielenie userow od botow to utopia zwlaszcza, ze kazdy user bedzie mogl skorzystac z kopii stron zapisywanych przez wyszukiwarke (jak juz zostalo slusznie zauwazone).
IMO udostepnienie streszczenia artykulu zacheci napewno wiecej osob do zaplacenia za pelna wesje.
Albo rybki albo akwarium.
bili.pl
20.11.2006, 15:05:48
Cytat("Enigma")
Cytat
Bo boty mogą to potraktować za oszustwo i zbanować twoją stronkę w wyszukiwarce. Przynajmniej tak mi się wydaje, ale w pozycjonowaniu nie jestem biegły.
to nie jest żadne oszustwo, żeby to były jakieś kombinacje w celu lepszego wypozycjonowania strony to tak, ale tu chodzi o coś całkiem innego
A czy ja napisałem, że to jest oszustwo? Napisałem, że wydaje mi się, że za takowe może być potraktowane przez bota. Nie zapominajmy, że bot to nie człowiek.
Karen
20.11.2006, 16:46:11
Przez niektórych ludzi też tak jest traktowane, a założenie tego skryptu uznali za szkodliwe...
Ja już jednak sobie poradziłam z problem, w sposób może nieprofesjonalny, ale udało się
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę
kliknij tutaj.