Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: Jak nie popsuc rankingu wypozycjonowanej strony
Forum PHP.pl > Forum > Optymalizacja i pozycjonowanie stron - SEO
Orzeszekk
Witam. Wlasnie tworze nową wersje pewnego serwisu (ze starą nie mialem nic do czynienia).

Strona osiagnela wysoką pozycje w google, zapewne poprzez bardzo dobrą domenę która niemal idealnie zbiega sie z frazą którą ludzie wpisują w google aby odnaleźć informacje z tej dziedziny, oraz zapewne przez dobry content, bo redaktorzy się starają.

Stara strona jest postawiona na joomli, przez kompletnego amatora w tych sprawach.

Ja tworze wersje dedykowaną serwisu, beż żadnych zasobożernych cmsów. Jednak, nie zajmowałem sie nigdy SEO, i nie chciałbym by błędnie napisana strona spowodowala spadek pozycji w google.

O czym muszę pamiętać? wyczytałem aby:
-zablokowac skanowanie panelu administracyjnego plikiem robots.txt
-utworzyc przyjazne linki czyli te domena/news-15.html zamiast domena/viewNews.php?id=15
-przypadkowo znalazlem na innej stronie ze trzeba przekierowywac link http://domena.pl na http://www.domena.pl gdyz inaczej
to całe pozycjonowanie "rozłupie sie" dla googla na dwa serwisy - jeden z www a drugi bez www

cos jeszcze o czym muszę pamiętać? Strona jest wypozycjonowana, chodzi o to by nie uszkodzić tego co jest.

Nie wiem czy muszę tu podawac o jaki serwis konkretnie chodzi, jesli bedzie trzeba to podam.
harpcio
Informacje o panelu są bardzo newralgicznym punktem w całej aplikacji. Google nie powinno samo z siebie indeksować panelu administracyjnego,
chyba że podasz gdzieś na stronie link do tego panelu. Jeżeli piszesz wszystko od początku, staraj się nie umieszczać panelu administracyjnego pod adresem domena.pl/admin/
ani nie zakładać konta użytkownika "root".

Co do SEO, po postawieniu strony i wgraniu wszystkich treści należy przekierować linki ze starej domeny na nową rewritem 301 w pliku .htaccess -> to sprawi, że wszystkie linki pozycjonujące poprzedni serwis,
będą pozycjonowały nowy.
Damonsson
Raczej odwrotnie: z http://www.domena.pl na http://domena.pl
No chyba, że wszędzie istnieje z przedrostkiem www. Wtedy z konieczności musisz przekierowywać na bardziej "znaną" google.
Orzeszekk
Mozna gdzies to sprawdzic ktora wersja jest bardziej znana google? podejrzewam ze ta z www.
thek
Ja bym zrobił 301 na odpowiednie treści jeśli się powtarzają w serwisie. Po co tracić moc już wypozycjonowanych dobrych treści i przenosić ją na główną domenę, skoro wiemy, że identyczna rzecz jest w nowej domenie? Przykład? Masz pewne artykuły w starej domenie, które są także w nowej. Bezpośrednio je przekieruj, a nie że robisz 301 wszystkiego ze starej domeny na stronę główną nowej domeny. W ten sposób ludzi przerzucisz z sensownej treści na stronę główną nowego serwisu, gdzie tej treści nie ma. Efekt? Wyjdą ze strony lub otworzą wersję scache'owaną strony wink.gif Wskaźnik odrzuceń poleci do góry jak rakieta a to na SEO dobrze nie robi. Unikaj niejednoznaczności. http://www.domena.com http://domena.com to dwa różne adresy i jeśli oba google widzi to oznaczy to jako double content i też dostaniesz po tyłku. Tak samo http://www.domena.com/podstrona i http://www.domena.com/podstrona/ są również dwoma innymi dla wyszukiwarek i znowu możesz dostać baty za dubla. Stosowanie mod-rewrite może spowodować, że adresy: http://www.domena.com/slug-11/ i http://www.domena.com/tekst-11/ są uznawane za to samo (reguła dla której istotny jest tylko numer za myślnikiem na samym końcu) i tym samym może istnieć milion kombinacji prowadzących do tej samej strony. Kolejne baty dla Twojej strony ze strony wyszukiwarki. SEO to wbrew pozorom dość grząski temat bo zbyt szybko tu następują zmiany w algorytmach by powiedzieć coś pewnego.
potkot
Jeśli wszystkie twoje linki zewnętrznę prowadzą do tylko do jednej wersji domeny np bez "www", to nawet nie musisz robić przekierowania, bo Google sam wie, która jest własciwa. Jesli strona już jest wysoko w wynikach wyszukiwania, to moim zdaniem nie ma co zmieniać zbyt wiele budowy, bo może to tylko zaszkodzić. Raczej skupiłbym się to zdobywaniu wartościowych linków.
thek
@potkot: a wiesz, że googlebot będzie sam też kombinować preparując linki by sprawdzić co dostaje jako odpowiedź? Poza tym nie masz pewności, że ktoś będzie linkował tak samo jak Ty, trzymając sie jednej wersji. Dopóki nie masz strony z subdomenami to ustawienie jednoznaczne z lub bez www jest bardzo przydatne, by potem sie nie zdziwić czemu masz w narzędziach webmastera tyle linków oznaczonych "Double Content", co mocno wpływa na SEO. Gdy zmienił się algorytm na pandę w google, nie mieliśmy w 2 popularnych serwisach ustalonej do końca kolejności w strukturze linków. Efekt? Z dnia na dzień spadliśmy z interesujących nas słów kluczowych w pierwszej 10 gdzieś pod koniec pierwszej 100, a ruch na stronie do około 10% sprzed zmiany algorytmu. Wiesz jaki popłoch był i tempo narzucone by to naprawiać? I tak kilka tygodni zajęło zanim wróciliśmy do porównywalnej pozycji sprzed zmian, ale ile to kosztowało wysiłków i nerwów to inna sprawa. Nie mówiąc o fakcie, że widzieliśmy jak sobie konkurencja podwyższała szybko ranking praktykami, które do uczciwych IMHO nie należą. Do dziś zespół google.pl nie odpowiedział czy takie praktyki są przez nich akceptowane jako dopuszczalne.
Orzeszekk
w googlu wyskakuje jako pierwsza strona bez www.

pod adresem domena.pl/NowaWersja znajduje sie nowa wersja strony. To ze tam sa takie bzurne tresci na razie na testy nie popsuje rankingu strony? ciągle jest w budowie jeszcze nikomu jej nie pokazalismy ale wysylam ja na serwer aby udostepniac postep prac klientowi.

Te linki to jak mam im zrobic mod_rewrite? jak zrobie przekierowanie domena.pl/article/14 (są przyjazne linki) na domena.pl/NowaWersja/showArticle.php?id=14 to na pewno nie wyswietli mi się ten sam news. No chyba zeby przekopiowac stare newsy do nowej strony bezposrednio z bazy danych do bazy danych

Aha i jeszcze jedno: czytałem że powinno sie robic przyjazne linki zamiast tych z parametrami ponieważ google gdy znajdzie link z odwrotnymi parametrami np id=3&mode=add oraz mode=add&id=3 to już rozpozna je jako dwie rozne strony i dostaje sie baty za double content.

Tylko ze nawet google ma linki z parametrami w swoich serwisach. Moze po prostu wystarczy zrobic przekierowanie z mode=add&id=3 na id=3&mode=add? jakos nie mam przekonania do przyjaznych linków gdyż na niektorych podstronach niektore parametry są opcjonalne i mysle ze wychodzilby mi taki link: strona.php/add-3-----/ (puste miejsca pomiedzy - -)

haha. A to mnie zaskoczylo. Dodałem sobie dwie domeny do narzedzi webmastera google. jedna z WWW, druga bez. Linki z google z wyszukiwania kierują na stronę bez www, natomiast w narzędziach strony statystyki google istnieją tylko dla strony z www. kompletny bezsens.

Tak w ogole to ciekawe czy ona w ogole jest dobrze wypozycjonowana czy to po prostu siła domeny: najczęściej szukanym hasłem dla tej tematyki jest "lol" lub "league of legends", natomiast domena to www.leagueoflegends.pl, więc pojawia sie w polskim internecie jako pierwsza a w swiatowym jako 3-4 zaraz po leagueoflegends.com.

Jesli popelnie błąd seo na stronie, to po ilu dniach/godzinach pojawi sie w google narzedzia webmastera informacja o tym?

Jednym slowem powinienem wyłączyc w robots.txt wszystkie rzeczy typu: panel do prywatnych wiadomosci, panel uzytkownika, panel druzyny, panel administracyjny, pozostawic widoczne tylko newsy i artykuły na temat?

bo gdy google robot wejdzie na te panele uzytkownika, druzyn to wszedzie po za jednym standardowym widokiem dostanie komunikat o tym ze nie ma dostępu do tej podstrony.
thek
Jeśli masz opcjonalne parametry, ale treść pozostaje niezmienna, to na owych podstronach zastosuj Canonical z podaniem adresu bazowego, które wskażą, co jest stroną pierwotną. Jeśli jednak treść jest inna to zostaw jak jest, czyli każda ma swój adres. W chwili gdy masz zamienione kolejności parametrów, ale wszystkie możliwości kierują na tę samą stronę to uznajesz jeden z nich za wzorcowy, a w każdym ze zmienioną kolejnością wskazujesz na ten wzorcowy adres jako główny( lub wprost robisz na niego przekierowanie 301 ). W ten sposób unikniesz double content, gdyż informujesz bota, że choć treść ta sama, ale adres inny, to jest to tylko alternatywny adres dla wskazywanej strony bazowej. Problemem jest jednak to, że jeśli content obu stron w obrębie domeny jest bardzo podobny to bot może uznać obie za tę samą i walnąć także double content. Muszą się one wyraźniej czymś różnić niż tylko jednym zdaniem czy akapitem. Możliwe że w użyciu jest jakiś analizator treści, który bada podobieństwo stron i po przekroczeniu pewnej wyższej wartości procentowej uznaje je za identyczne.

Co do opcjonalnych parametrów jeszcze... Kwestia nie dodawania do adresu tych nie występujących i dobrze przemyślany routing załatwiają sprawę. Mod-rewrite na Twojej stronie mógłby pomóc. Zerknąłem bowiem na nową wersję Twojej strony i adresy w stylu:
http://www.domena.pl/Pages/NewsView.php?id=6
raczej nie wypozycjonuja sie lepiej niż
http://www.leagueoflegends.pl/news-gbt-wyg...kan-Lan-2011-6/
Nie uważasz? Już nawet nie wspominam o braku czegokolwiek w title, bo w końcu to tylko dev. Ale mimo wszystko klient może zauwazyć.Na razie to weź i wszystko co jest w NowaWersja zablokuj robotom. Kumplowi niedawno googlbot znalazł linki do wersji developerskiej dopiero co wprowadzonego systemu płatności wink.gif gdzieś był pewnie jeden link hardcodowany jako samotnik i sie googlebot dobrał do subdomeny zanim zdążyło sie to zauważyć smile.gif
Orzeszekk
Okej, dzięki za uwagi, a czy link do newsów mógłby wyglądać tak: www.leagueoflegends.pl/news-6-gbt-wygrywa-tembakant-lan-2011 ? to chyba nie ma zadnego problemu że ID podałbym jako drugie w kolejnosci? wtedy moglbym przepisac ten link z powrotem na newsView.php?id=6 a reszte linka po prostu zignorował.

Faktycznie, gdzies podczas pisania przepadlo mi title. thx.

Sugerowalbys przepisanie linkow z www na bez www, czy odwrotnie?

chyba lepiej kasowac polskie znaki z przyjaznych linków?
thek
Nieważne czy stosujesz z czy bez www, ważne byś trzymał się jednego standardu do wszystkiego. Z www, używa sie częściej, bo w razie czego prościej potem wprowadzić subdomeny i nie wyglada to "dziko" wink.gif
Co do tego gdzie ma być id artykułu to nie ma większego znaczenia tak naprawdę. Ważne by regułka nie wyłapywała nieprawidłowo i uważaj znów na wspomnniane wieloznaczności...
^news-([0-9]+)-(.*)
złapie jako ten sam link
news-6-link1
news-6-link2
news-6-link3
i dostaniesz po karku za double content. W takiej sytuacji najlepiej porównać link strony na jakiej jesteś do wzorca i zrobić ewentualne redirect 301 smile.gif Kasowanie polskich znaków najlepiej zrobić, bo przeglądarki różnie je obsługują i choć się da, to jest troche zabawy z tym. No i łatwiej wtedy o porównanie z wzorcem smile.gif SEO to temat rzeka a do tego nieco mglista, bo mało kto chce zdradzić najnowsze techniki i tajniki. To co znajdziesz w necie to najczęściej już rady które nie musza być najświeższe. Ale i tak są lepsze niż książka mająca 2-3 lata, gdzie wiele informacji jest już średnio aktualna z racji ciągłych zmian algorytmów. Mało kto Ci napisze wprost jak "podchodzić" google'owską Pandę by mieć lepsze wyniki i większość dochodzi do tego sama.
Orzeszekk
Cytat(thek @ 2.11.2011, 16:06:41 ) *
Co do tego gdzie ma być id artykułu to nie ma większego znaczenia tak naprawdę. Ważne by regułka nie wyłapywała nieprawidłowo i uważaj znów na wspomnniane wieloznaczności...
^news-([0-9]+)-(.*)
złapie jako ten sam link
news-6-link1
news-6-link2
news-6-link3
i dostaniesz po karku za double content.


No tak, jeżeli któryś z redaktorów zmieni tytuł newsa to w cachu googla moze wystepowac news-6-link1, a na stronie news-6-link2. a pozniej gdy bot znajdzie link-2 to bedzie double content.

moze do generowanej strony dodawać canonical www.domena.pl/newsView.php?id=6

Canonical może nie być przyjaznym linkiem?, jedno co wiem, że ID się nie zmieni a tytuł może być zmieniony przez moda w każdej chwili.

Jeszcze znalazłem informację że do tytułów należy używać nagłówków H1, H2, h3, lecz nagłowek H1 powinien byc uzyty tylko raz.
Nie wiedzialem o tym i walnąłem jako tytuł odpowiednio sformatowany div (bo i tak go wyswietlam zawsze jako bloczek) więc będę musiał to przepisać.

i z jakiegos seo-skanera, info zeby dodac sitemape w xml, a w znacznikach meta opisac co jest na stronie.
Redaktorzy piszą newsy w 2 wersjach - skrócona do kilku zdań oraz pełna (wypracowanie). Może w tag meta description wstawiać tą skróconą wersję?

dodatkowy problem jest ze skrócone wersje newsów wyswietlaja sie na index.php (najnowsze), oraz na liscie wszystkich newsów (czyli kazdy wystepuje raz lub 2 razy w zaleznosci od tego jak czeste sa odwiedziny googlebota), a pełne wersje te ktore mialyby byc oznaczone przyjaznymi linkami już są pełnymi wersjami (1raz występują).
thek
Wystarczy jeden myk. W kodzie strony obsługującej newsy robisz prostą rzecz: pobieras tytuł i przepuszczasz go przez funkcję która tworzy Twój prawidłowy seo-url. Jeśli wejście nastąpiło z innego url niż ten właśnie utworzony, robisz przekierowanie ze statusem 301. A skąd pobrać adres jakim się weszło? $_SERVER['REQUEST_URI'] smile.gif Porównać oba i już wiesz czy prawidłowy link czy nie. Jeśli nieprawidłowy - 301 na prawidłowy i nawet google nie ma prawa się burzyć. Link zawsze będzie aktualny, nawet jeśli ktoś zmieni tytuł, bo przy wejściu z innego i tak ewentualny bot dostanie info, że dana strona została na stałe przeniesiona pod inny adres i trzeba to uaktualnić oraz podąży za przekierowaniem. Double content nie zaistnieje.

Canonical może, ale nie musi być przyjaznym linkiem. To zwykły link jak każdy inny. Określa on jedynie, który z linków w przypadku wieloznaczności jest tym głównym, a które są tylko "mirrorami"

Tak... Nagłówki są istotne, gdyż na ich podstawie można utworzyć "spis treści" danej strony. Jak sama nazwa mówi, jest to nagłówek, a więc istotna treść, która niejako definiuje co jest na stronie. H1 sam w sobie jest elementem blokowym, więc użycie div-a jest moim zdaniem nieco wymyślaniem koła na nowo. Dla h1 z tytułem ustaw więc te same właściwości co dla owego div i masz po sprawie. Każdy kolejny Hx jest mniej ważny. Gdy one się skończą, rolę specjalnych elementów przejmują inne znaczniki a jednym z nich jest strong. Właśnie dlatego słowa kluczowe i te ważniejsze dla treści są pogrubione. To nie tylko specjalny zabieg by przyciągnąć uwagę czytelnika. To także znak dla bota indeksującego, że owo słowo jest ważne w kontekście całej strony i jest dla tekstu kluczowe. Dlatego wszystkie ważniejsze słowa i frazy upycha się w nagłówki albo wzmocnienia wink.gif To jest SEO nieco innego typu niż tylko dbanie o znaczniki meta (notabene prawie już ignorowane) i skupiające się na tym, co jest istotne dla prawdziwego internauty - treści. Przy czym jeśli masz za dużo takich "wzmocnień seo", boty je zignorują, czyli osiągasz efekt odwrotny do zamierzonego. Trzeba robić to z głową.

Sitemapa w XML jest po to, by dać botowi od razu bazę linków, tak by ich nie szukał krążąc po wszystkich podstronach. Dostanie w sitemap.xml od razu kilkaset i niech je sobie odwiedza oraz trawi treść smile.gif Sitemapa nie może być za duża, góra 2-3 mega. Jeśli jest większa, trzeba ją pofragmentować i wewnątrz wskazać gdzie są poszczególne części.

Co do znaczników meta to zazwyczaj to co masz w description, znajduje się w google jako krótki opis, dlatego jest tam i tak pewien limit znaków. Zazwyczaj góra kilka krótkich zdań. Zwróć jednak uwagę, że nawet tzw. zajawka ( czyli ów krótki wstęp ) jest kawałkiem html, a do description powinien trafić tekst bez znaczników. Umieszczanie w tym tagu stripowanej z tagów zajawki ma jak najbardziej sens. Tylko nie zapomnij jeszcze o konwersji apostrofów i znaków specjalnych. Czemu? Sam sprawdź. Dodam tylko, że boty dodatkowo nie lubią gdy w title i tagach meta pewne znaki występują, co kończy się ignorowaniem tego co za nimi.

Skrócone wersje to nie problem. Dopóki są tylko małym elementem strony, nie stanowią problemu jeśli zaistnieje 2 lub więcej podstron, które jako jeden z fragmentów layoutu będą je wyświetlać. A z tego co widziałem, to nowy layout na głównej ma więcej treści i tym samym nie powinno zakwalifikować głównej i wyświetlającej newsy najnowsze jako identycznych (double content). Tak więc ten problem Ci odpada.

PS: Jak sam widzisz, to że się w temacie o wyjątkach nie do końca zgadzamy, nie ma wpływu na to, żebym Ci w innym nie mógł pomagać doświadczeniem innego typu niż stricte programistyczne wink.gif Pracuję głównie jako webdeveloper, ale jestem w firmie od wszystkiego. Począwszy od helpdesku dla klientów i pracowników, majstrowanie przy hardwarze i softwarze, pisania skryptów administracyjnych, poprzez developerkę i SEO, a także momentami copywriter i grafik. Normalnie informatyk renesansu wink.gif
Orzeszekk
No spoko tongue.gif Ten temat o wyjątkach to w ogóle miazga biggrin.gif Każdy ma swoje zdanie na ten temat i dopóki klient/firma nie narzuca stylu to koduje jak mu wygodnie.

Jeszcze chciałbym się dowiedzieć czy wyświetlenie 7 ostatnich newsów na stronie głównej, ktore mozna przeczytać również na liscie archiwalnej wszystkich newsów nie wyrzuci double content.

Przekierowanie w wypadku otrzymania nieprawidlowego linku spowoduje obciecie opcjonalnych parametrow ktore mi sa potrzebne chyba canonical bylby lepszy, w koncu po to on jest.
thek
Jak już wspomniałem, dopóki strony te będą się czymś różnic, są duże szanse na to iż potraktuje je jako osobne. Zwyczajnie muszą być nieco od siebie odzróżnialne.

Zależy jak te parametry przechowujesz. Jeśli masz je jako GET w adresie to chyba $_SERVER['query_string'] powinien je zawierać a potem doklejenie do redirecta raczej nie powinno sprawiać problemu? wink.gif Ogólnie sobie przejrzyj co $_SERVER zawiera, a na bank sobie wspomożesz pracę.
Orzeszekk
Cytat(thek @ 3.11.2011, 15:27:14 ) *
Jak już wspomniałem, dopóki strony te będą się czymś różnic, są duże szanse na to iż potraktuje je jako osobne. Zwyczajnie muszą być nieco od siebie odzróżnialne.

Zależy jak te parametry przechowujesz. Jeśli masz je jako GET w adresie to chyba $_SERVER['query_string'] powinien je zawierać a potem doklejenie do redirecta raczej nie powinno sprawiać problemu? wink.gif Ogólnie sobie przejrzyj co $_SERVER zawiera, a na bank sobie wspomożesz pracę.


No mozna ale czy canonical nie załatwi sprawy w tym przypadku? i bez kombinowania i cudowania
thek
Canonical to specyficzne rozwiązanie. Czemu? W zasadzie to zalecenie/metoda google i niekoniecznie inne boty je muszą akceptować, a tym samym yahoo czy bing mogą to zlać (i zapewne to robią). Dlatego najlepiej aż tak mocno się nie nastawiać tylko na to ale stworzyć mechanizm akceptowalny także dla innych. Canonical stosować lepiej jako dodatkowe zabezpieczenie niż główne. Tutaj niestety już trzeba trochę się oczytać i otrzaskać z tym co boty lubią, a czego nie. Nie wiem jak to u Ciebie wygląda z parametrami i do czego służą (co chcesz osiągnąć), ale może jest lepszym rozwiązaniem zastosowanie systemu zakładek? Wtedy masz całość informacji na jednej stronie dla bota, user może się pomiędzy zakładkami przełączać i widzi tylko oczekiwaną część informacji, a Ty masz problem canonicali i cudowania z głowy. Ale jak zaznaczam, nie wiem co to za problem i tylko zgaduję możliwe rozwiązanie smile.gif
Orzeszekk
Cytat(thek @ 3.11.2011, 23:02:39 ) *
Canonical to specyficzne rozwiązanie. Czemu? W zasadzie to zalecenie/metoda google i niekoniecznie inne boty je muszą akceptować, a tym samym yahoo czy bing mogą to zlać (i zapewne to robią). Dlatego najlepiej aż tak mocno się nie nastawiać tylko na to ale stworzyć mechanizm akceptowalny także dla innych. Canonical stosować lepiej jako dodatkowe zabezpieczenie niż główne. Tutaj niestety już trzeba trochę się oczytać i otrzaskać z tym co boty lubią, a czego nie. Nie wiem jak to u Ciebie wygląda z parametrami i do czego służą (co chcesz osiągnąć), ale może jest lepszym rozwiązaniem zastosowanie systemu zakładek? Wtedy masz całość informacji na jednej stronie dla bota, user może się pomiędzy zakładkami przełączać i widzi tylko oczekiwaną część informacji, a Ty masz problem canonicali i cudowania z głowy. Ale jak zaznaczam, nie wiem co to za problem i tylko zgaduję możliwe rozwiązanie smile.gif


O wlasnie, a jak mam zakładki ale takie zwykłe tj skrypt.php?act=zakladka1 i skrypt.php?act=zakladka2
klikniecie na jeden link powoduje wyswietlenie strony z 1 zakladka a na drugi link z drugą,

to jak zablokowac botowi zakladkę 2gą? czy muszę wrzucic noindex do kazdej strony ktora nie jest domyslnie zakladka?
thek
To nie są stricte zakładki, tylko wywołania wywołanie strony z odpowiednim parametrem. Ja miałem na myśli zakładki w JS. Od razu ładujesz wszystko, ale odpowiednie divy ukrywasz i poprzez JS uaktywniasz. Bot widzi od razu całą treść, bo widzi źródło i "nie rozumie" tego co robi JS. Ale user z włączonym JS widzi tylko wybraną zakładką w stylu skrypt.php#act1 lub skrypt.php#act2. W ten sposób bot widzi od razu wszystko, podobnie jak user z wyłączonym JS a linki robią wtedy za linki z kotwicami. Nie masz więc dubla od strony bota, a user ma o tyle wygodnie, że ma za jednym zamachem wczytaną całą treść, a JS po stronie przeglądarki tylko ukrywa lub pokazuje odpowiednie bloki zmieniając im display z none na block lub na odwrót. Sam zresztą weź sobie jakiś system zakładek w jquery i popatrz w Firebugu co się dzieje ze stylami wink.gif
Orzeszekk
No właśnie tego nie chciałem robić gdyż niektóre zakładki są bardzo zasobo i pamięciochłonne a nie zostaną być może użyte przez użytkownika i nie opłaca się ich robić od razu.

Po za tym tych zakładek nie ukryję przed botem, a bot po wejsciu na niektóre zakładki dostanie komunikat "brak dostępu". Czy bot potraktuje ten komunikat jako double content?

Jezeli tak to najwyzej ukryje panele turniejowe i druzyn przed botem i juz. zostana tylko newsy, artykuly i forum.
ShadowD
Bot i użytkownik powinny mieć jeden widok, już od dawna są znane metody wyrzucania czy blokowania userowi części dla bota i odwrotnie - uważaj na to.

Zaś jeśli chodzi o zakładki, jeśli chcesz by nie były indeksowane dopisz do robots.txt, jeśli chcesz użyć ajax, bo chcesz by były ładnie wczytywane, to daj normalnie linki do zwykłych stron i takie też stwórz, a potem js'em nadpisuj im ich oryginalną funkcję, takim sposobem ktoś bez js też ma pełny dostęp, a osoba z ładny i komfortowy w obsłudze serwis. :-)

To tak z moich własnych doświadczeń.
Orzeszekk
Nie robie userowi oddzielnego widoku a botowi oddzielnego widoku ale jesli zorganizowalem sobie zakladki na stronie tak ze to normalne linki html tylko ze z parametrem to chyba musialbym przyjazne linki wlaczyc zeby to zablokowac?

po prostu na jednej stronie www jest zmieszane wyswietlanie informacji z opcjami dla uprawnionych.

np /localhost/tournamentPanel.php?id=2 pokaze turniej jakis tam ale juz
/localhost/tournamentPanel.php?act=modOptions&id=2 pokaze opcje dla moderatora.

to taki link dodany do robots txt raczej duzo nie zmieni?

Botowi sie to i tak nie wyswietli bo jest niezalogowany dostanie komunikat za przekroczenie uprawnien. (nie 300 iles tam tylko tekstowy komunikat na www). czy to nie jest zagrozenie double contentem? Moze dodac do tej strony http error w nagłówku? taki komunikat moze sie wyswietlic na kilku stronach. Jak nie to moze lepiej zablokuje cale turnieje chociaz troche slow kluczowych (nazwy druzyn) sie tam moze przewijac.

typowe bledy ktore wyrzucaja moje obiekty to ObiektnotFound, UsernotAllowed, wrongDataEntered, InternalException(blad wewnetrzny).
Jakby podpiac pod to kody bledow html to moze by bot wiedzial ze dostaje komunikat o bledzie?

Pomysle nad zakladkami ajax, nie jest to glupie.

Czy uzytkownicy innych wyszukiwarek niz google mają w ogole znaczenie? mnie sie wydaje ze google to 99,9 %rynku
thek
Czemu wszyscy się upierają, że istnieją jedynie http status code 200, 301, 302, 404, 500, 503 ? Jeśli ktoś nie ma dostępu do czegoś, to walnij odpowiedni status code (403) jako parametr funkcji header i po sprawie. Nawet bot nie piśnie, jeśli zobaczy, że dana strona jest dla niego niedozwolona i sypie mu 403 Forbidden wink.gif
http://gif.phpnet.org/frederic/programs/http_status_codes/ Tutaj masz status code do podejrzenia i chyba czas się poduczyć kiedy ich używać. Ja w serwisach często się tym posługuję by bota nakierować na prawidłową stronę jeśli tylko potrafię. Przykładowo z tymi błędnymi linkami o których pisałem, że /4/link1 i /4/link____2 prowadzą do tego samego ale tylko pierwszy jest OK, to ten drugi przechwytuję, header ze status code na 301 i redirect na prawidłowy link. Ale strony prawidłowe linki mające choć dostępne tylko dla zalogowanych przykładowo, właśnie 403 powinny rzucać, a te, które kiedyś były, ale zostały usunięte, powinny walić 410 Gone smile.gif Jeśli z kolei ktoś Ci na stronie bez formularza próbuje pchnąć POST, to można przywalić 405 Method not allowed. Możliwości jest wiele, tylko trzeba nieco się w protokołach i ich możliwościach orientować nieco szerzej.

Google ma duży udział w rynku w Polsce... Niekoniecznie za granicą smile.gif W stanach z kolei dość wysoko stoi Bing, ale istnieje choćby jeszcze yahoo oraz kilka innych. Tak więc nie ma co sie tylko do Google ograniczać, bo choć to potentat, to nie na każdym rynku i nie w każdym kraju.
Orzeszekk
strona jest polskojezyczna i targetem sa tylko polscy userzy. Goscio za malo placi zeby to az tak dopieszczać.

Wlasnie tak cos przypuszczalem ze mozna wykorzystac te statusy do informowania bota o zaistnialych sytuacjach ale potrzebowalem zeby ktos mnie upewnil.
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.