Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: [SEO]Pozycjonowanie
Forum PHP.pl > Inne > Hydepark
gniew1971
Witam!
Mam problem z pozycjonowaniem strony w google. A zatem byłem na pierwszej stronie, a spadłem na 5. Co może być przyczyną, adres strony to moszczenica.info . Po wpisaniu w gogle Moszczenica byłem na 1 stronie a teraz jestem na 5. Jak mam wypozycjonować tą stronę?
isso
http://www.google.com/webmasters/docs/sear...arter-guide.pdf

Znajdziesz tam wszystko co potrzebne smile.gif powodzenia
nexik
wywal keywords z meta
zainteresuj sie warstwami lepiej sie indeksuje niz tabelki ( lepszy stosunek contentu do kodu html)
kod strony jest zle napisany m.in atrybity alt dla obrazkow.
gdzie naglowki h1 h2?
za swl'e na dole strony mozesz dostac bana a nie tylko filtr;p

ogolnie strona dosc kiepsko zrobiona lepiej ja calkowicie przebudowac
kilas88
Cytat(nexik @ 4.02.2009, 22:41:44 ) *
wywal keywords z meta

zostaw, ale popraw. pozostaw tylko kilka słów kluczowych, lepiej zoptymalizuj description pod względem słów kluczowych. niektóre wyszukiwarki wciąż korzystają z metatagów


zoptymalizuj stronę pod przeglądarki.

reklamuj się w porządnych katalogach linków

wymieniaj linkami ze stronami o podobnej tematyce
bełdzio
Cytat(gniew1971 @ 4.02.2009, 17:43:51 ) *
Witam!
Mam problem z pozycjonowaniem strony w google. A zatem byłem na pierwszej stronie, a spadłem na 5. Co może być przyczyną, adres strony to moszczenica.info .

zapewne domena jest nowa? jesli tak to byl to FSB - wrzuc skrot w google i zobacz o co chodzi konkretnie smile.gif

Cytat(gniew1971 @ 4.02.2009, 17:43:51 ) *
Jak mam wypozycjonować tą stronę?


poczytaj forum.optymalizacja.org
Pilsener
Tu jest forum raczej skupione wokół PHP - na forum "pozycjonowanie i optymalizacja" znajdziesz tutoriale i porady. Zeby podnieść pozycję w google musisz działać dwutorowo:

1. Optymalizacja: czyli tak jak kolega wspomniał:
- stosunek tagów HTML i skryptów JS do treści
- używanie właściwych znaczników oraz atrybutów, zoptymalizowana budowa strony (najpierw linki, potem treść, na końcu reszta)
- różnicowanie meta-tagów
- linkowanie wewnętrzne
- adresy zawierające słowa kluczowe

2. Pozycjonowanie, które polega głównie na zdobywaniu linków do Twojej strony - link linkowi nierówny, poczytaj o tym. Można też zamiast zapłacić za pozycjonowanie (lub samemu się w to bawić) wykupić 1 miejsce na liście wyników.
erix
Do hydeparku
webasek
Cytat
zainteresuj sie warstwami lepiej sie indeksuje niz tabelki ( lepszy stosunek contentu do kodu html)
gdzie naglowki h1 h2?


Cytat
zoptymalizuj stronę pod przeglądarki.


Nie jest to prawdą. Zoptymalizowanie nie wiele da proponuję zobaczyć kod strony www.waszachwila.pl a jak wysoko jest na słowa katalogi ślubne lub ślubne katalogi ? Serwis kompletnie niezoptymalizowany a jednak wysoko jest. (Kod jakby co niektórzy powiedzieli można do kosza wrzucić takie byle co).

Linki to jest główna rzecz i ruch z wyszukiwarki google to poprawia pozycje.
athabus
Optymalizacja to nie tylko optymalizacja kodu. Liczy sie jeszcze optymalizacja title, optymalizacja tresci i przede wszystkim linkowanie wewnetrzne. Linki tez sa wazne (przynajmniej obecnie), ale traca na wartosci i trzeba ich miec coraz wiecej i wiecej. Na wiele haslel mozna sie spokojnie wybic bez nich (w sensie bez wielkiej ich ilosci) posiadajac dobrze zoptymalizowana strone.

Co do optymalizacji samego kodu to sie zgodze ze jest to plotka, ktora nigdy nie zostala udowodniona. Sam w to wierze, ale wg mnie to jest jeden z marginalnych czynnikow (moze poza elementami hx i strong) - lepiej miec dobry kod niz zly bo jest czytelniejszy dla robota, ale to ze strona oparta np. o tabele zle sie pozycjonuje to mozna miedzy bajki wlozyc.
Pilsener
Chodzi o to, że kod zoptymalizowany mniej waży - pamiętaj, że google-bot ma limity:

- odwiedzeń Twojej strony
- czasu, jaki na niej spędza
- ilości danych, jakie siorbie

Optymalizując kod strony zyskamy głównie szybszą i głębszą indeksację - jeśli serwis jest słabo podlinkowy to google może w ogóle nie łyknąć niektórych stron, zdjęć itp.

Oczywiście optymalizacja ma tym większe znaczenie, im więcej podstron, słabsza fraza i mniej linków.
athabus
Cytat(Pilsener @ 6.02.2009, 11:27:43 ) *
Chodzi o to, że kod zoptymalizowany mniej waży - pamiętaj, że google-bot ma limity:

- odwiedzeń Twojej strony
- czasu, jaki na niej spędza
- ilości danych, jakie siorbie

Nigdy o takowych limitach nie słyszałem. Różne strony są odwiedzane z różną częstotliwością. Im popularniejsza, częściej aktualizowana strona tym bot częściej ją odwiedza.

Kod strony (poza kilkoma wyjątkami ) nie ma większego znaczenia dla indeksacji. Te wyjątki to optymalizacja treści wewnątrz niektórych znaczników typu hx, strong, title itp.

Choć nie jest to może obiektywne źródło to temat ten był już kilkukrotnie poruszany na blogu google i w rozmowach z ich pracownikami (np. googlarzem) na forum pomocy google czy w wywiadach. Ogólnie nie spotkałem się ze stwierdzeniem by optymalizacja kodu (od strony np. jego poprawności, unikania tabel do prezentacji itp.) wpływała pozytywnie na indeksację. 95% stron w sieci jest napisanych źle i google po prostu nie może sobie pozwolić na ich gorsze indeksowanie.

Ogólnie optymalizacja kodu strony i jej dużym wpływ na google to dla mnie urban legend - nie ma żadnych konkretnych dowodów potwierdzających jakikolwiek związek a przeglądnięcie serpów raczej również wskazuje, że nie jest to istotny czynnik bo wiele fraz jest obleganych przez kiepsko napisane strony.

Mówiąc o wpływie optymalizację strony na wyniki wyszukiwania trzeba mieć głównie takie rzeczy na uwadze jak:
- odpowiednie nasycenie słowami kluczowymi
- umieszczenie słów kluczowych w najważniejszych tagach czyli wspomniane hx czy strong
- optymalizacja title i metatagów (w przypadku google metatagi są raczej mało istotne, ale nie zaszkodzi)
- linkowanie wewnętrzne z odpowiednio dobranymi słowami kluczowymi
- przyjazne url (ma znaczenie głównie kiedy w adresie jest wiele parametrów bo google tego nie lubi)
- stosowanie atrybutów typu alt i title

To według mnie są rzeczy, które można zrobić "od środka" aby poprawić swoje wyniki. Potem już głównie linkowanie i eksperymenty z podwyższeniem ctr.
athabus
erix ten link to odpowiedź na któregoś konkretnego posta, czy ogólnie odpowiedź na pytanie nexik'a?
erix
Ogólnie raczej.

Z SEO jest tego typu sprawa, że nikt oficjalnie niczego nie powie - np:
Cytat
Nie bierz udziału w programach wymiany linków służących rzekomo poprawie pozycji witryn w wynikach wyszukiwania lub w rankingu PageRank.

Wszystko, co zakazane, jest tak naprawdę - najskuteczniejsze.

Choć z drugiej strony - widywałem strony z niższym PageRank na wyższych pozycjach w przypadku tych samych fraz...
webasek
Cytat
Mówiąc o wpływie optymalizację strony na wyniki wyszukiwania trzeba mieć głównie takie rzeczy na uwadze jak:
- odpowiednie nasycenie słowami kluczowymi
- umieszczenie słów kluczowych w najważniejszych tagach czyli wspomniane hx czy strong
- optymalizacja title i metatagów (w przypadku google metatagi są raczej mało istotne, ale nie zaszkodzi)
- linkowanie wewnętrzne z odpowiednio dobranymi słowami kluczowymi
- przyjazne url (ma znaczenie głównie kiedy w adresie jest wiele parametrów bo google tego nie lubi)
- stosowanie atrybutów typu alt i title


Jak już mówiłem sprawdź waszachwila.pl to jeden z przykładów sprawdź inne strony w pierwszej 10 założę się, że co najmniej połowa według "speców od pozycjonowania" nie powinna się tam pojawić.

Co do

Cytat
Witam!
Mam problem z pozycjonowaniem strony w google. A zatem byłem na pierwszej stronie, a spadłem na 5. Co może być przyczyną, adres strony to moszczenica.info . Po wpisaniu w gogle Moszczenica byłem na 1 stronie a teraz jestem na 5. Jak mam wypozycjonować tą stronę?


Czekaj dodawaj linki i nie rób głupich ruchów nie zmieniaj nic na siłę jak byłeś na pierwszej tak i tam wrócisz nie martw się potrzeba trochę czasu a zadomowisz się tam na dłużej.

PS pozycjonowałem parę stron i szczerze wystarczy dwa miesiące by strona była w TOP 10 ale to nie znaczy, że się tam utrzyma zauważyłem, że google zmienia pozycje stron i wcale nie zależy to od optymalizacji kodu, czy czegokolwiek takiego nawet powiem więcej mam wrażenie, że google zaczyna faworyzować strony, które wykupują reklamy. Jeśli masz reklamę (za dużo kasy) to wtedy jesteś wyżej jak ma więcej reklam Twoja konkurencja to jesteś niżej najlepiej można to zauważyć na słowa kluczowe związane ze sklepami internetowymi (z handlem internetowym) takie jak prezenty walentynki czy cokolwiek takiego.

A i jeszcze jedno adresy podstron jak masz dobre adresy (seo friendly) to wtedy nawet może i główna strona nie będzie w top 10 ale na pewno jakaś podstrona tak.
Foxx
Cytat
mam wrażenie, że google zaczyna faworyzować strony, które wykupują reklamy. Jeśli masz reklamę (za dużo kasy) to wtedy jesteś wyżej jak ma więcej reklam Twoja konkurencja to jesteś niżej najlepiej można to zauważyć na słowa kluczowe związane ze sklepami internetowymi (z handlem internetowym) takie jak prezenty walentynki czy cokolwiek takiego.


Jeżeli masz na myśli reklamę AdWords to myślę, że nie masz racji.
Spotykałem się kilka razy z taką teorią i zawsze była obalana w dyskusjach.
Wątpliwy jest też dla mnie po co Google miałoby to robić? Jeżeli by to zostało odnotowane przez specjalistów od SEO, a coś tak wyraźnego na pewno by zostało odnotowane, to cała idea adwords i pozycjonowania straciła by sens, wyniki wyszukiwania Google straciłyby jakość, Google też by straciło.
Sprawdziłem frazy "prezenty", "walentynki" i "prezenty walentynki" i żadna strona z pierwszych kilku wyników naturalnych nie była jednocześnie w adWords więc co masz na myśli?
A poza tym wszystkim to logiczne jest, że jeżeli ktoś stara się mocno w kwestii pozycjonowania swojej strony to może też korzystać z adwords, wiele firm pozycjonujących łączy usługę pozycjonowania z addwords.
Myślę, że nie ma przesłanek do takich podejrzeń...
webasek
Sprawdź sposób w jaki zmieniają się wyniki na te frazy bardzo często jest przetasowanie stron. Powiedziałem tylko, że mam wrażenie a konkretnie pozycjonuję stronę na słowo mydła naturalne. Tam możesz sprawdzić na tą frazę jestem niemal pewien, że tak jest. Powiedziałem też faworyzują nie oznacza to że ażdą stronę ładują na top 10 oznacza to tylko, że jesłi strona jest w TOP 10 to jest faworyzowana, znaczy zmienia pozycję (choć widziałem też odwrotną sytuację że strona mająca wysokie wydatki po dodaniu do reklam spadła w wynikach). Mówię też tylko, że google trochę miesza w wynikach.

PS to jest tylko moje subiektywne odczucie i nikt nie musi się z nim zgadzać.
athabus
webasek zdaje mi się, że upraszczasz rzeczywistość. Z pozycjonowaniem jest tak, że na pozycję strony ma wpływ bardzo wiele czynników. Końcowa pozycja to tak jakby średnia ważona z tych wszystkich rzeczy. Algo mogłoby np. wyglądać tak:
- linki 30%
- treść strony 25%
- linkowanie wewnętrzne 10%
- pagerank 5%
- wiek domeny 10%
- itd itp

Teraz rezultat możesz osiągnąć dając kupę linków. Ale powiedzenie, że tylko linki mają znaczenie jest błędne bo ten sam rezultat możesz osiągnąć znacznie mniejszą ilością linków i dobrą optymalizacją strony (co mam na myśli pod hasłem optymalizacja pisałem wcześniej). Zważ na to, że strona, którą podałeś ma już prawie 2 lata, niezłe nasycenie słowami typu ślub i katalog, ma te słowa w title, meta itd. Słowo ślub pojawia się wiele razy w nagłówkach. Także można powiedzieć, że jest nieźle zoptymalizowana.
Bazowanie na samych linkach jest bardzo niebezpieczne - nie wiesz jak algorytmy będzie się zmieniał. Natomiast dobrze zoptymalizowana treść (bez spamów oczywiście) zawsze będzie musiała mieć duże znaczenie.
Sam wielokrotnie doświadczałem tego, że optymalizacja treści strony dawała bardzo dobre rezultaty nawet w średniokonkurencyjnych hasłach. Linki na dzisiaj są ważne (chyba nawet najważniejsze), ale inne techniki też się liczą

Co do samej poprawności kodu od strony technicznej to podzielam twoje zdanie - nawet jeśli ma to jakiekolwiek znaczenie to marginalne. Kod może być oparty na tabelkach, mieć teksty typu <p><h2><b>Tekst</b><h2><p><br /><br /> a google i tak sobie z tym poradzi.
hwao
Mi się wydaje że w ramach promowania nowych stron otrzymał bonus punktowy, który pozwolił mu się na tyle wzmocnić że wylądował na samej górze, lecz po pewnym czasie traci się już te "dodatkowe punkty".

Poza tym jak sam widzisz masz na stronie u dołu jakieś śmieci z systemu do masowego pozycjonowania.
Cytat
Szklarska Por�ba | O�wietlenie Lampy | Autokary | Porcelana Karolina | Hosting
suszarki sufitowe - sauny


Wystarczy że ktoś to zgłosi do google polska (lub samo znajdzie) i automatycznie dostajesz filtr który obniża Ci PR, i znacząco pogorszą pozycje w wynikach wyszukiwania. Google nie toleruje takich praktyk.

Usuń i do tego nie wracaj, zgłoś na grupie dyskusyjnej google że już tego nie masz i prosisz o usunięcie filtru.
Pilsener
Cytat(athabus @ 6.02.2009, 12:19:36 ) *
Nigdy o takowych limitach nie słyszałem [....] Kod strony (poza kilkoma wyjątkami ) nie ma większego znaczenia dla indeksacji [...] Ogólnie nie spotkałem się ze stwierdzeniem by optymalizacja kodu (od strony np. jego poprawności, unikania tabel do prezentacji itp.) wpływała pozytywnie na indeksację. 95% stron w sieci jest napisanych źle i google po prostu nie może sobie pozwolić na ich gorsze indeksowanie.
- limity są, bo zasoby google-bota nie są nieograniczone - możesz nawet przejrzeć ilość pobranych danych i czas, jaki spędził bot na stronie - chodzi o to, żeby maksymalnie wykorzystać te bajty i ten czas - bot nie wsiorbie przecież całego kontentu - za każdym razem tylko kęs i to od nas zależy, jak duży i jak często.

Co do optymalizacji - nie chodziło mi o unikanie tabel etc, raczej zupy z tagów pełnej JS, width, height, <center>, dużo kodu, mało treści - a gorzej napisana strona będzie gorzej traktowana, podobnie jak ta słabiej wypozycjonowana, gugiel będzie mniej czasu na niej spędzał, rzadziej ją odwiedzał i siorbał mniej kontentu. Mój pogląd na temat jest taki, że strony zoptymalizowane łatwiej się pozycjonuje, aczkolwiek nie ma tu reguły, bo pozycjonowanie nie jest nauką ścisłą, można wypozycjonować nawet stronę bez treści, jak się uprzesz - gdyby optymalizacja strony nie miała znaczenia, to pozycjonerzy nie budowaliby zaplecza np. na wordpressach. Zoptymalizowany serwis i z większą ilością treści łatwiej się pozycjonuje i to jest fakt, zawsze namawiam do optymalizacji, jeśli nie wiąże się to z dużym nakładem pracy, niekiedy wręcz nie można się bez tego obejść (np. sklepu nie będziesz pozycjonował na każdy produkt, kluczem do sukcesu jest optymalizacja).

Edit: zresztą spójrzcie na tą stronę, jest tak fatalnie napisana, że google indeksuje tylko 9 podstron treści (konkurencja kilkaset) - i google nie może sobie pozwolić na gorsze indeksowanie takich stron? Gugiel wręcz wierzga, prycha i dymi, jak wchodzi na taką stronę, cud, że ją w ogóle indeksuje, człowiek może dodawać linki masowo, a prędzej sand boxa złapie, niż poprawi wynik.
Lion_87
Podłącze się do tematu bo nie chce zakładać nowego.
Chodzi mi o indeksowanie moich stron. Strony które mają linki przez rewrite w postaci "cos_tam/1.html" nie są w ogóle indeksowane. Zindeksowane mam tylko strony które podałem w "site maps" a do których nie ma linków. Więc nie wiem czemu wszystkich nie indeksuje google. Może wie ktoś w czym może to być spowodowane?
athabus
Jeśli masz tą sama stronę pod dwoma różnymi adresami to google indeksuje (stara się) nie przechowywać obu wersji w indeksie - możesz nawet zostać za to ukarany. Nie będę nawet pytał czemu w sitemapie masz inne adresy niż, te na których ci zależy.
Jeśli masz 2 wersje adresów to koniecznie użyj przekierowania 301 z tych adresów których nie chcesz na te które są pożądane.
Lion_87
Nie rozumiem. Po prostu mam linki "cos_tam/1.html" zamiast "?bla=asd&sads=1". Czy to żle?
Pilsener
Przyczyn może być wiele:
- google czyści co jakiś czas kontent - wywala i indeksuje potem na nowo
- możesz mieć tak zwany duplicate content - czyli ta sama treść na różnych stronach
- możesz mieć jakiś syf w linkach, albo dodajesz je na końcu strony i gugiel ich nie łyka
- możesz mieć rel=nofollow w linkach albo noindex w meta
- mogłeś dostać filtr lub ban

I jeszcze n innych przyczyn. Ciężko stwierdzić nie analizując strony i statystyk z google.
athabus
Problem jest taki, że z tego co rozumiem do 1 strony można się dostać na dwa sposoby np. do newsów
index/newsy
index.php?cat=newsy

To stanowi problem - jeśli chcesz mieć ładne linki to musisz pozbyć się tych starych. Najlepszym sposobem jest przekierowanie 301 ze starych adresów na nowe. Wtedy google będzie wiedzieć, że tamte adresy są nieaktualne. W innym przypadku, jeśli oba adresy będą pozwalały wczytać tą samą stronę możesz zostać ukarany za powielanie treści.

Chyba, że źle odczytałem Twojego posta.
Lion_87
athabus dobrze zrozumiałeś.
Czytałem Twojego pierwszego posta o 301 ale nie wiem czy teraz dobrze zrobiłem bo zmieniałem po prostu dodając na końcu lini htaccess
Kod
[R=301,L]


Cytat
RewriteRule ^([a-z_A-Z]+)/([0-9]+).html$ index.php?kat=page [R=301,L]
athabus
Teraz powinno być znacznie lepiej. Zmień też linki w mapie. Za 2-4 tygodnie wszystkie adresy powinny być już widoczne w google w nowej formie.
Lion_87
OK dzięki. Zobaczymy za 3 tyg czy coś się zmieni smile.gif
athabus
Oj tak się przyjrzałem i z tego co pamiętam ustawianie regułek to powinno być w drugą stronę ;-)
301 powinieneś robić na nowe linki (ty robisz z nowych na stare).

Czyli ogólnie musisz mieć:
- przekierowanie ze starych linków na nowe z regułą 301 (bo google je zna)
- przekierowanie "po cichu" z nowych linków na stare tak aby skrypt działał a przeglądarka/google nadal widziała nowe linki

Już dawno się nie bawiłem mod rewrite więc konkretów nie podam, ale teraz raczej jest źle bo przekierowujesz nowe linki na stare.
Lion_87
Słuchajcie pomóżcie mi z tym bo mi ręce odpadają. Zupełnie nie wiem w czym problem tkwi. Normalna strona, żadnego przekierowania. I mam taki problem:



mad.gif
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.