Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: [AngularJS] SEO
Forum PHP.pl > Forum > Optymalizacja i pozycjonowanie stron - SEO
kpt_lucek
Witajcie

Ostatnio zastanawiam się nad kompletnym przejściem warstwy frontendowej na Angular'a.

Oczywiście czytałem o tym, że Google ponoć zaczyna/zaczął wspierać scrapowanie stron JS'owych, ale pozostają inne wyszukiwarki.
Czytałem o https://prerender.io/, mają gotową konfigurację pod NGINX, w praktyce płacisz i masz, oni ograją resztę. W praktyce chciałbym ogrywać to po swojej stronie, czytałem, że w phantomjs jest to "ogrywalne".

Teraz podstawowe pytania:
- Ktoś korzystał z któregokolwiek z powyższych i może coś więcej o tym powiedzieć?
- Jak wygląda sprawa z Phantomjs, są jakieś gotowce które są w stanie naprowadzić na końcowy efekt?
- Jak z sitemap'ami?
- Jak z pozycjonowaniem?

Pisząc "po mojej stronie" miałem na myśli wygenerowanie całego contentu na start + refresh na evencie (angular operuje z REST api SF2) -> wrzucenie w kolejkę + przegenerowanie wymaganej podstrony, taki "on demand".


Liczę na sugestie w w/w temacie
kayman
co prawda nie korzystam z angulara tylko jquery + REST ale problem wydaje się podobny więc opiszę swoje spostrzeżenia

około rok temu napisałem system do obserwacji stron pod względem akcji wykonywanych na nich przez internautę, system jest zewnętrzny w stosunku do strony obserwowanej a akcja użytkownika może być aktywowana tylko przez js, system zwraca m.in dane o robotach i tak:

- wiele rożnych robotów google spokojnie wykonuje wszelakie js -> nie wiem ile z tego rozumie i indeksuje ale np. linki zostały rozpoznane które były w kodzie js (np z sekwencji location.replace('/jakisurl/'); ), roboty google wchodzą na różnych rozdzielczości ekranu w celach wiadomych
- bing korzysta z robota BingPreview, który wykonuje js -> co rozponaje nie wiem, nie testowałem
- nie spotkałem się z robotem yahoo ani yandex, który wykonał js ale jest wiele robotów których przy pomocy USER_AGENT nie jestem w stanie rozpoznać a spokojnie wykonują js wiec może to któreś z nich
- wiele systemów powiązanych z branżą seo ma roboty które wykonują js

co do samego seo:

- staram się w widokach mieć jak najwięcej statycznego (czy generowanego po staremu przy pomocy np. php) html takiego jak menu, arty, linki etc, ale jeżeli widok by wymagał 100% akcji wykonywalnych przez js nie zastanawiał bym się tylko robił go zgodnie z wymogami bo internauta jest zawsze ważniejszy
- stosuje sitemapy zarówno w formie strony html jak i sitemap.xml, od zawsze chyba bardzo to ułatwia indeksowanie więc tu nic się nie zmieniło

reasumując powyższe wydaje się że roboty wyszukiwarek i inne dobrze sobie radzą z wykonywaniem javascript, jednak przydały by się testy na ile "rozumieją co robią" i ile z tego idzie do indeksu czyli można wykorzystać do spaw związanych z seo, ale to już robota raczej dla speców od seo a nie dla programistów smile.gif
Comandeer
Hmm… Serio się zastanawiasz nad phantom.js po stronie serwera do generowania strony i nie widzisz w tym nic dziwnego? wink.gif

Osobiście po prostu nie wierzę frameworkom, które nie potrafią sensownie współgrać z server-side rendering, bo na dłuższą metę sprawia to więcej problemów niż daje korzyści. Odpalanie headless browsera po stronie serwera jest wręcz książkowym przykładem hacka na coś, co powinno być out of box. A zresztą: pisałem o tym już dawno → http://www.webkrytyk.pl/krytyka/my-truth-about-angular-js/

Natomiast do generowania DOM przez przeglądarkę na serwie: da się, ale to nie jest jakoś super efektywne. To po prostu hack…
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.