![]() |
![]() ![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 2 Pomógł: 0 Dołączył: 28.03.2017 Ostrzeżenie: (0%) ![]() ![]() |
Witam. Od jakiegoś miesiąca w GSC zaobserwowałem dwukrotny wzrost błędów zaindeksowania (404). Google zaczęło mi indeksować strony w paginacji, które nie istnieją np. /page-345/, gdzie normalnie jest max 20. Użytkownik może ustawić, by wyświetlało się na stronie 16 wyników, ale nie mniej. (Odpowiada za to /?items_per_page=16 w pasu adresu ). Oczywiście jeśli ręcznie zmienimy na np. (/?items_per_page=1), to tych stron rzeczywiście jest ponad 300. I teraz moje pytanie, czy robot google, może sobie samemu tak zmieniać tego GETa w pasku adresu, a później zaindeksować podstrony, które się utworzyły poprzez to? Jeśli tak, to jest jakiś sposób, by mu to zablokować?
W GSC w zakładce Parametry w URL-ach mam tak: ![]() Użytkownik na stronie może ustawić tylko 16 / 32 / 64 / 128, a tutaj widnieją zupełnie inne. Mogę stąd jakoś to zablokować? EDIT: Mógłbym zablokować indeksowanie wszystkich tych parametrów, których nie używam poprzez robots.txt? np. Disallow: /?items_per_page=1 Disallow: /?items_per_page=2 Disallow: /?items_per_page=3 itd. Znalazłem jak w tej opcji Parametry URL wybrać, które parametry indeksować, ale mogę tam wybrać tylko jeden z listy, a chciałbym wybrać kilka: ![]() Ten post edytował ZYWIEC 9.07.2018, 14:02:06 |
|
|
![]() ![]() |
![]() |
Wersja Lo-Fi | Aktualny czas: 22.05.2025 - 07:04 |