Witam. Od jakiegoś miesiąca w GSC zaobserwowałem dwukrotny wzrost błędów zaindeksowania (404). Google zaczęło mi indeksować strony w paginacji, które nie istnieją np. /page-345/, gdzie normalnie jest max 20. Użytkownik może ustawić, by wyświetlało się na stronie 16 wyników, ale nie mniej. (Odpowiada za to /?items_per_page=16 w pasu adresu ). Oczywiście jeśli ręcznie zmienimy na np. (/?items_per_page=1), to tych stron rzeczywiście jest ponad 300. I teraz moje pytanie, czy robot google, może sobie samemu tak zmieniać tego GETa w pasku adresu, a później zaindeksować podstrony, które się utworzyły poprzez to? Jeśli tak, to jest jakiś sposób, by mu to zablokować?
W GSC w zakładce Parametry w URL-ach mam tak:

Użytkownik na stronie może ustawić tylko 16 / 32 / 64 / 128, a tutaj widnieją zupełnie inne. Mogę stąd jakoś to zablokować?
EDIT:
Mógłbym zablokować indeksowanie wszystkich tych parametrów, których nie używam poprzez robots.txt?
np.
Disallow: /?items_per_page=1
Disallow: /?items_per_page=2
Disallow: /?items_per_page=3
itd.
Znalazłem jak w tej opcji Parametry URL wybrać, które parametry indeksować, ale mogę tam wybrać tylko jeden z listy, a chciałbym wybrać kilka: