Witam,
Czy ktoś zna jakiś sposób na poprawne zaindeksowanie przez Google setek tysięcy stron a raczej do zmuszenia do ich indeksacji? Obecnie na np w Cenoniada Google indeksuje tylko 12 tyś z blisko 300 tyś.
Google sitemap odpada gdyż to jedna wielka ściema, Googlebot i tak indeksuje co chce. Jakimś sposobem musi indeksować serwisy, które mają po kilka milionów zindeksowanych podstron... Czy ktoś używał w tym celu robots.txt ?
Pozdrawiam