80.000 urls Sin indexar
Buenas, me ha venido un caso de una web con pocas urls y que de repente tiene en GSC 80.000 urls sin indexar, son del tipo:
/?91231l139
/?031919219
/?shopdetail/0310210
Asi muchísimas, tienen esto en el robots.txt:
Disallow: /?shopdetail
Disallow: /?*
Entiendo que para "solucionar" esto seria quitar esas 2 reglas del robots.txt para que google las vea, y desde htaccess configurar un parámetro para que esas urls devuelvan 410, y ya cuando google las vaya leyendo supongo que las irá olvidando, para luego volver a poner el disallow en el robots.txt aunque esto último no me convence.
También se puede enviar solicitud de retirada de urls en el GSC con los prefijos de /?shopdetail y /? seguido de todos los números para cubrir todas las posibilidades.
El motivo de porque se han generado ni idea, a saber si ha sido una vulnerabilidad de algún plugin nulled, theme, ataque... etc
¿Lo veis correcto?
Gracias.
0
1 comment
Antonio Manuel Navarro Ponferrada
3
80.000 urls Sin indexar
DinoRANK
skool.com/dinorank
En la comunidad de DinoRANK, conectamos a expertos, principiantes y apasionados del SEO para compartir estrategias y resolver dudas.
Leaderboard (30-day)
Powered by