Probador de robots.txt
-
Tenía un robots.txt de esta forma:
User-agent: * directiva directiva ........ directiva User-Agent: Googlebot Allow: /*.css$ Allow: /*.js$
El caso es que me voy al probador de robots.txt de Search Console y me encuentro con que no bloquea nada de los que debería bloquear.
Tras efectuar las correspondientes comprobaciones, me encuentro con que el problema está en las líneas:
User-Agent: Googlebot Allow: /*.css$ Allow: /*.js$
En concreto, si quito la línea
User-Agent: Googlebot
, todo funciona correctamente.Por lo que estoy viendo, Google solo hace caso a esas dos líneas por tratarse de una regla más específica.
De momento, lo que he hecho ha sido duplicar las reglas:
Unas para todos los robots
Otra idéntica pero añadiendo los css y js para Google
Lo podéis ver en https://www.almendron.com/robots.txtLa otra solución sería habilitar los css y js para cualquier robot.
¿A alguien se le ocurre algo más?
- Este debate fue modificado hace 6 años, 4 meses por .
- Este debate fue modificado hace 6 años, 4 meses por .
- Este debate fue modificado hace 6 años, 4 meses por .
- Este debate fue modificado hace 6 años, 4 meses por .
- Este debate fue modificado hace 6 años, 4 meses por .
- Este debate fue modificado hace 6 años, 4 meses por .
La página con la que necesito ayuda: [accede para ver el enlace]
- El debate ‘Probador de robots.txt’ está cerrado a nuevas respuestas.