En principio, está bien. No obstante, convendría que añadieras después del sitemap lo siguiente:
User-Agent: Googlebot
Allow: /*.css$
Allow: /*.js$
Y deja un espacio entre «Sitemap:» y la URL.
Por otro lado, en la página de Search Console podrás ver la página que se ha bloqueado. Compruébalo y a ver cual es.
Iniciador del debate
nitocm
(@nitocm)
o sea quedaria asi?
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-login/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://www.fotografolaspalmas.eu/page-sitemap.xml
User-Agent: Googlebot
Allow: /*.css$
Allow: /*.js$
También me indica:
Detalles del error: 0 errores y 325 advertencias.
El sitemap incluye URL que el archivo robots.txt ha bloqueado.
https://www.fotografolaspalmas.eu/ y tres páginas más.
Agradeceria cualquier ayuda. Gracias nuevamente.
Así está bien.
Lo primero de todo vamos a ver lo que nos dice la consola de Google. Ve a Rastreo > Probador de robots.txt y allí verás en la parte inferior derecha el botón «Enviar». Clic en él y te vas directamente al paso 3. Con esto actualizamos la información.
Esperas unos minutos, recarga la página y utiliza el probador que aparece en la parte inferior para ver si la página está bloqueada.
Iniciador del debate
nitocm
(@nitocm)
ok en principio me indica en la parte inferior 0 errores y 0 advertencias.
Pero donde me indica lo de las advertencias es en
Rastreo } sitemaps
Ahi es donde me sale lo de las 325 advertencias y 0 errores.
Gracias por la ayuda.
¿Y qué advertencia indica en concreto?
Por otra parte, decías: «El archivo robots.txt ha bloqueado una página importante» e indicabas que eran cuatro las bloqueadas.
¿Has comprobado que ya no lo están?
Iniciador del debate
nitocm
(@nitocm)
De momento ahora solo tengo un problema en
Rastreo } sitemaps
Indicencias: El archivo robots.txt ha bloqueado la URL
Descripción: El sitemap incluye URL que el archivo robots.txt ha bloqueado.
Número de incidencias: 325
Ejemplo: me salen solo 3 y son:
https://www.fotografolaspalmas.eu
https://www.fotografolaspalmas.eu/agencia-de-publicidad-en-canarias/
gracias nuevamente.
Pero… ¿has comprobado esas URL,s supuestamente bloqueadas en el probador que hay en Rastreo > Probador de robots.txt ?
Vuelve a generar el sitemap y luego te vas a Search Console donde podrás volver a enviarlo.
Iniciador del debate
nitocm
(@nitocm)
Si lo acabo de probar. Me dice PERMITIDO. ¿esta correcto?
Pero sigue apareciendome lo anterior en Rastreo } sitemaps
Pero en Rastreo > Probador de robots.txt no me da problema me dice permitido.
Será que hay que esperar que se actualice o algo?
GRacias
Iniciador del debate
nitocm
(@nitocm)
Disculpa ahora he vuelto a mirar y ya esta solucionado. NO ME APARECE NINGUN ERROR.
SOLUCIONADO
MUCHAS GRACIAS POR LA AYUDA. ENORMEMENTE AGRADECIDO.
Fijate lo que dicen en los foros de Google sobre eso
https://productforums.google.com/forum/#!topic/webmaster-es/FnpORg-jALc
Por cierto, vacía el plugin de caché.
Un saludo