Soporte » Guías – Resolución de problemas » Bloqueo de páginas con robots.txt

  • Hola, tengo una duda. Llevo un tiempo con mi sitio y Google ya comenzó a indexar las páginas, categorías y etiquetas, pero de momento no hay entradas, excepto por una indexada. Sólo quiero presentar la configuración de mi robots.txt y verificar que no estoy bloqueando nada importante que pueda impedir la indexación de las entradas.

    Este sólo es un fragmento de lo que tengo escrito en el robots.txt, para ser exacto, las páginas que tengo bloqueadas en él:

    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /cgi-bin/
    Disallow: /wp-content/cache/
    Disallow: /wp-content/plugins/
    Disallow: /wp-content/themes/
    Disallow: /media/
    Disallow: /media/imagenes/
    Disallow: /wp-json/
    Disallow: /*/*/?share=facebook
    Disallow: /*/*/?share=skype
    Disallow: /*/*/?share=reddit
    Disallow: /*/*/?share=linkedin
    Disallow: /*/*/?share=pocket
    Disallow: /*/*/?share=google-plus-1
    Disallow: /*/*/?share=twitter
    Disallow: /*/*/?share=email

    De momento envié un nuevo mapa de sitio (sitemap) a Google, dándole a las entradas una prioridad mayor de 0.60. Desde el inicio le solía poner una prioridad similar a todas las páginas de 0.50, con excepción de inicio (home), a la cual le pongo 1.0. De momento sólo me queda esperar, pero pienso que sería bueno verificar el robots.txt.

    ¿Hay algo que deba corregir en él?

    • Este debate fue modificado hace 4 años, 3 meses por erchache2000.
Viendo 2 respuestas - de la 1 a la 2 (de un total de 2)
  • Moderador erchache2000

    (@erchache2000)

    Esta es una pregunta del Google Search Console, no de WordPress.

    Tiene pinta de que con ese archivo no tendrás problemas con el bot de google. De todas formas mira en la página de ayuda de Google Search Console para afinar.

    Iniciador del debate abelnightroad26

    (@abelnightroad26)

    Sí, lo sé. El problema del probador de Google Search Console es que este siempre me dice que está bien, incluso en dudosas ocasiones, pero mi sitio actualmente está operativo y bien listado en Google, gracias por responder.

    Quité los Disallow: /*/*/?share=facebook porque al parecer bloquean mi indexación en otros buscadores como DuckDuckGo.

Viendo 2 respuestas - de la 1 a la 2 (de un total de 2)
  • El debate ‘Bloqueo de páginas con robots.txt’ está cerrado a nuevas respuestas.