Soporte » Plugins y Hacks » Mas de 1000 Errores de rastreo en webmaster tool de google.

  • Resuelto intop

    (@intop)


    Buenas.

    Creo que tengo un problema bastante grave con el SEO de una web. Si reviso la pagina en cuestion en las herramientas para webmaster de Google me tira mas de 1200 errores de URL con codigo de respuesta 404.

    Todos los errores creo que estan relacionados con una funcion de filtro que hay dentro de la web encima de todos los post. Desde esta funcion se puede filtrar el contenido de la siguiente forma:

    ———-
    Ordenar por: Recientes – Mas comentados – Orden Alfabetico
    Ver: 1-5-10-15-20 (cantidad de entradas)
    Boton para Filtrar segun lo seleccionado.
    ———-

    Revisando los errores veo que todos son muy similares. Todos del tipo:
    page/25/?orderby=date&postcount=50
    page/8/?orderby=date&postcount=20
    seguro/page/4/?orderby=date&postcount=15

    Ademas si realizo una busqueda de todo lo que esta indexado en Google con el comando: site:www.dominio.com me indexa resultados similares de filtrado del siguiente tipo:

    http://www.dominio.com/teleco/?orderby=date&postcount=15
    http://www.dominio.com/seguro/page/15/?orderby=date&postcount=1
    http://www.dominio.com/page/35/?orderby=date&postcount=1

    Este tipo de indexacion me lo realiza sobre las /categorias/ y sobre el contador de paginas del sitio /page/

    Dejo captura de pantalla de errores en webmaster tools: http://subirfoto.es/7QW
    Dejo captura del codigo desde el cual se realiza el filtrado: http://pastebin.com/x1N6eA7b

    Si alguien me puede ayudar me gustaria saber como solventar el problema. ¿hay alguna forma de que no indexe ningun contenido que empiece por «?» para evitar que indexe la busqueda por el filtro? Tambien me gustaria evitar la indexacion de las paginas del tipo «/page/

    El Robots.txt lo tengo para que no indexe ningun contenido de las busquedas dentro de la pagina pero creo que no hace efecto con lo siguiente: Disallow: /?s= Disallow: /*?* Disallow: /*?
    Adjunto captura codigo del robots.txt al completo: http://pastebin.com/7P1ZUzEQ

    ¿Se podria realizar desde el archivo .htaccess o cambiando algo dentro del codigo que realiza el filtrado ?

    Un saludo y gracias.

Viendo 2 respuestas - de la 1 a la 2 (de un total de 2)
  • Hola intop!

    Primero verifica el sitemaps.xml de tu sitio y aclara cuales url le envias a google, por otro lado desde la herramienta de Webmasters de google hay una opción permite crear una regla para omitir ese tipo de url lee la documentación de Google Webmasters tool.

    Saludos!

    Iniciador del debate intop

    (@intop)

    Gracias por la respuesta jeickball.

    Sobre el sitemap.xml esta todo correcto ya que unicamente se recogen las entradas que se van creando. Todas las direcciones del sitemap son correctas.

    Voy a mirar lo que me comentas para crear una regla en google webmaster tool haber si consigo parar los errores. Lo he intentado con el robot.txt insertando lo siguiente:

    Disallow: /?s=
    Disallow: /*?*
    Disallow: /*?

    Pero parece que no hace efecto ya que el contador de errores sigue subiendo.

    Ya comento si consigo arreglarlo desde webmasters tools.

    un saludo.

Viendo 2 respuestas - de la 1 a la 2 (de un total de 2)
  • El debate ‘Mas de 1000 Errores de rastreo en webmaster tool de google.’ está cerrado a nuevas respuestas.