Pregúntele a un SEO: cómo evitar que los resultados del filtro se consuman el presupuesto de rastreo

Pregúntele a un SEO: cómo evitar que los resultados del filtro se consuman el presupuesto de rastreo


La pregunta de Ask An SEO de hoy proviene de Michal en Bratislava, quien pregunta:

“Tengo un cliente que tiene un sitio web con filtros basados ​​en ubicaciones en un mapa. Cuando el visitante realiza un movimiento en el mapa, se crea una nueva URL con filtros. No están en el mapa del sitio. Sin embargo, hay más de 700.000 URL en Search Console (no indexadas) y están consumiendo un presupuesto de rastreo.

¿Cuál sería la mejor manera de deshacerse de estas URL? Mi idea es mantener la ubicación base ‘indexar, seguir’ y las URL recién creadas del área rodeada con filtros cambiar a ‘no indexar, no seguir’. También marque las áreas rodeadas con canónicos a la ubicación base + rechace los enlaces no deseados”.

¡Gran pregunta, Michal, y buenas noticias! La respuesta es fácil de implementar.

Primero, veamos lo que está intentando y apliquémoslo a otras situaciones como el comercio electrónico y los editores. De esta manera, más personas pueden beneficiarse. Luego, analice las estrategias anteriores y finalice con la solución.

Qué es el presupuesto de rastreo y cómo se crean los parámetros que lo desperdician

Si no estás seguro de a qué se refiere Michal con presupuesto de rastreoeste es un término que usan algunos profesionales de SEO para explicar que Google y otros motores de búsqueda solo rastrearán un número determinado de páginas de su sitio web antes de detenerse.

Si su presupuesto de rastreo se utiliza en páginas de bajo valor, delgadas o no indexables, es posible que sus páginas buenas y nuevas no se encuentren en un rastreo.

Si no se encuentran, es posible que no se indexen ni se actualicen. Si no están indexados, no pueden generar tráfico SEO.

Por eso es importante optimizar un presupuesto de rastreo para lograr eficiencia.

Michal compartió un ejemplo de cómo «delgado» Las URL desde el punto de vista de SEO se crean a medida que los clientes utilizan filtros.

La experiencia para el usuario agrega valor, pero desde el punto de vista de SEO, una página basada en la ubicación sería mejor. Esto también se aplica al comercio electrónico y a los editores.

Las tiendas de comercio electrónico realizarán búsquedas de colores como rojo o verde y productos como camisetas y patatas fritas.

Estos crean URL con parámetros como un filtro de búsqueda de ubicaciones. También se pueden crear utilizando filtros de talla, género, color, precio, variación, compatibilidad, etc. en el proceso de compra.

Los resultados filtrados ayudan al usuario final pero compiten directamente con la página de colección, y la colección sería la “no delgado” versión.

Los editores tienen lo mismo. Alguien podría estar en SEJ buscando SEO o PPC en el cuadro de búsqueda y obtener un resultado filtrado. El resultado filtrado tendrá artículos, pero la categoría de la publicación probablemente sea el mejor resultado para un motor de búsqueda.

Estos resultados filtrados se pueden indexar porque se comparten en las redes sociales o porque alguien los agrega como comentario en un blog o foro, creando un vínculo de retroceso rastreable. También podría ser que un empleado del servicio de atención al cliente respondiera a una pregunta en el blog de la empresa o de cualquier otra manera.

El objetivo ahora es garantizar que los motores de búsqueda no pierdan tiempo rastreando el «delgado» versiones para que pueda aprovechar al máximo su presupuesto de rastreo.

La diferencia entre indexación y rastreo

Hay una cosa más que aprender antes de entrar en las ideas y soluciones propuestas: la diferencia entre indexación y rastreo.

  • El rastreo es el descubrimiento de nuevas páginas dentro de un sitio web.
  • Indexar es agregar a la base de datos de páginas las páginas que son dignas de mostrar a una persona que utiliza el motor de búsqueda.

Las páginas pueden rastrearse pero no indexarse. Es probable que las páginas indexadas hayan sido rastreadas y probablemente se vuelvan a rastrear para buscar actualizaciones y respuestas del servidor.

Pero no todas las páginas indexadas generarán tráfico ni llegarán a la primera página porque pueden no ser la mejor respuesta posible a las consultas que se buscan.

Ahora, pasemos a hacer un uso eficiente de los presupuestos de rastreo para este tipo de soluciones.

Usando Meta Robots o X Robots

La primera solución que Michal señaló fue una “índice, seguir” directiva. Esto le indica al motor de búsqueda que indexe la página y siga los enlaces que contiene. Esta es una buena idea, pero sólo si el resultado filtrado es la experiencia ideal.

Por lo que puedo ver, este no sería el caso, por lo que recomendaría hacerlo. «sin índice, seguir».

Noindex diría: «Esta no es una página oficial, pero sigue rastreando mi sitio, encontrarás buenas páginas aquí».

Y si tiene el menú principal y los enlaces internos de navegación correctamente hechos, es de esperar que la araña siga rastreándolos.

Canonicals para resolver el presupuesto de rastreo desperdiciado

Los enlaces canónicos se utilizan para ayudar a los motores de búsqueda a saber cuál es la página oficial a indexar.

Si un producto existe en tres categorías en tres URL separadas, solo se debe incluir una. “el funcionario” versión, por lo que los dos duplicados deben tener un canónico que apunte a la versión oficial. El oficial debería tener un enlace canónico que apunte a sí mismo. Esto se aplica a las ubicaciones filtradas.

Si la búsqueda de ubicación arroja varias páginas de ciudades o vecindarios, el resultado probablemente será un duplicado del oficial que tiene en su mapa del sitio.

Haga que los resultados filtrados apunten canónicamente a la página principal de filtrado en lugar de ser autorreferenciados si el contenido de la página permanece igual que la categoría original.

Si el contenido llega a su página localizada con las mismas ubicaciones, apunte el canónico a esa página.

En la mayoría de los casos, la versión filtrada hereda la página que buscó o filtró, por lo que es allí donde debe apuntar la versión canónica.

Si no utiliza ningún índice y tiene un canónico de autorreferencia, lo cual es excesivo, se convierte en una señal conflictiva.

Lo mismo se aplica cuando alguien busca un producto por su nombre en su sitio web. El resultado de la búsqueda puede competir con la página real del producto o servicio.

Con esta solución, le estás diciendo a la araña que no indexe esta página porque no vale la pena indexarla, pero también es la versión oficial. No tiene sentido hacer esto.

En su lugar, utilice un enlace canónico, como mencioné anteriormente, o no indexe el resultado y apunte el canónico a la versión oficial.

Desautorizar para aumentar la eficiencia del rastreo

Desautorizar no tiene nada que ver con la eficiencia del rastreo a menos que las arañas de los motores de búsqueda encuentren su «delgado”páginas a través de vínculos de retroceso spam.

La herramienta de desautorización de Google es una forma de decir: “Oye, estos vínculos de retroceso son spam y no queremos que nos hagan daño. Por favor, no los cuente para la autoridad de nuestro sitio”.

En la mayoría de los casos, no importa, ya que Google es bueno detectando enlaces spam e ignorándolos.

No desea agregar su propio sitio ni sus propias URL a la herramienta de desautorización. Le estás diciendo a Google que tu propio sitio es spam y no vale nada.

Además, enviar vínculos de retroceso para desautorizar no evitará que una araña vea lo que desea y no desea que sea rastreado, ya que solo sirve para decir que un vínculo de otro sitio es spam.

Desautorizar no ayudará a mejorar la eficiencia del rastreo ni a ahorrar presupuesto de rastreo.

Cómo hacer que los presupuestos de rastreo sean más eficientes

La respuesta es robots.txt. Así es como le dices a los motores de búsqueda y arañas específicos qué rastrear.

Puede incluir las carpetas que desea que rastreen comercializándolas como «permitir,» y puedes decir «rechazar» en resultados filtrados al no permitir el «?» o el símbolo “&” o el que utilice.

Si es necesario rastrear algunos de esos parámetros, agregue la palabra principal como “?filtro=ubicación” o un parámetro específico.

Robots.txt es la forma de definir las rutas de rastreo y trabajar en la eficiencia del rastreo. Una vez que haya optimizado eso, mire sus enlaces internos. Un enlace de una página de su sitio a otra.

Estos ayudan a las arañas a encontrar las páginas más importantes mientras aprenden de qué se trata cada una.

Los enlaces internos incluyen:

  • Pan rallado.
  • Navegación por menú.
  • Enlaces dentro del contenido a otras páginas.
  • Menús de subcategorías.
  • Enlaces de pie de página.

También puede utilizar un mapa del sitio si tiene un sitio grande y las arañas no encuentran las páginas que desea con prioridad.

Espero que esto ayude a responder tu pregunta. Es algo que entiendo con frecuencia; no eres el único atrapado en esa situación.

Más recursos:


Imagen de portada: Paulo Bobita/Search Engine Journal

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *