Gary Illyes, de Google, destacó recientemente un problema recurrente de SEO en LinkedIn, haciéndose eco de las preocupaciones que había expresado anteriormente en un podcast de Google.
¿El problema? Los parámetros de URL causan dificultades a los motores de búsqueda cuando rastrean sitios web.
Este problema es especialmente desafiante para los grandes sitios y tiendas en línea. Cuando se agregan diferentes parámetros a una URL, se pueden generar numerosas direcciones web únicas que conducen todas al mismo contenido.
Esto puede obstaculizar los motores de búsqueda, reduciendo su eficiencia a la hora de rastrear e indexar sitios correctamente.
El enigma de los parámetros de URL
Tanto en el podcast como en la publicación de LinkedIn, Illyes explica que las URL pueden acomodar infinitos parámetros, cada uno de los cuales crea una URL distinta, incluso si todas apuntan al mismo contenido.
Él escribe:
“Una peculiaridad interesante de las URL es que puedes agregar un número infinito (lo llamo BS) de parámetros de URL a la ruta de la URL y, con ello, esencialmente formar nuevos recursos. Las nuevas URL no tienen que asignarse a contenido diferente en el servidor, incluso cada nueva URL puede ofrecer el mismo contenido que la URL sin parámetros, pero todas son URL distintas. Un buen ejemplo de esto es el parámetro URL de eliminación de caché en referencias de JavaScript: no cambia el contenido, pero obligará a que los cachés se actualicen”.
Proporcionó un ejemplo de cómo una URL simple como «/ruta/archivo«puede expandirse a»/ruta/archivo?param1=a» y «/ruta/archivo?param1=a¶m2=b“, todos potencialmente ofreciendo contenido idéntico.
«Cada [is] una URL diferente, todo el mismo contenido”, señaló Illyes.
Expansión accidental de URL y sus consecuencias
A veces, los motores de búsqueda pueden encontrar e intentar rastrear páginas inexistentes en su sitio, lo que Illyes llama «URL falsas».
Estos pueden aparecer debido a cosas como enlaces relativos mal codificados. Lo que comienza como un sitio de tamaño normal con alrededor de 1.000 páginas podría convertirse en un millón de URL fantasmas.
Esta explosión de páginas falsas puede provocar graves problemas. Los rastreadores de motores de búsqueda pueden afectar gravemente a sus servidores al intentar rastrear todas estas páginas inexistentes.
Esto puede saturar los recursos de su servidor y potencialmente bloquear su sitio. Además, desperdicia el presupuesto de rastreo del motor de búsqueda en páginas inútiles en lugar de en su contenido.
Al final, es posible que sus páginas no se rastreen ni indexen correctamente, lo que podría perjudicar su clasificación de búsqueda.
Illyes afirma:
“A veces puedes crear estas nuevas URL falsas accidentalmente, explotando tu espacio de URL desde unas agradables 1000 URL a un abrasador millón, emocionantes rastreadores que a su vez golpean tus servidores inesperadamente, derritiendo tuberías y silbidos a diestro y siniestro. Los malos vínculos relativos son una causa relativamente común. Pero robotstxt es tu amigo en este caso”.
Sitios de comercio electrónico más afectados
La publicación de LinkedIn no mencionó específicamente las tiendas en línea, pero la discusión del podcast aclaró que este problema es muy importante para las plataformas de comercio electrónico.
Estos sitios web suelen utilizar parámetros de URL para gestionar el seguimiento, filtrado y clasificación de productos.
Como resultado, es posible que vea varias URL diferentes que apuntan a la misma página de producto, y cada variante de URL representa opciones de color, opciones de tamaño o de dónde viene el cliente.
Mitigar el problema
Illyes recomienda constantemente utilizar robots.txt para solucionar este problema.
En el podcast, Illyes destacó posibles soluciones, como:
- Crear sistemas para detectar URL duplicadas
- Mejores formas para que los propietarios de sitios informen a los motores de búsqueda sobre su estructura de URL
- Usar robots.txt de forma más inteligente para guiar a los robots de los motores de búsqueda
La herramienta de parámetros de URL obsoleta
En la discusión del podcast, Illyes se refirió a los intentos anteriores de Google para abordar este problema, incluida la herramienta de parámetros de URL ahora obsoleta en Search Console.
Esta herramienta permitía a los sitios web indicar qué parámetros eran importantes y cuáles podían ignorarse.
Cuando se le preguntó en LinkedIn sobre la posibilidad de recuperar esta herramienta, Illyes se mostró escéptico sobre su eficacia práctica.
Dijo: “En teoría, sí. en la práctica no”, explicando que la herramienta sufría los mismos problemas que robots.txt, es decir, que “la gente no podía ni por su vida descubrir cómo gestionar sus propios parámetros”.
Implicaciones para SEO y desarrollo web
Esta discusión en curso de Google tiene varias implicaciones para el SEO y el desarrollo web:
- Presupuesto de rastreo: Para sitios grandes, administrar los parámetros de URL puede ayudar a conservar el presupuesto de rastreo, asegurando que las páginas importantes sean rastreadas e indexadas.
- Arquitectura del sitio: Es posible que los desarrolladores deban reconsiderar cómo estructuran las URL, particularmente para grandes sitios de comercio electrónico con numerosas variaciones de productos.
- Navegación facetada: Los sitios de comercio electrónico que utilizan navegación por facetas deben tener en cuenta cómo esto afecta la estructura de la URL y la capacidad de rastreo.
- Etiquetas canónicas: Las etiquetas canónicas ayudan a Google a comprender qué versión de URL debe considerarse principal.
Por qué esto importa
Google está discutiendo problemas de parámetros de URL en múltiples canales, lo que indica una preocupación genuina por la calidad de la búsqueda.
Para los expertos de la industria, mantenerse informado sobre estos aspectos técnicos es esencial para mantener la visibilidad de las búsquedas.
Mientras Google trabaja en soluciones, se recomienda una gestión proactiva de URL y una guía eficaz para los rastreadores.