Gary Illyes y Lizzi Sassman de Google analizaron tres factores que desencadenan un mayor rastreo de los robots de Google. Si bien restaron importancia a la necesidad de un rastreo constante, reconocieron que existen formas de alentar al robot de Google a volver a visitar un sitio web.
1. Impacto del contenido de alta calidad en la frecuencia de rastreo
Una de las cosas de las que hablaron fue la calidad de un sitio web. Mucha gente sufre el problema descubierto no indexado y eso a veces es causado por ciertas prácticas de SEO que la gente ha aprendido y cree que son una buena práctica. He estado haciendo SEO durante 25 años y una cosa que siempre ha sido la misma es que las mejores prácticas definidas por la industria generalmente están años por detrás de lo que está haciendo Google. Sin embargo, es difícil ver qué está mal si una persona está convencida de que está haciendo todo bien.
Gary Illyes compartió una razón para una frecuencia de rastreo elevada en el minuto 4:42, explicando que uno de los desencadenantes de un alto nivel de rastreo son las señales de alta calidad que detectan los algoritmos de Google.
Gary lo dijo en el minuto 4:42:
«…en general, si el contenido de un sitio es de alta calidad, es útil y a la gente le gusta en general, entonces el robot de Google (bueno, Google) tiende a rastrear más desde ese sitio…»
Hay muchos matices que faltan en la declaración anterior, como ¿Cuáles son las señales de alta calidad y utilidad? ¿Eso hará que Google decida rastrear con más frecuencia?
Bueno, Google nunca lo dice. Pero podemos especular y las siguientes son algunas de mis conjeturas fundamentadas.
Sabemos que existen patentes sobre búsqueda de marca que cuentan las búsquedas de marca realizadas por los usuarios como enlaces implícitos. Algunas personas piensan que los «enlaces implícitos» son menciones de marca, pero las «menciones de marca» no son en absoluto de lo que habla la patente.
Luego está la patente Navboost que existe desde 2004. Algunas personas equiparan la patente Navboost con clics, pero si lees la patente real de 2004 verás que nunca menciona las tasas de clics (CTR). Habla de señales de interacción del usuario. Los clics fueron un tema de intensa investigación a principios de la década de 2000, pero si lees los artículos de investigación y las patentes, es fácil entender a qué me refiero cuando no es tan simple como «el mono hace clic en el sitio web en las SERP, Google lo clasifica más alto, el mono obtiene banana.»
En general, creo que las señales que indican que las personas perciben un sitio como útil pueden ayudar a que un sitio web tenga una mejor clasificación. Y a veces eso puede significar darle a la gente lo que esperan ver, darles lo que esperan ver.
Los propietarios de sitios me dirán que Google está clasificando basura y cuando miro puedo ver lo que quieren decir, los sitios son un poco basura. Pero, por otro lado, el contenido les da a las personas lo que quieren porque realmente no saben cómo diferenciar entre lo que esperan ver y el contenido real de buena calidad (lo llamo algoritmo Froot Loops).
¿Qué es el algoritmo Froot Loops? Es un efecto de la dependencia de Google de las señales de satisfacción del usuario para juzgar si sus resultados de búsqueda hacen felices a los usuarios. Esto es lo que publiqué anteriormente sobre el algoritmo Froot Loops de Google:
“¿Alguna vez has caminado por el pasillo de cereales de un supermercado y has notado cuántos tipos de cereales cargados de azúcar se alinean en los estantes? Esa es la satisfacción del usuario en acción. La gente espera ver cereales con bombas de azúcar en sus pasillos de cereales y los supermercados satisfacen esa intención del usuario.
A menudo miro los Froot Loops en el pasillo de cereales y pienso: «¿Quién come eso?» Al parecer, a mucha gente le gusta, por eso la caja está en el lineal del supermercado, porque la gente espera verla allí.
Google está haciendo lo mismo que el supermercado. Google muestra los resultados que tienen más probabilidades de satisfacer a los usuarios, como ese pasillo de cereales”.
Un ejemplo de un sitio basura que satisface a los usuarios es un sitio de recetas popular (que no nombraré) que publica recetas fáciles de cocinar que no son auténticas y utiliza atajos como crema de champiñones enlatada como ingrediente. Tengo bastante experiencia en la cocina y esas recetas me dan vergüenza. Pero a las personas que conozco les encanta ese sitio porque realmente no saben nada mejor, solo quieren una receta fácil.
De lo que realmente se trata la conversación sobre la utilidad es de comprender a la audiencia en línea y darles lo que quieren, lo cual es diferente de darles lo que deberían querer. Comprender lo que la gente quiere y dárselo es, en mi opinión, lo que los buscadores encontrarán útil y hará sonar la señal de utilidad de Google.
2. Mayor actividad editorial
Otra cosa que Illyes y Sassman dijeron que podría hacer que el robot de Google rastree más es una mayor frecuencia de publicación, como si un sitio aumentara repentinamente la cantidad de páginas que publica. Pero Illyes dijo que en el contexto de un sitio pirateado, de repente comenzó a publicar más páginas web. Un sitio pirateado que publica muchas páginas provocaría que el robot de Google rastreara más.
Si nos alejamos para examinar esa afirmación desde la perspectiva del bosque, entonces es bastante evidente que está insinuando que un aumento en la actividad de publicación puede desencadenar un aumento en la actividad de rastreo. No es que el sitio haya sido pirateado lo que hace que el robot de Google rastree más, sino el aumento en las publicaciones lo que lo causa.
Aquí es donde Gary cita una explosión de actividad editorial como un desencadenante del robot de Google:
“…pero también puede significar que, no sé, el sitio fue hackeado. Y luego hay un montón de URL nuevas que entusiasman al robot de Google, luego se apagan y se arrastran como locas”.
Muchas páginas nuevas hacen que el robot de Google se entusiasme y rastree un sitio «como loco», esa es la conclusión. No hace falta más explicación, sigamos adelante.
3. Coherencia de la calidad del contenido
Gary Illyes continúa mencionando que Google puede reconsiderar la calidad general del sitio y eso puede provocar una caída en la frecuencia de rastreo.
Esto es lo que dijo Gary:
«… si no rastreamos mucho o gradualmente lo ralentizamos, eso podría ser una señal de contenido de baja calidad o de que repensamos la calidad del sitio».
¿Qué quiere decir Gary cuando dice que Google «repensó la calidad del sitio»? Mi opinión es que a veces la calidad general de un sitio puede disminuir si hay partes del sitio que no tienen el mismo estándar que la calidad del sitio original. En mi opinión, según lo que he visto a lo largo de los años, en algún momento el contenido de baja calidad puede comenzar a pesar más que el buen contenido y arrastrar al resto del sitio con él.
Cuando la gente viene a mí diciendo que tienen un problema de “canibalismo de contenido”, cuando lo miro, lo que realmente están sufriendo es un problema de contenido de baja calidad en otra parte del sitio.
Lizzi Sassman continúa preguntando alrededor del minuto 6 si hay un impacto si el contenido del sitio web fuera estático, sin mejorar ni empeorar, sino simplemente sin cambiar. Gary se resistió a dar una respuesta, simplemente dijo que el robot de Google regresa para verificar el sitio para ver si ha cambiado y dice que «probablemente» el robot de Google podría ralentizar el rastreo si no hay cambios, pero matizó esa afirmación diciendo que no lo hizo. saber.
Algo que no se dijo pero que está relacionado con la coherencia de la calidad del contenido es que a veces el tema cambia y si el contenido es estático, automáticamente puede perder relevancia y comenzar a perder clasificación. Por lo tanto, es una buena idea realizar una auditoría de contenido periódica para ver si el tema ha cambiado y, de ser así, actualizar el contenido para que siga siendo relevante para los usuarios, lectores y consumidores cuando conversan sobre un tema.
Tres formas de mejorar las relaciones con el robot de Google
Como dejaron claro Gary y Lizzi, en realidad no se trata de presionar al robot de Google para que funcione sólo por el hecho de lograr que se rastree. El punto es pensar en su contenido y su relación con los usuarios.
1. ¿El contenido es de alta calidad?
¿El contenido aborda un tema o aborda una palabra clave? Los sitios que utilizan una estrategia de contenido basada en palabras clave son los que veo sufrir en las actualizaciones del algoritmo central de 2024. Las estrategias que se basan en temas tienden a producir mejor contenido y navegar a través de las actualizaciones del algoritmo.
2. Mayor actividad editorial
Un aumento en la actividad editorial puede hacer que el robot de Google aparezca con más frecuencia. Independientemente de si es porque un sitio ha sido pirateado o porque un sitio está poniendo más vigor en su estrategia de publicación de contenido, un cronograma de publicación de contenido regular es algo bueno y siempre lo ha sido. No existe un “configúrelo y olvídese” cuando se trata de publicación de contenido.
3. Coherencia de la calidad del contenido
La calidad del contenido, la actualidad y la relevancia para los usuarios a lo largo del tiempo son una consideración importante y garantizarán que el robot de Google siga viniendo a saludar. Una caída en cualquiera de esos factores (calidad, actualidad y relevancia) podría afectar el rastreo del robot de Google, que en sí mismo es un síntoma del factor más importante, que es cómo el algoritmo de Google considera el contenido.
Escuche el podcast Off The Record de búsqueda de Google que comienza aproximadamente en el minuto 4:
Imagen destacada de Shutterstock/Cast Of Thousands