Mejore sus habilidades con los conocimientos expertos semanales de Growth Memo. ¡Suscríbete gratis!
Mis hallazgos de esta semana muestran que los datos de Google Search Console están incompletos en aproximadamente un 75%, lo que hace que las decisiones de GSC de una sola fuente sean peligrosamente poco confiables.
1. GSC solía ser la verdad fundamental
Los datos de Search Console solían ser la representación más precisa de lo que sucede en los resultados de búsqueda. Pero el muestreo de privacidad, las impresiones infladas por bots y la distorsión de la descripción general de la IA (AIO) restan confiabilidad a los datos.
Sin comprender cómo se filtran y sesgan sus datos, corre el riesgo de sacar conclusiones equivocadas de los datos de GSC.
Los datos de SEO han recorrido un largo camino hasta volverse menos confiables, comenzando con Google eliminando la referencia de palabras clave hasta excluyendo las funciones SERP críticas de los resultados de rendimiento. Pero tres acontecimientos clave ocurridos en los últimos 12 meses lo coronaron:
- Enero de 2025: Google implementa «SearchGuard», que requiere JavaScript y CAPTCHA (sofisticado) para cualquiera que mire los resultados de búsqueda (resulta que Google usa muchas señales avanzadas para diferenciar a los humanos de los raspadores).
- Marzo de 2025: Google aumenta significativamente la cantidad de descripciones generales de IA en las SERP. Estamos viendo un aumento significativo en las impresiones y una caída en los clics.
- Septiembre de 2025: Google elimina el parámetro num=100, que los raspadores SERP utilizan para analizar los resultados de búsqueda. El pico de impresiones se normaliza, los clics permanecen bajos.
Por un lado, Google tomó medidas para limpiar los datos de GSC. Por otro lado, los datos todavía nos dejan con más preguntas abiertas que respuestas.
2. El muestreo de privacidad oculta el 75% de las consultas
Google filtra una cantidad significativa de impresiones (y clics) por motivos de «privacidad». Hace un año, Patrick Stox analizó un gran conjunto de datos y llegó a la conclusión de que casi el 50 % están filtrados.
Repetí el análisis (10 sitios B2B fuera de EE. UU.) en ~4 millones de clics y ~450 millones de impresiones.
Metodología:
- Google Search Console (GSC) proporciona datos a través de dos puntos finales API que revelan su comportamiento de filtrado. La consulta agregada (sin dimensiones) devuelve el total de clics e impresiones, incluidos todos los datos. La consulta a nivel de consulta (con dimensión «consulta») devuelve solo consultas que cumplen con el umbral de privacidad de Google.
- Al comparar estos dos números, puede calcular la tasa de filtrado.
- Por ejemplo, si los datos agregados muestran 4205 clics pero los datos a nivel de consulta solo muestran 1937 clics visibles, Google filtró 2268 clics (53,94%).
- Analicé 10 sitios B2B SaaS (~4 millones de clics, ~450 millones de impresiones), comparando períodos de 30 días, 90 días y 12 meses con el mismo análisis de 12 meses antes.
Mi conclusión:
1. Google filtra ~75% de las impresiones.

- La tasa de filtrado de impresiones es increíblemente alta, con tres cuartas partes filtradas por motivos de privacidad.
- Hace 12 meses, la tasa era sólo 2 puntos porcentuales más alta.
- El rango que observé fue desde el 59,3% hasta el 93,6%.

2. Google filtra ~38% de los clics, pero ~5% menos que hace 12 meses.

- El filtrado de clics no es algo de lo que hablemos mucho, pero parece que Google no informa hasta un tercio de todos los clics que se produjeron.
- Hace 12 meses, Google filtró más del 40% de los clics.
- ¡El rango de filtrado abarca del 6,7% al 88,5%!

La buena noticia es que la tasa de filtrado ha disminuido ligeramente en los últimos 12 meses, probablemente como resultado de menos «impresiones de bots».
La mala noticia: el problema central persiste. Incluso con estas mejoras, el 38% de filtrado de clics y el 75% de filtrado de impresiones siguen siendo catastróficamente altos. Una mejora del 5% no hace que las decisiones de GSC de una sola fuente sean confiables cuando faltan tres cuartas partes de los datos de impresiones.
3. Las impresiones de 2025 están muy infladas

Los últimos 12 meses muestran una montaña rusa de datos de GSC:
- En marzo de 2025, Google intensificó el lanzamiento de AIO y mostró un 58% más en los sitios que analicé.
- En julio, las impresiones crecieron un 25,3% y en agosto otro 54,6%. Los raspadores de SERP de alguna manera encontraron una manera de sortear SearchGuard (el “bot” de protección que utiliza Google para evitar los raspadores de SERP) y provocaron que las “impresiones de bot” capturaran AIO.
- En septiembre, Google eliminó el parámetro num=100, lo que provocó que las impresiones cayeran un 30,6%.

Avance rápido hasta hoy:
- Los clics disminuyeron un 56,6% desde marzo de 2025.
- Las impresiones se normalizaron (-9,2%).
- Las AIO se redujeron un 31,3%.
No puedo llegar a un número causal de clics reducidos de AIO, pero la correlación es fuerte: 0,608. Sabemos que las AIO reducen los clics (tiene sentido lógico), pero no sabemos exactamente cuánto. Para resolverlo, tendría que medir el CTR de las consultas antes y después de que aparezca una AIO.
Pero, ¿cómo saber si la disminución de clics se debe a una AIO y no solo a la mala calidad o deterioro del contenido?
Busque correlación temporal:
- Realice un seguimiento de cuándo disminuyeron sus clics en comparación con el cronograma de implementación de AIO de Google (pico de marzo de 2025). La mala calidad del contenido muestra un deterioro gradual; El impacto de AIO es agudo y específico de cada consulta.
- Referencia cruzada con datos de posición. Si las clasificaciones se mantienen estables mientras los clics caen, eso indica canibalización de AIO. Compruebe si las consultas afectadas son informativas (propensas a AIO) o transaccionales (resistentes a AIO). Su coeficiente de correlación de 0,608 entre la presencia de AIO y la reducción de clics respalda este enfoque de diagnóstico.
4. Las impresiones de bots están aumentando

Tengo motivos para creer que los scrapers SERP están regresando. Podemos medir la cantidad de impresiones probablemente causadas por bots filtrando los datos de GSC por consultas que contengan más de 10 palabras y dos impresiones. La posibilidad de que un ser humano utilice dos veces una consulta (mensaje) tan larga es cercana a cero.
La lógica de las impresiones de bots:
- Hipótesis: Los humanos rara vez buscan exactamente la misma consulta de más de 5 palabras dos veces en un período corto.
- Filtrar: Identifique consultas con más de 10 palabras que tengan >1 impresión pero cero clics.
- Advertencia: Este método puede capturar algunas consultas legítimas sin hacer clic, pero proporciona una estimación direccional de la actividad del bot.
Comparé esas consultas durante los últimos 30, 90 y 180 días:
- Las consultas con +10 palabras y +1 impresión crecieron un 25 % en los últimos 180 días.
- El rango de impresiones de bots abarca del 0,2% al 6,5% (últimos 30 días).
Esto es lo que puede anticipar como porcentaje «normal» de impresiones de bot para un sitio SaaS típico:
- Según el conjunto de datos B2B de 10 sitios, las impresiones de bots oscilan entre el 0,2% y el 6,5% durante 30 días, con consultas que contienen más de 10 palabras y 2+ impresiones pero 0 clics.
- Específicamente para SaaS, espere una base de 1-3% para las impresiones de bots. Los sitios con documentación extensa, guías técnicas o páginas SEO programáticas tienen una tendencia más alta (4-6%).
- El crecimiento del 25% en 180 días sugiere que los scrapers se están adaptando después de SearchGuard. Controle su posición percentil dentro de este rango más que el número absoluto.
Las impresiones de bot no afectan su clasificación real, solo sus informes al inflar el recuento de impresiones. ¿El impacto práctico? Recursos mal asignados si optimiza para consultas de impresiones infladas que los humanos nunca buscan.
5. La capa de medición está rota
Las decisiones de una sola fuente basadas únicamente en datos del GSC se vuelven peligrosas:
- Se filtran tres cuartas partes de las impresiones.
- Las impresiones de bot generan hasta el 6,5% de los datos.
- Las AIO reducen los clics en más del 50%.
- El comportamiento del usuario está cambiando estructuralmente.
Su oportunidad está en la metodología: los equipos que crean marcos de medición sólidos (scripts de frecuencia de muestreo, cálculos de bots compartidos, triangulación de múltiples fuentes) tienen una ventaja competitiva.
Imagen publicada: Paulo Bobita/Search Engine Journal



