Google AI muestra que un sitio está fuera de línea debido a la entrega de contenido JS

Google AI muestra que un sitio está fuera de línea debido a la entrega de contenido JS


John Mueller de Google ofreció una solución simple a un Redditor que culpó a la «IA» de Google por una nota en las SERP que decía que el sitio web estaba inactivo desde principios de 2026.

El Redditor no creó una publicación en Reddit, simplemente vinculó a su publicación de blog que culpaba a Google y a la IA. Esto le permitió a Mueller ir directamente al sitio, identificar la causa que tenía que ver con la implementación de JavaScript y luego aclararles que no era culpa de Google.

Redditor culpa a la IA de Google

La publicación del blog de Redditor culpa a Google y titula el artículo con una ensalada de palabras de moda en informática que complica demasiado y (sin saberlo) tergiversa el problema real.

El título del artículo es:

“Google podría pensar que su sitio web no funciona
Cómo la agregación de IA entre páginas puede introducir nuevos vectores de responsabilidad”.

Esa parte sobre la “agregación de IA entre páginas” y los “vectores de responsabilidad” llama la atención porque ninguno de esos términos son términos técnicos establecidos en informática.

Lo de «páginas cruzadas» es probablemente una referencia al Query Fan-Out de Google, donde una pregunta en el Modo AI de Google se convierte en múltiples consultas que luego se envían a la Búsqueda clásica de Google.

En cuanto a los «vectores de responsabilidad», un vector es algo real que se analiza en SEO y es parte del procesamiento del lenguaje natural (PLN). Pero el “Vector de Responsabilidad” no forma parte de él.

La publicación del blog de Redditor admite que no saben si Google es capaz de detectar si un sitio está caído o no:

«No tengo conocimiento de que Google tenga ninguna capacidad especial para detectar si los sitios web están activos o inactivos. E incluso si mi servicio interno fallara, Google no podría detectarlo ya que está detrás de un muro de inicio de sesión».

Y parece que tal vez no sean conscientes de cómo funciona RAG o Query Fan-Out, o tal vez cómo funcionan los sistemas de inteligencia artificial de Google. El autor parece considerar como un descubrimiento que Google esté haciendo referencia a información nueva en lugar de conocimiento paramétrico (información en el LLM que se obtuvo a través de la capacitación).

Escriben que la respuesta de IA de Google dice que el sitio web indicó que estaba fuera de línea desde 2026:

“…la redacción dice que lo indicó el sitio web en lugar de lo que indicaron las personas; aunque en la era de la incertidumbre de los LLM, esa distinción podría ya no significar mucho.

…menciona claramente el período a principios de 2026. Dado que el sitio web no existía antes de mediados de 2025, esto en realidad sugiere que Google tiene información relativamente nueva; aunque de nuevo, ¡LLM!

Un poco más adelante en la publicación del blog, el Redditor admite que no saben por qué Google dice que el sitio web está fuera de línea.

Explicaron que implementaron una solución de disparo en la oscuridad eliminando una ventana emergente. Estaban adivinando incorrectamente que era la ventana emergente la que estaba causando el problema y esto resalta la importancia de estar seguro de qué está causando los problemas antes de realizar cambios con la esperanza de que esto los solucione.

El Redditor compartió que no sabían cómo Google resume la información sobre un sitio en respuesta a una consulta sobre el sitio, y expresó su preocupación porque creen que es posible que Google pueda extraer información irrelevante y luego mostrarla como respuesta.

Ellos escriben:

“…no sabemos exactamente cómo reúne Google la combinación de páginas que utiliza para generar respuestas de LLM.

Esto es problemático porque cualquier cosa en sus páginas web ahora podría influir en respuestas no relacionadas.

…La IA de Google podría tomar todo esto y presentarlo como la respuesta”.

No culpo al autor por no saber cómo funciona la búsqueda con IA de Google, estoy bastante seguro de que no es muy conocida. Es fácil tener la impresión de que se trata de una IA que responde preguntas.

Pero lo que básicamente sucede es que la búsqueda por IA se basa en la búsqueda clásica, en la que la IA sintetiza el contenido que encuentra en línea en una respuesta en lenguaje natural. Es como hacerle una pregunta a alguien, la busca en Google y luego explica la respuesta a partir de lo que aprendió al leer las páginas del sitio web.

John Mueller de Google explica lo que está pasando

Mueller respondió a la publicación de la persona en Reddit de manera neutral y educada, mostrando por qué la falla radica en la implementación de Redditor.

Mueller explicó:

«¿Es ese su sitio? Recomendaría no usar JS para cambiar el texto de su página de «no disponible» a «disponible» y, en su lugar, simplemente cargar esa parte completa desde JS. De esa manera, si un cliente no ejecuta su JS, no obtendrá información engañosa.

Esto es similar a cómo Google no recomienda usar JS para cambiar una metaetiqueta de robots de «noindex» a «por favor considere mi excelente trabajo de marcado html para su inclusión» (no hay una metaetiqueta de robots «index», por lo que puede ser creativo)».

La respuesta de Mueller explica que el sitio depende de JavaScript para reemplazar el texto del marcador de posición que se muestra brevemente antes de que se cargue la página, lo que solo funciona para los visitantes cuyos navegadores realmente ejecutan ese script.

Lo que pasó aquí es que Google leyó ese texto de marcador de posición que mostraba la página web como contenido indexado. Google vio el contenido servido original con el mensaje «no disponible» y lo trató como contenido.

Mueller explicó que el enfoque más seguro es tener la información correcta presente en el HTML base de la página desde el principio, de modo que tanto los usuarios como los motores de búsqueda reciban el mismo contenido.

Comidas para llevar

Aquí hay varias conclusiones que van más allá del problema técnico subyacente al problema de Redditor. Lo primero de la lista es cómo intentaron adivinar la respuesta.

Realmente no sabían cómo funciona la búsqueda de IA de Google, lo que introdujo una serie de suposiciones que complicaron su capacidad para diagnosticar el problema. Luego implementaron una “solución” basada en adivinar qué pensaban que probablemente estaba causando el problema.

Adivinar es un enfoque a los problemas de SEO que se justifica porque Google es opaco, pero a veces no se trata de Google, sino de una brecha de conocimiento en el SEO en sí y una señal de que se necesitan más pruebas y diagnósticos.

Imagen destacada de Shutterstock/Kues

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *