Técnica de ventilador de consulta en modo AI: Nuevos detalles de Google

Técnica de ventilador de consulta en modo AI: Nuevos detalles de Google


En una entrevista reciente, el vicepresidente de búsqueda de Google para la búsqueda, Robby Stein, compartió nueva información sobre cómo funciona el abanico de consulta en modo AI.

Aunque la existencia de Fan-Out de consultas se ha detallado previamente en las publicaciones de blog de Google, los comentarios de Stein se expanden en su mecánica y ofrecen ejemplos que aclaran cómo funciona en la práctica.

Antecedentes sobre la técnica de ventilador de consultas

Cuando una persona escribe una pregunta en el modo AI de Google, el sistema utiliza un modelo de idioma grande para interpretar la consulta y luego «ventilarse» múltiples búsquedas relacionadas.

Estas búsquedas se emiten a la infraestructura de Google y pueden incluir temas que el usuario nunca mencionó explícitamente.

Stein dijo durante la entrevista:

«Si está haciendo una pregunta como cosas que hacer en Nashville con un grupo, puede pensar en un montón de preguntas como excelentes restaurantes, excelentes bares, cosas que hacer si tiene hijos y comenzará a buscar en Google básicamente».

Describió el sistema como la búsqueda de Google como una herramienta de backend, ejecutando múltiples consultas y combinando los resultados en una sola respuesta con los enlaces.

Esta funcionalidad es activa en modo AI, búsqueda profunda y algunas experiencias de descripción general de IA.

Escala y alcance

Stein dijo que las experiencias de búsqueda con AI, incluido el abanico de consultas, ahora atienden a aproximadamente 1,5 mil millones de usuarios cada mes. Esto incluye entrada basada en texto y multimodal.

Las fuentes de datos subyacentes incluyen resultados web tradicionales, así como sistemas en tiempo real como el gráfico de compras de Google, que actualiza 2 mil millones de veces por hora.

Se refirió a Google Search como «el producto AI más grande del mundo».

Comportamiento de búsqueda profunda

En los casos en que los sistemas de Google determinan una consulta requiere un razonamiento más profundo, se puede activar una característica llamada búsqueda profunda.

La búsqueda profunda puede emitir docenas o incluso cientos de consultas de fondo y puede tardar varios minutos en completarse.

Stein describió usarlo para investigar a las cajas fuertes del hogar, una compra que dijo involucraba factores desconocidos como las calificaciones de resistencia al fuego e implicaciones del seguro.

Él explicó:

«Gastó, no lo sé, como unos minutos buscando información y me dio esta increíble respuesta. Así es como funcionarían las calificaciones y aquí hay cajas fuertes específicas que puede considerar y aquí hay enlaces y revisiones para hacer clic para profundizar».

El uso del modo AI de herramientas internas

Stein mencionó que el modo AI tiene acceso a herramientas internas de Google, como Google Finance y otros sistemas de datos estructurados.

Por ejemplo, una consulta de comparación de acciones podría implicar identificar a las empresas relevantes, extraer los datos actuales del mercado y generar un gráfico.

Procesos similares se aplican a las compras, las recomendaciones de los restaurantes y otros tipos de consultas que dependen de la información en tiempo real.

Stein declaró:

«Hemos integrado la mayoría de los sistemas de información en tiempo real que están dentro de Google … por lo que puede hacer que las llamadas de finanzas de Google, por ejemplo, los datos de vuelo … información de la película … hay 50 mil millones de productos en el catálogo de compras … actualizado, creo que 2 mil millones de veces cada hora más o menos. Por lo tanto, toda esa información puede ser utilizada por estos modelos ahora».

Similitudes técnicas con la patente de Google

Stein describió un proceso similar a una patente de Google de diciembre sobre «búsqueda temática».

La patente describe un sistema que crea subterías basadas en temas inferidos, resultados de grupos por tema y genera resúmenes utilizando un modelo de idioma. Cada tema puede vincular a las páginas fuente, pero los resúmenes se compilan de múltiples documentos.

Este enfoque difiere de la clasificación de búsqueda tradicional organizando contenido en torno a temas inferidos en lugar de palabras clave específicas. Si bien la patente no confirma la implementación, coincide estrechamente con la descripción de Stein de cómo funciona el modo AI.

Mirando hacia el futuro

Con Google explicando cómo el modo AI genera sus propias búsquedas, los límites de lo que cuenta como una «consulta» comienzan a desdibujarse.

Esto crea desafíos no solo para la optimización, sino también para la atribución y la medición.

A medida que el comportamiento de búsqueda se vuelve más fragmentado y impulsado por la IA, los especialistas en marketing pueden necesitar centrarse menos en clasificarse para términos individuales y más en ser incluido en el contexto más amplio de la IA.

Escuche la entrevista completa a continuación:

https://www.youtube.com/watch?v=zub5a_eziou


Imagen destacada: captura de pantalla de youtube.com/@googledevelopers, julio de 2025.

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *