Robby Stein, vicepresidente de Producto de Google, explicó que la Búsqueda de Google está convergiendo con la IA de una nueva manera que se basa en tres pilares de la IA. Las implicaciones para los editores en línea, los SEO y las tiendas de comercio electrónico son profundas.
Tres pilares de la búsqueda por IA
Stein de Google dijo que hay tres componentes esenciales para la “próxima generación” de la Búsqueda de Google:
- Resúmenes de IA
- Búsqueda multimodal
- Modo IA
AI Overviews es una búsqueda en lenguaje natural. Multimodales son nuevas formas de buscar con imágenes, habilitadas por Google Lens. El modo AI es el aprovechamiento del contenido web y el conocimiento estructurado para proporcionar una forma conversacional por turnos de descubrir información y aprender. Stein indica que estos tres componentes convergerán como el siguiente paso en la evolución de la búsqueda. Esto viene.
Stein explicó:
«Puedo decirles que hay tres grandes componentes en cómo podemos pensar en la búsqueda con IA y en la próxima generación de experiencias de búsqueda. Uno es, obviamente, las descripciones generales de la IA, que son la IA rápida y rápida que se obtiene en la parte superior de la página que muchas personas han visto. Y eso obviamente ha sido algo que está creciendo muy, muy rápidamente. Esto es cuando haces una pregunta natural, la pones en Google y obtienes esta IA ahora. Es realmente útil para las personas.
El segundo es el multimodal. Esto es búsqueda visual y lente. Ésa es la otra gran pieza. Vas a la cámara en la aplicación de Google y eso está experimentando un gran crecimiento.
Y luego, con el modo IA, lo reúne todo. Crea una experiencia de búsqueda de extremo a extremo en modelos de última generación que realmente te permite preguntar cualquier cosa en la búsqueda de Google”.
Modo AI activado por consultas complejas
La captura de pantalla anterior muestra una consulta de búsqueda compleja de dos oraciones ingresada en el cuadro de búsqueda de Google. La consulta compleja activa automáticamente una vista previa del Modo AI con un enlace «Mostrar más» que conduce a una experiencia inmersiva de búsqueda conversacional en Modo AI. Los editores que deseen ser citados deben pensar en cómo encajará su contenido en este tipo de contexto.
Próxima generación de Google: el modo IA es como un cerebro
Stein describió la próxima frontera de la búsqueda como algo radicalmente diferente de lo que conocemos como Búsqueda de Google. Muchos SEO todavía piensan en la búsqueda como este paradigma de clasificación con diez enlaces azules. Eso es algo que no ha existido desde que Google debutó con los fragmentos destacados en 2014. Son once años en los que el concepto de diez enlaces azules no ha estado en sintonía con la realidad en los resultados de búsqueda de Google.
Lo que Stein continúa describiendo elimina por completo el concepto de diez enlaces azules, reemplazándolo con el concepto de un cerebro con el que los usuarios pueden hacer preguntas e interactuar. Los SEO, los comerciantes y otros editores realmente necesitan comenzar a eliminar el concepto mental de los diez enlaces azules y centrarse en mostrar el contenido dentro de un entorno interactivo de lenguaje natural que está completamente fuera de la búsqueda.
Stein explicó este nuevo concepto de cerebro en el contexto del modo AI:
«Puedes ir y venir. Puedes tener una conversación. Y está especialmente diseñado para la búsqueda. Entonces, ¿qué significa eso? Una de las cosas interesantes que creo que hace es que es capaz de comprender toda esta información increíblemente rica que se encuentra en Google.
- Entonces, hay 50 mil millones de productos en Google Shopping Graph, por ejemplo. Los comerciantes los actualizan 2 mil millones de veces por hora con precios en vivo.
- Tienes 250 millones de lugares y mapas.
- Tienes toda la información financiera.
- Y sin mencionar que tiene todo el contexto de la web y cómo conectarse a él para poder obtener el contexto, pero luego profundizar más.
Y pones todo eso en este cerebro que efectivamente es así para hablar con Google y obtener este conocimiento.
Eso es realmente lo que puedes hacer ahora. Por lo tanto, puede preguntar cualquier cosa que tenga en mente y utilizará toda esta información para, con suerte, brindarle información informada y de muy alta calidad lo mejor que podamos”.
La descripción de Stein muestra que la dirección a largo plazo de Google es ir más allá de la recuperación hacia un modo interactivo de descubrimiento de información por turnos. La metáfora del “cerebro” indica que la búsqueda se centrará cada vez menos en localizar páginas web sino en generar respuestas informadas construidas a partir de los propios datos estructurados, gráficos de conocimiento y contenido web de Google. Esto representa un cambio fundamental y, como verá en los siguientes párrafos, este cambio está ocurriendo ahora mismo.
El modo IA lo integra todo
Stein describe cómo Google está activando cada vez más el modo AI como la próxima evolución de cómo los usuarios encuentran respuestas a preguntas y descubren información sobre el mundo que los rodea. Esto va más allá de preguntar “cuál es el mejor kayak” y se convierte más en una conversación en lenguaje natural, un viaje de información que puede abarcar imágenes, videos y texto, como en la vida real. Es una experiencia integrada que va mucho más allá de un simple cuadro de búsqueda y diez enlaces.
Stein proporcionó más información sobre cómo se verá esto:
«Y puede usarlo directamente en google.com/ai, pero también se ha integrado en nuestras experiencias principales. Así que anunciamos que puede acceder a él muy fácilmente. Ahora puede hacer preguntas de seguimiento sobre resúmenes de IA directamente en el modo IA.
Lo mismo ocurre con las lentes, toma una foto y la lleva al modo AI. Para que pueda hacer preguntas de seguimiento e ir allí también. Por lo tanto, es cada vez más una experiencia integrada en la parte central del producto”.
Cómo la IA convergerá en una sola interfaz
En este punto, el presentador del podcast pidió una explicación más clara de cómo se integrarán todas estas cosas.
Él preguntó:
«Me imagino que mucho de esto es… esperar y ver cómo lo usa la gente. ¿Pero cuál es la visión de cómo se conectan todas estas cosas?
¿La idea es seguir teniendo este modo de IA a un lado, vistas generales de IA en la parte superior y luego esta experiencia multimodal? ¿O existe la visión de de alguna manera unirlos aún más con el tiempo?
Stein respondió que todos estos modos de descubrimiento de información convergerán. Google podrá detectar mediante la consulta si se activa el modo AI o simplemente una búsqueda simple. No habrá interfaces diferentes, solo una.
Stein explicó:
«Creo que existe una oportunidad para que se acerquen más. Creo que eso es lo que representa el modo AI, al menos para las experiencias principales de IA. Pero creo que son muy complementarias al producto de búsqueda principal.
Por lo tanto, no deberías tener que pensar en dónde estás haciendo una pregunta. Al final, simplemente vaya a Google.
Y hoy, si pones lo que quieras, estamos empezando a utilizar gran parte del poder detrás del modo IA, directamente en las descripciones generales de IA. Entonces puedes preguntar con mucha intensidad, puedes poner una pregunta de cinco oraciones directamente en la búsqueda de Google.
Puedes intentarlo. Y luego debería activar la IA en la parte superior, es una vista previa. Y luego puedes profundizar en el modo AI y tener esto de ida y vuelta. Así es como se conectan estas cosas.
Lo mismo para tu cámara. Entonces, si tomas una fotografía de algo, ¿qué es esta planta? O como compro estos zapatos? Debería llevarte a una pequeña vista previa de la IA. Y luego, si profundizas, nuevamente, funciona con el modo AI. Puedes tener eso de ida y vuelta.
Entonces no deberías tener que pensar en eso. En última instancia, debería sentirse como una experiencia de producto simple y consistente. Pero obviamente esto es algo nuevo para nosotros. Por eso queríamos iniciarlo de manera que la gente pudiera usarlo y darnos su opinión con algo así como un punto de entrada directo, como google.com/AI”.
La respuesta de Stein muestra que Google está pasando de funciones separadas de IA a un sistema de búsqueda unificado que interpreta la intención y el contexto automáticamente.
- Para los usuarios, eso significa que escribir, hablar o tomar una fotografía se conectarán con el mismo proceso subyacente que decide cómo responder.
- Para los editores y los SEO, significa que la visibilidad dependerá menos de la optimización de las palabras clave y más de alinear el contenido con la forma en que Google entiende y responde a los diferentes tipos de preguntas.
Cómo el contenido puede encajar en las experiencias de búsqueda activadas por IA
Google está haciendo que los usuarios abandonen el paradigma tradicional de los diez enlaces azules hacia una experiencia de IA combinada. Los usuarios ya pueden ingresar preguntas que constan de varias oraciones y Google pasará automáticamente a un modo de preguntas y respuestas profundas en modo AI. La respuesta es una vista previa con una opción para iniciar una conversación más profunda de ida y vuelta.
Robbie Stein indicó que la experiencia de búsqueda con IA convergerá aún más, dependiendo de los comentarios de los usuarios y de cómo las personas interactúan con ellos.
Estos son cambios profundos que exigen que los editores se hagan preguntas profundas sobre cómo funciona el contenido:
- ¿Debería considerar cómo la selección de imágenes únicas, contenido de video útil y tutoriales paso a paso pueden encajar en sus estrategias de contenido?
- El descubrimiento de información es cada vez más conversacional, ¿su contenido encaja en ese contexto?
- El descubrimiento de información puede incluir cada vez más fotografías de cámaras, ¿su contenido encajará en ese tipo de búsqueda?
Estos son ejemplos de los tipos de preguntas en las que deberían pensar los editores, los SEO y los propietarios de tiendas.
Vea la entrevista en podcast con Robby Stein
Dentro del cambio de IA de Google: modo AI, descripciones generales de AI y visión para la búsqueda impulsada por AI | robbie stein
Imagen destacada/Captura de pantalla del vídeo Podcast de Lenny