Recientemente hablé con Jesse Dwyer de Perplexity sobre SEO y búsqueda con IA sobre en qué deberían centrarse los SEO en términos de optimización para la búsqueda con IA. Sus respuestas ofrecieron comentarios útiles sobre en qué deberían centrarse los editores y los SEO en este momento.
Búsqueda de IA hoy
Una conclusión importante que compartió Jesse es que la personalización está cambiando por completo.
«Tendría que decir que lo más importante y simple que hay que recordar sobre AEO versus SEO es que ya no es un juego de suma cero. Dos personas con la misma consulta pueden obtener una respuesta diferente en la búsqueda comercial, si la herramienta de inteligencia artificial que están usando carga la memoria personal en la ventana contextual (Perplexity, ChatGPT).
Mucho de esto se debe a la tecnología del índice (por qué en realidad existe una diferencia entre GEO y AEO). Pero sí, actualmente es exacto decir que (la mayoría) de las mejores prácticas tradicionales de SEO todavía se aplican”.
La conclusión de la respuesta de Dwyer es que la visibilidad de la búsqueda ya no se trata de un único resultado de búsqueda consistente. El contexto personal como papel en las respuestas de la IA significa que dos usuarios pueden recibir respuestas significativamente diferentes a la misma consulta con fuentes de contenido subyacentes posiblemente diferentes.
Si bien la infraestructura subyacente sigue siendo un índice de búsqueda clásico, el SEO sigue desempeñando un papel a la hora de determinar si el contenido es apto para ser recuperado. Se dice que Perplexity AI utiliza una forma de PageRank, que es un método basado en enlaces para determinar la popularidad y relevancia de los sitios web, por lo que proporciona una pista sobre algo en lo que los SEO deberían centrarse.
Sin embargo, como verá, lo que se recupera es muy diferente que en la búsqueda clásica.
Seguí con la siguiente pregunta:
Entonces, lo que estás diciendo (y corrígeme si me equivoco o estoy un poco equivocado) es que la Búsqueda clásica tiende a mostrar de manera confiable los mismos diez sitios para una consulta determinada. Pero para la búsqueda de IA, debido a la naturaleza contextual de las conversaciones de IA, es más probable que proporcionen una respuesta diferente para cada usuario.
Jess respondió:
«Eso es exacto, sí».
Procesamiento de subdocumentos: por qué la búsqueda con IA es diferente
Jesse continuó su respuesta hablando de lo que sucede detrás de escena para generar una respuesta en la búsqueda de IA.
Continuó:
“En cuanto a la tecnología de índice, la mayor diferencia en la búsqueda con IA en este momento se reduce al procesamiento de todo el documento versus el procesamiento de “subdocumentos”.
Los motores de búsqueda tradicionales indexan a nivel de documento completo. Miran una página web, la califican y la archivan.
Cuando se utiliza una herramienta de inteligencia artificial basada en esta arquitectura (como la búsqueda web ChatGPT), esencialmente realiza una búsqueda clásica, toma entre 10 y 50 documentos principales y luego le pide al LLM que genere un resumen. Es por eso que la búsqueda GPT se describe como “4 búsquedas en Bing con gabardina”; el chiste es direccionalmente preciso, porque el modelo genera una salida basada en resultados de búsqueda estándar.
Por eso llamamos a la estrategia de optimización para esto GEO (Generative Engine Optimization). Esa búsqueda de todo el documento sigue siendo esencialmente una búsqueda algorítmica, no IA, ya que los datos en el índice son toda la puntuación de página normal a la que estamos acostumbrados en SEO. El enfoque basado en la IA se conoce como “procesamiento de subdocumentos”.
En lugar de indexar páginas enteras, el motor indexa fragmentos granulares específicos (que no deben confundirse con lo que los SEO conocen como «fragmentos destacados»). Un fragmento, en el lenguaje de la IA, consta de entre 5 y 7 tokens, o de 2 a 4 palabras, excepto que el texto se ha convertido en números (mediante el proceso fundamental de la IA conocido como «transformador», que es la T en GPT). Cuando consulta un sistema de subdocumentos, no recupera 50 documentos; recupera alrededor de 130.000 tokens de los fragmentos más relevantes (alrededor de 26.000 fragmentos) para alimentar a la IA.
Sin embargo, esos números no son precisos. La cantidad real de fragmentos siempre es igual a una cantidad total de tokens que coincide con la capacidad total de la ventana de contexto del LLM específico. (Actualmente tienen un promedio de alrededor de 130.000 tokens). El objetivo es llenar completamente la ventana contextual del modelo de IA con la información más relevante, porque cuando saturas esa ventana, no dejas espacio al modelo para «alucinar» o inventar cosas.
Es decir, deja de ser un generador creativo y ofrece una respuesta más precisa. Este método de subdocumento es hacia donde se está moviendo la industria y por eso es más exacto llamarlo AEO (Answer Engine Optimization).
Obviamente esta descripción es una simplificación excesiva. Pero el contexto personal que hace que cada búsqueda ya no sea un resultado universal para cada usuario se debe a que el LLM puede tomar todo lo que sabe sobre el buscador y usarlo para ayudar a completar la ventana de contexto completa. Lo cual es mucha más información que un perfil de usuario de Google.
La diferenciación competitiva de una empresa como Perplexity, o cualquier otra empresa de búsqueda de IA que pase al procesamiento de subdocumentos, se produce en la tecnología entre el índice y los fragmentos de 26K. Con técnicas como la modulación de la computación, la reformulación de consultas y modelos propietarios que se ejecutan en el índice mismo, podemos lograr que esos fragmentos sean más relevantes para la consulta, que es la mayor palanca para obtener una respuesta mejor y más rica.
Por cierto, esto es menos relevante para el SEO, pero todo este concepto es también la razón por la que la API de búsqueda de Perplexity es tan legítima. Para los desarrolladores que crean búsquedas en cualquier producto, la diferencia es el día y la noche”.
Dwyer contrasta dos enfoques de indexación y recuperación fundamentalmente diferentes:
- Indexación de documentos completos, donde las páginas se recuperan y clasifican como unidades completas.
- Indexación de subdocumentos, donde el significado se almacena y recupera como fragmentos granulares.
En la primera versión, la IA se sitúa por encima de la búsqueda tradicional y resume las páginas clasificadas. En el segundo, el sistema de inteligencia artificial recupera fragmentos directamente y nunca analiza los documentos completos.
También describió que la calidad de las respuestas está limitada por la saturación de la ventana de contexto, y que la precisión surge al llenar toda la ventana de contexto del modelo con fragmentos relevantes. Cuando la recuperación logra saturar esa ventana, el modelo tiene poca capacidad para inventar hechos o alucinar.
Por último, dice que “modular la computación, reformular las consultas y los modelos propietarios” es parte de su salsa secreta para recuperar fragmentos que son muy relevantes para la consulta de búsqueda.
Imagen destacada de Shutterstock/Summit Art Creations



