Mejore sus habilidades con los conocimientos expertos semanales de Growth Memo. ¡Suscríbete gratis!
Cada año, después de las vacaciones de invierno, paso unos días recogiendo el contexto del año pasado y recordándome dónde se encuentran mis clientes. Quiero aprovechar la oportunidad para compartir mi comprensión de dónde nos encontramos con la búsqueda con IA, para que puedas retomar rápidamente el ritmo de las cosas.
Como recordatorio, el ambiente en torno a ChatGPT se volvió un poco amargo a finales de 2025:
- Google lanzó el Gemini 3 superior, lo que provocó que Sam Altman anunciara un Código Rojo (irónicamente, tres años después de que Google hiciera lo mismo en el lanzamiento de ChatGPT 3.5).
- OpenAI realizó una serie de inversiones circulares que generaron sorpresa y preguntas sobre cómo financiarlas.
- ChatGPT, que envía la mayoría de todos los LLM, alcanza como máximo el 4% del tráfico de referencia orgánico actual (principalmente Google).
Sobre todo, todavía no sabemos el valor de una mención en una respuesta de IA. Sin embargo, el tema de la IA y los LLM no podría ser más importante porque la experiencia del usuario de Google está pasando de una lista de resultados a una respuesta definitiva.
Un gran “gracias” a Dan Petrovic y Andrea Volpini por revisar mi borrador y agregar conceptos significativos.
Recuperado → Citado → Confiable
La optimización de la visibilidad de la búsqueda con IA sigue un proceso similar al clásico «rastreo, indexación, clasificación» de los motores de búsqueda:
- Los sistemas de recuperación deciden qué páginas ingresan al conjunto de candidatos.
- El modelo selecciona qué fuentes citar.
- Los usuarios deciden en qué cita confiar y actuar en consecuencia.
Advertencias:
- Muchas de las recomendaciones se superponen fuertemente con las mejores prácticas comunes de SEO. Mismas tácticas, nuevo juego.
- No pretendo tener una lista exhaustiva de todo lo que funciona.
- No se incluyen factores controvertidos como esquema o llms.txt.
Consideración: ingresar al grupo de candidatos
Antes de que cualquier contenido entre en el conjunto de consideración (conexión a tierra) del modelo, debe rastrearse, indexarse y recuperarse en milisegundos durante la búsqueda en tiempo real.
Los factores que impulsan la consideración son:
- Tasa de selección y sesgo primario.
- Tiempo de respuesta del servidor.
- Relevancia de los metadatos.
- Feeds de productos (en comercio electrónico).
1. Tasa de selección y sesgo primario
- Definición: El sesgo primario mide las asociaciones de atributos de marca que tiene un modelo antes de basarse en los resultados de búsqueda en vivo. La tasa de selección mide la frecuencia con la que el modelo elige su contenido del grupo de candidatos de recuperación.
- Por qué es importante: Los LLM están sesgados por los datos de capacitación. Los modelos desarrollan puntuaciones de confianza para las relaciones marca-atributo (por ejemplo, “barato”, “duradero”, “rápido”) independientemente de la recuperación en tiempo real. Estas asociaciones preexistentes influyen en la probabilidad de citación incluso cuando su contenido ingresa al grupo de candidatos.
- Meta: Comprenda qué atributos asocia el modelo con su marca y qué confianza tiene en su marca como entidad. Fortalecer sistemáticamente esas asociaciones a través de campañas específicas dentro y fuera de la página.
2. Tiempo de respuesta del servidor
- Definición: El tiempo entre una solicitud del rastreador y el primer byte de datos de respuesta del servidor (TTFB = Time To First Byte).
- Por qué es importante: Cuando los modelos necesitan resultados web para respuestas de razonamiento (RAG), necesitan recuperar el contenido como un rastreador de motor de búsqueda. Aunque la recuperación se basa principalmente en índices, los servidores más rápidos ayudan con la representación, los flujos de trabajo agentes, la frescura y la distribución de consultas compuestas. La recuperación de LLM opera con presupuestos de latencia ajustados durante la búsqueda en tiempo real. Las respuestas lentas impiden que las páginas entren en el grupo de candidatos porque pasan por alto la ventana de recuperación. Los tiempos de respuesta constantemente lentos provocan una limitación de la velocidad de rastreo.
- Meta: Mantener tiempos de respuesta del servidor <200ms. Los sitios con tiempos de carga de <1 segundo reciben 3 veces más solicitudes de Googlebot que los sitios >3 segundos. Para los rastreadores LLM (GPTBot, Google-Extended), las ventanas de recuperación son incluso más estrictas que las de la búsqueda tradicional.
3. Relevancia de los metadatos
- Definición: Etiquetas de título, metadescripciones y estructura de URL que los LLM analizan al evaluar la relevancia de la página durante la recuperación en vivo.
- Por qué es importante: Antes de seleccionar contenido para formar respuestas de IA, los LLM analizan los títulos en busca de relevancia temática, las descripciones como resúmenes de documentos y las URL como pistas de contexto para la relevancia y confiabilidad de la página.
- Meta: Incluir conceptos de destino en los títulos y descripciones (!) para que coincidan con el idioma de las indicaciones del usuario. Cree URL descriptivas de palabras clave, que potencialmente incluyan incluso el año en curso para indicar que están actualizados.
4. Disponibilidad de feeds de productos (comercio electrónico)
- Definición: Catálogos de productos estructurados enviados directamente a plataformas LLM con datos de inventario, precios y atributos en tiempo real.
- Por qué es importante: Las fuentes directas evitan las restricciones de recuperación tradicionales y permiten a los LLM responder consultas de compras transaccionales («dónde puedo comprar», «mejor precio») con información precisa y actual.
- Meta: Envíe feeds de productos controlados por comerciantes al programa comercial de ChatGPT (chatgpt.com/merchants) en formato JSON, CSV, TSV o XML con atributos completos (título, precio, imágenes, reseñas, disponibilidad, especificaciones). Implementar ACP (Agentic Commerce Protocol) para compras agentes.
Relevancia: ser seleccionado para citación
“The Attribution Crisis in LLM Search Results” (Strauss et al., 2025) informa bajas tasas de citas incluso cuando los modelos acceden a fuentes relevantes.
- El 24% de las respuestas de ChatGPT (4o) se generan sin buscar explícitamente ningún contenido en línea.
- Gemini no proporciona ninguna cita en la que se pueda hacer clic en el 92% de las respuestas.
- Perplexity visita unas 10 páginas relevantes por consulta, pero cita sólo tres o cuatro.
Los modelos sólo pueden citar fuentes que ingresan a la ventana de contexto. Las menciones previas a la formación a menudo no se atribuyen. La recuperación en vivo agrega una URL que permite la atribución.
5. Estructura del contenido
- Definición: La jerarquía semántica de HTML, los elementos de formato (tablas, listas, preguntas frecuentes) y la densidad de hechos que hacen que las páginas sean legibles por máquina.
- Por qué es importante: Los LLM extraen y citan pasajes específicos. La estructura clara hace que las páginas sean más fáciles de analizar y extraer. Dado que las indicaciones promedian cinco veces la longitud de las palabras clave, el contenido estructurado que responde a preguntas de varias partes supera a las páginas de una sola palabra clave.
- Meta: Utilice HTML semántico con jerarquías claras de etiquetas H, tablas para comparaciones y listas para enumeraciones. Aumente la densidad de hechos y conceptos para maximizar la probabilidad de contribución de fragmentos.
6. Cobertura de preguntas frecuentes
- Definición: Secciones de preguntas y respuestas que reflejan las frases conversacionales que los usuarios emplean en las indicaciones de LLM.
- Por qué es importante: Los formatos de preguntas frecuentes se alinean con la forma en que los usuarios consultan los LLM («Cómo puedo…», «¿Cuál es la diferencia entre…»). Esta coincidencia estructural y lingüística aumenta la probabilidad de citas y menciones en comparación con el contenido optimizado para palabras clave.
- Meta: Cree bibliotecas de preguntas frecuentes a partir de preguntas reales de clientes (tickets de soporte, llamadas de ventas, foros comunitarios) que capturen patrones emergentes. Supervise la actualización de las preguntas frecuentes a través del esquema lastReviewed o DateModified.
7. Frescura del contenido
- Definición: Actualidad de las actualizaciones de contenido medida por las marcas de tiempo de la «última actualización» y los cambios de contenido reales.
- Por qué es importante: Los LLM analizan los metadatos actualizados por última vez para evaluar la actualidad de la fuente y priorizar la información reciente como más precisa y relevante.
- Meta: Actualice el contenido dentro de los últimos tres meses para obtener el máximo rendimiento. Más del 70% de las páginas citadas por ChatGPT se actualizaron en 12 meses, pero el contenido actualizado en los últimos tres meses tiene el mejor rendimiento en todos los sentidos.
8. Menciones de terceros («Webutation»)
- Definición: Menciones, reseñas y citas de marcas en dominios externos (editores, sitios de reseñas, medios de noticias) en lugar de propiedades propias.
- Por qué es importante: Los LLM valoran más la validación externa que la autopromoción cuanto más se acerca la intención del usuario a una decisión de compra. El contenido de terceros proporciona una verificación independiente de las afirmaciones y establece la relevancia de la categoría mediante menciones conjuntas con autoridades reconocidas. Aumentan la entidad dentro de grandes gráficos de contexto.
- Meta: El 85% de las menciones de marca en la búsqueda de IA para mensajes de alta intención de compra provienen de fuentes de terceros. Obtenga vínculos de retroceso contextuales de dominios autorizados y mantenga perfiles completos en plataformas de revisión de categorías.
9. Posición de búsqueda orgánica
- Definición: Clasificación de páginas en las páginas de resultados de motores de búsqueda tradicionales (SERP) para consultas relevantes.
- Por qué es importante: Muchos LLM utilizan motores de búsqueda como fuentes de recuperación. Las clasificaciones orgánicas más altas aumentan la probabilidad de ingresar al grupo de candidatos del LLM y recibir menciones.
- Meta: Clasifique en el top 10 de Google para variaciones de consultas en torno a sus temas principales, no solo términos principales. Dado que las indicaciones de LLM son conversacionales y variadas, las páginas clasificadas para muchas variaciones de cola larga y basadas en preguntas tienen una mayor probabilidad de citación. Las páginas en el top 10 muestran una fuerte correlación (~0,65) con las menciones de LLM, y el 76% de las citas de AI Overview provienen de estas posiciones. Advertencia: la correlación varía según el LLM. Por ejemplo, la superposición es alta para las descripciones generales de IA pero baja para ChatGPT.
Selección de usuario: ganar confianza y acción
La confianza es fundamental porque estamos tratando con una única respuesta en la búsqueda de IA, no con una lista de resultados de búsqueda. Optimizar para generar confianza es similar a optimizar para obtener tasas de clics en la búsqueda clásica, solo que lleva más tiempo y es más difícil de medir.
10. Experiencia demostrada
- Definición: Credenciales visibles, certificaciones, firmas y puntos de prueba verificables que establecen la autoridad del autor y la marca.
- Por qué es importante: La búsqueda por IA ofrece respuestas únicas en lugar de listas clasificadas. Los usuarios que hacen clic requieren señales de confianza más fuertes antes de tomar medidas porque están validando un reclamo definitivo.
- Meta: Muestre de manera destacada las credenciales de los autores, las certificaciones de la industria y las pruebas verificables (logotipos de clientes, métricas de estudios de casos, resultados de pruebas de terceros, premios). Respalde las afirmaciones de marketing con evidencia.
11. Presencia de contenido generado por el usuario
- Definición: Representación de la marca en plataformas impulsadas por la comunidad (Reddit, YouTube, foros) donde los usuarios comparten experiencias y opiniones.
- Por qué es importante: Los usuarios validan las respuestas de la IA sintética comparándolas con la experiencia humana. Cuando aparecen las descripciones generales de IA, los clics en Reddit y YouTube crecen del 18 % al 30 % porque los usuarios buscan pruebas sociales.
- Meta: Cree una presencia positiva en subreddits, YouTube y foros relevantes para la categoría. YouTube y Reddit se encuentran constantemente entre los 3 dominios más citados en los LLM.
De la elección a la convicción
La búsqueda pasa de la abundancia a la síntesis. Durante dos décadas, la lista de clasificación de Google dio a los usuarios la posibilidad de elegir. La búsqueda con IA ofrece una respuesta única que comprime múltiples fuentes en una respuesta definitiva.
La mecánica difiere del SEO de principios de la década de 2000:
- Las ventanas de recuperación reemplazan los presupuestos de rastreo.
- La tasa de selección reemplaza al PageRank.
- La validación de terceros reemplaza el texto ancla.
El imperativo estratégico es idéntico: ganar visibilidad en la interfaz donde los usuarios buscan. El SEO tradicional sigue siendo fundamental, pero la visibilidad de la IA exige diferentes estrategias de contenido:
- La cobertura de consultas conversacionales importa más que las clasificaciones de los términos principales.
- La validación externa importa más que el contenido propio.
- La estructura importa más que la densidad de palabras clave.
Las marcas que crean programas de optimización sistemáticos ahora obtendrán ventajas a medida que aumente el tráfico de LLM. El paso de listas clasificadas a respuestas definitivas es irreversible.
Imagen publicada: Paulo Bobita/Search Engine Journal



