Web Almanac es un informe anual que traduce el conjunto de datos de HTTP Archive en información práctica, combinando mediciones a gran escala con interpretación experta de expertos de la industria.
Para obtener información sobre lo que el informe 2025 puede decirnos sobre lo que realmente está sucediendo en SEO, hablé con uno de los autores de la actualización del capítulo de SEO, Chris Green, un conocido experto de la industria con más de 15 años de experiencia.
Chris compartió conmigo algunas sorpresas sobre la adopción de archivos llms.txt y cómo los sistemas CMS están dando forma al SEO mucho más de lo que creemos. Hechos poco conocidos que los datos surgieron en la investigación y conocimientos sorprendentes que normalmente pasarían desapercibidos.
Puede ver la entrevista completa con Chris en la grabación en mi humilde opinión al final o continuar leyendo el resumen del artículo.
“Creo que los datos [in the Web Almanac] Me ayudó a mostrarme que todavía hay muchas cosas rotas. La web es realmente desordenada. Realmente desordenado”.
La gestión de bots ya no es «Google, ¿o no Google?»
Aunque la gestión de bots ha sido binaria durante algún tiempo (permitir/no permitir a Google), se está convirtiendo en un nuevo desafío. Algo que Eoghan Henn había aprendido anteriormente y Chris encontró en su investigación.
Comenzamos nuestra conversación hablando de cómo los archivos robots se utilizan ahora para expresar la intención sobre el acceso de los rastreadores de IA.
Chris respondió diciendo que, en primer lugar, es necesario ser consciente de los diferentes rastreadores, cuál es su intención y, fundamentalmente, qué podría hacer su bloqueo, es decir, bloquear algunos robots tiene mayores implicaciones que otros.
En segundo lugar, requiere que los proveedores de plataformas escuchen esas reglas y traten esos archivos como corresponde. Eso no siempre sucede, y la ética en torno a los robots y los rastreadores de inteligencia artificial es un área que los SEO deben conocer y comprender más.
Chris explicó que aunque el informe de Almanac mostró el síntoma del uso de robots.txt, los SEO deben avanzar y comprender cómo controlar los bots.
“No se trata sólo de entender cuál es el impacto de cada [bot/crawler] es, sino también cómo comunicarlo a la empresa. Si tienes un equipo que quiere reducir al máximo el rastreo de bots porque quiere ahorrar dinero, eso podría afectar desesperadamente la visibilidad de tu IA”.
Del mismo modo, es posible que tenga un equipo editorial que no quiera que todo su trabajo sea eliminado y regurgitado. Entonces, nosotros, como SEO, debemos comprender esa dinámica, cómo controlarla técnicamente, pero también cómo presentar ese argumento en el negocio”. Chris explicó.
A medida que se introduzcan más plataformas y rastreadores, los equipos de SEO tendrán que considerar todas las implicaciones y colaborar con otros equipos para garantizar que se aplique el equilibrio adecuado de acceso al sitio.
Llms.txt se está aplicando a pesar de que no se ha adoptado una plataforma oficial
El primer hallazgo sorprendente del informe fue que la adopción del estándar llms.txt propuesto es de alrededor del 2% de los sitios del conjunto de datos.
Llms.txt ha sido un tema candente en la industria, y muchos SEO descartan el valor del archivo. Algunas herramientas, como Yoast, han incluido el estándar, pero hasta el momento no ha habido ninguna demostración de su adopción real por parte de los proveedores de IA.
Chris admitió que el 2% fue una adopción mayor de la que esperaba. Pero gran parte de ese crecimiento parece estar impulsado por herramientas de SEO que han agregado llms.txt como característica predeterminada u opcional.
Chris se muestra escéptico sobre su impacto a largo plazo. Como explicó, Google ha declarado repetidamente que no planea utilizar llms.txt, y sin un compromiso claro de los principales proveedores de IA, especialmente OpenAI, corre el riesgo de seguir siendo un gesto simbólico y de nicho en lugar de un estándar funcional.
Dicho esto, Chris ha experimentado datos de archivos de registro que sugieren que algunos rastreadores de IA ya están recuperando estos archivos y, en casos limitados, incluso se puede hacer referencia a ellos como fuentes. Green ve esto menos como una ventaja competitiva y más como un mecanismo potencial de paridad, algo que puede ayudar a comprender ciertos sitios, pero no elevarlos dramáticamente.
«Google ha dicho una y otra vez que no planea usar llms.txt, lo cual reiteraron en Zurich en Search Central el año pasado. Creo que, fundamentalmente, Google no lo necesita, ya que tienen el rastreo y la renderización bien definidos. Por lo tanto, creo que depende de si OpenAI dice que lo usarán o no, y creo que tienen otros problemas además de tratar de establecer un nuevo estándar».
Diferente, pero tranquilizadoramente igual donde importa
Continué preguntándole a Chris cómo los SEO pueden equilibrar la diferencia entre la visibilidad de los motores de búsqueda y la visibilidad de las máquinas.
Él cree que existe «una superposición significativa entre lo que era el SEO antes de que empezáramos a preocuparnos por esto y dónde nos encontramos a principios de 2026».
A pesar de esta superposición, Chris dejó claro que si alguien piensa que la optimización para la búsqueda y las máquinas es lo mismo, entonces no es consciente de los dos sistemas diferentes, las diferentes ponderaciones y el hecho de que la interpretación, la recuperación y la generación son completamente diferentes.
Aunque existen diferentes sistemas y diferentes capacidades en juego, no cree que el SEO haya cambiado fundamentalmente. Su creencia es que la optimización SEO y la IA son “más o menos iguales, tranquilizadoramente iguales en los lugares que importan, pero habrá que abordarlas de manera diferente” porque difieren en la forma en que se entregan y consumen los resultados.
Chris dijo que los SEO se orientarán más hacia los feeds, la gestión de feeds y la optimización de feeds.
«El protocolo de comercio universal de Google, en el que potencialmente se pueden realizar transacciones directamente desde los resultados de búsqueda o desde una ventana de Gemini, obviamente cambia mucho. Es simplemente otro movimiento para sacar al sitio web del circuito. Pero la información, lo que en realidad estamos optimizando, todavía necesita ser optimizado. Simplemente está en un lugar diferente».
Las plataformas CMS dan forma a la Web más de lo que los SEO creen
Quizás la mayor sorpresa de Web Almanac 2025 fue la escala de influencia ejercida por las plataformas CMS y los proveedores de herramientas.
Chris dijo que no se había dado cuenta de cuán grande es ese impacto. «Plataformas como Shopify, Wix, etc. están dando forma al estado actual del SEO tecnológico probablemente más profundamente de lo que creo que mucha gente realmente cree».
Chris continuó explicando que «por muy bien intencionados que sean los SEO individuales, creo que nuestro impacto general en la web es mínimo fuera de los proveedores de plataformas CMS. Yo diría que si estás realmente decidido a tener un impacto fuera de tus clientes específicos, debes impulsar a WordPress, Wix, Shopify o algunos de los grandes proveedores de software dentro de esos ecosistemas».
Esto crea oportunidades: los sitios web que implementan correctamente los estándares técnicos podrían lograr una diferenciación significativa cuando la mayoría de los sitios van por detrás de las mejores prácticas.
Una de las ideas más interesantes de esta conversación fue que muchas cosas en la web están rotas y el poco impacto que tenemos. [SEOs] realmente lo tengo.
Chris explicó que «muchos SEO creen que Google nos debe porque mantenemos Internet para ellos. Nosotros hacemos el trabajo sucio, pero tampoco creo que tengamos tanto impacto a nivel industrial como a algunos les gusta creer. Creo que los datos del Web Almanac me ayudaron a mostrarme que todavía hay muchas cosas rotas. La Web es realmente desordenada. Realmente desordenada».
Los agentes de IA no reemplazarán a los SEO, pero sí reemplazarán los malos procesos
Nuestra conversación concluyó con los agentes de IA y la automatización. Chris comenzó diciendo: “Es fácil malinterpretar a los agentes porque usamos el término de manera diferente”.
Hizo hincapié en que los agentes no reemplazan la experiencia, sino que aceleran el proceso. La mayoría de los flujos de trabajo de SEO implican la recopilación de datos repetitivos y el reconocimiento de patrones, áreas que se adaptan bien a la automatización. El valor de la experiencia humana radica en diseñar procesos, aplicar juicios y contextualizar los resultados.
Los agentes en etapa inicial podrían automatizar entre el 60% y el 80% del trabajo, similar a un pasante altamente capacitado. «Se necesitarán sus conocimientos y experiencia para que eso sea aplicable a su contexto determinado. Y no me refiero sólo al contexto del marketing web o al contexto del comercio electrónico. Me refiero al contexto del negocio para el que está trabajando específicamente», dijo.
Chris diría que muchos SEO no dedican suficiente tiempo a personalizar lo que hacen específicamente para el cliente. Él cree que existe una oportunidad de construir un proceso 80% automatizado y luego agregar su valor real cuando su intervención humana optimice el último 20% de la lógica empresarial.
Los SEO que interactúan con los agentes, perfeccionan los flujos de trabajo y evolucionan junto con la automatización tienen muchas más probabilidades de seguir siendo indispensables que aquellos que se resisten por completo al cambio.
Sin embargo, al experimentar con la automatización, Chris advirtió que deberíamos evitar automatizar procesos defectuosos.
«Es necesario comprender el proceso que se intenta optimizar. Si el proceso no es muy bueno, se acaba de crear una máquina para producir mediocridad a escala, lo que francamente no ayuda a nadie».
Chris cree que esto dará a los SEO una ventaja a medida que la IA se adopte más ampliamente. «Sugiero que las personas que se comprometan con él y mejoren esos procesos y muestren cómo pueden evolucionar continuamente, serán las que tendrán mayor longevidad».
Los SEO pueden tener éxito interactuando con la complejidad
El Web Almanac 2025 no sugiere que el SEO esté siendo reemplazado, pero sí muestra que su función se está expandiendo de maneras a las que muchos equipos aún no se han adaptado por completo. Los principios básicos como la capacidad de rastreo y la higiene técnica siguen siendo importantes, pero ahora existen dentro de un ecosistema más complejo formado por rastreadores de IA, feeds, sistemas cerrados y decisiones a nivel de plataforma.
Cuando los estándares técnicos no se implementan a escala de manera adecuada, quienes comprenden los sistemas que los configuran aún pueden obtener una ventaja significativa.
La automatización funciona mejor cuando acelera procesos bien diseñados y falla cuando simplemente aumenta la ineficiencia. Los SEO que se centran en el diseño de procesos, el juicio y el contexto empresarial seguirán siendo esenciales a medida que la automatización se vuelva más común.
En una web cada vez más desordenada y controlada por máquinas, los SEO que tendrán éxito serán aquellos que estén dispuestos a abordar esa complejidad en lugar de ignorarla.
El SEO en 2026 no se trata de elegir entre búsqueda e IA; se trata de comprender cómo múltiples sistemas consumen contenido y dónde ocurre ahora la optimización.
Mire la entrevista completa en video con Chris Green aquí:
Gracias a Chris Green por ofrecer sus ideas y ser mi invitado en mi humilde opinión.
Más recursos:
Imagen destacada: Shelley Walsh/Search Engine Journal



