Bienvenido al SEO Pulse de la semana. Las actualizaciones de esta semana afectan la forma en que el Modo AI personaliza las respuestas, qué robots de IA pueden acceder a su sitio y por qué su elección de dominio sigue siendo importante para la visibilidad de la búsqueda.
Esto es lo que importa para usted y su trabajo.
Google conecta Gmail y fotos al modo AI
Google está implementando Inteligencia personal, una función que conecta Gmail y Google Photos con el modo AI en la búsqueda, brindando respuestas personalizadas basadas en los propios datos de los usuarios.
Hechos clave: La función está disponible para los suscriptores de Google AI Pro y AI Ultra que opten por participar. Se lanza como un experimento de Labs para usuarios elegibles en los EE. UU. Google dice que no se entrena en la bandeja de entrada de Gmail ni en la biblioteca de fotos de los usuarios.
Por qué esto importa
Esta es la función de contexto personal que Google prometió en I/O pero que se retrasó hasta ahora. Cubrimos el retraso en diciembre cuando Nick Fox, vicepresidente senior de conocimiento e información de Google, dijo que la función «aún estaba por llegar» sin un cronograma público.
Para los 75 millones de usuarios activos diarios que Fox informó en el modo AI, esto podría reducir la cantidad de contexto que se necesita escribir para obtener respuestas personalizadas. Los ejemplos de Google incluyen recomendaciones de viajes que tienen en cuenta las reservas de hotel de Gmail y fotos de viajes anteriores, o sugerencias de abrigos que tienen en cuenta las marcas preferidas y el clima de los próximos viajes.
Los efectos del SEO dependen de cómo esto cambie los patrones de consulta. Si los usuarios confían en que Google extraiga el contexto de sus correos electrónicos y fotografías en lugar de escribirlo, las consultas pueden volverse más cortas y ambiguas. Eso hace que sea más difícil orientar búsquedas de cola larga con señales de intención explícitas.
Lo que dice la gente
La primera reacción social es enmarcar esto como si Google estuviera empujando el modo AI de «preguntar y responder» a «ya conoce su contexto». Robby Stein, vicepresidente de producto de la Búsqueda de Google, lo posicionó como una experiencia de búsqueda más personal impulsada por conexiones de datos voluntarias.
En LinkedIn, la discusión pasó rápidamente a las compensaciones entre confianza y privacidad. Michele Curtis, especialista en marketing de contenidos, planteó la personalización como algo que sólo funciona cuando la confianza es lo primero.
Curtis escribió:
«La personalización sólo funciona cuando se construye la confianza antes que la inteligencia».
Syed Shabih Haider, fundador de Fluxxy AI, planteó preocupaciones de seguridad al conectar múltiples aplicaciones.
Haider escribió:
«Inteligencia personal… sí, las características/beneficios parecen increíbles… pero no puedo evitar preguntarme sobre la seguridad de los datos. Una vez que todas las aplicaciones están conectadas, el riesgo de vulneración se vuelve extremadamente alto…»
Lea nuestra cobertura completa: Google lanza inteligencia personal en modo IA
Los robots de entrenamiento de IA pierden acceso mientras los robots de búsqueda se expanden
Hostinger analizó 66 mil millones de solicitudes de bots en más de 5 millones de sitios web y descubrió que los rastreadores de IA están siguiendo dos caminos diferentes. Los robots de entrenamiento están perdiendo acceso a medida que más sitios los bloquean. Los robots de búsqueda y asistentes están ampliando su alcance.
Hechos clave: Hostinger informa una cobertura del 55,67% para GPTBot y una cobertura promedio del 55,67% para OAI-SearchBot, pero sus trayectorias difieren. GPTBot, que recopila datos de entrenamiento, cayó del 84% al 12% durante el período de medición. OAI-SearchBot, que impulsa la búsqueda ChatGPT, alcanzó ese promedio sin la misma caída. El robot de Google mantuvo una cobertura del 72%. El bot de Apple alcanzó el 24,33%.
Por qué esto importa
Los datos confirman lo que hemos rastreado a través de múltiples estudios durante el año pasado. BuzzStream descubrió que el 79% de los principales editores de noticias bloquean al menos un robot de capacitación. El resumen del año de Cloudflare mostró que GPTBot, ClaudeBot y CCBot tenían la mayor cantidad de directivas de rechazo total. Los datos de Hostinger ponen cifras sobre la brecha de acceso entre los rastreadores de capacitación y de búsqueda.
La distinción es importante porque estos robots tienen diferentes propósitos. Los robots de capacitación recopilan datos para construir modelos, mientras que los robots de búsqueda recuperan contenido en tiempo real cuando los usuarios hacen preguntas. Bloquear los robots de entrenamiento lo excluye de futuras actualizaciones del modelo, y bloquear los robots de búsqueda significa que no aparecerá cuando las herramientas de inteligencia artificial intenten citar fuentes.
Como práctica recomendada, verifique los registros de su servidor para ver qué está afectando a su sitio y luego tome decisiones de bloqueo según sus objetivos.
Lo que dice la gente
En el aspecto práctico de SEO, el consejo más consistente es separar la “capacitación” de la “búsqueda y recuperación” en las decisiones sobre robots, siempre que sea posible. Aleyda Solís anteriormente resumió la idea como bloquear GPTBot y al mismo tiempo permitir OAI-SearchBot, para que su contenido pueda aparecer en experiencias de búsqueda estilo ChatGPT sin necesidad de utilizarlo para la capacitación de modelos.
Solís wrote:
«no permitir el agente de usuario ‘GPTbot’ pero permitir ‘OAI-SearchBot'»
Al mismo tiempo, los desarrolladores y operadores de sitios siguen enfatizando el costo del tráfico de bots. En una discusión de r/webdev, un comentarista dijo que los robots de IA representaban el 95% de las solicitudes antes de bloquearlas y limitarlas.
Un comentarista en r/webdev escribió:
«El 95% de las solicitudes a uno de nuestros sitios web eran robots de inteligencia artificial antes de que comenzara a bloquearlos y limitarlos»
Lea nuestra cobertura completa: El rastreador de búsqueda OpenAI supera el 55% de cobertura en el estudio de Hostinger
Mueller: el alojamiento gratuito de subdominios dificulta el SEO
John Mueller, de Google, advirtió que los servicios gratuitos de alojamiento de subdominios crean desafíos para el SEO incluso cuando los editores hacen todo lo demás bien. El consejo surgió en respuesta a una publicación en Reddit de un editor cuyo sitio aparece en Google pero no aparece en los resultados de búsqueda normales.
Hechos clave: El editor utiliza Digitalplat Domains, un servicio de subdominio gratuito en la Lista pública de sufijos. Mueller explicó que los servicios de subdominios gratuitos atraen spam y contenido que requiere poco esfuerzo, lo que dificulta que los motores de búsqueda evalúen la calidad de un sitio individual. Recomendó generar tráfico directo a través de la promoción y la participación de la comunidad en lugar de esperar primero la visibilidad en las búsquedas.
Por qué esto importa
La orientación de Mueller se ajusta a un patrón que hemos cubierto a lo largo de los años. Gary Illyes, de Google, advirtió anteriormente contra los TLD baratos por la misma razón. Cuando una extensión de dominio se ve invadida por spam, los motores de búsqueda pueden tener dificultades para identificar sitios legítimos entre el ruido.
El alojamiento gratuito de subdominios crea una versión específica de este problema. Si bien la Lista Pública de Sufijos está destinada a tratar estos subdominios como unidades registrables separadas, la señal del vecindario aún puede ser importante. Si la mayoría de los subdominios de un host contienen spam, los sistemas de Google tienen que trabajar más para encontrar el suyo.
Esto afecta a cualquiera que esté considerando el alojamiento gratuito como una forma de probar una idea antes de comprar un dominio real. El propio entorno de prueba pasa a formar parte de la evaluación. Como escribió Mueller: «Ser visible en los resultados de búsqueda populares no es el primer paso para convertirse en una presencia web útil y popular».
Para cualquiera que asesore a clientes o cree nuevos proyectos, la inversión en el dominio es parte de la base del SEO. Comenzar con un subdominio gratuito puede ahorrar dinero por adelantado, pero agrega fricciones a la visibilidad que evita un dominio adecuado.
Lo que dicen los profesionales de SEO
La mayor parte del intercambio social aquí trata la analogía del “vecindario” de Mueller como la conclusión principal. En el intercambio original de Reddit, dijo que publicar en servidores de subdominios gratuitos puede significar abrir tiendas entre “compañeros de piso problemáticos”, lo que dificulta que los sistemas de búsqueda comprendan el valor de su sitio en contexto.
Mueller escribió:
«Abrir una tienda en un sitio que está lleno de… ‘compañeros de piso’ potencialmente problemáticos».
En LinkedIn, la historia se está recirculando como un recordatorio más amplio de que las decisiones de alojamiento “barato o gratuito” pueden limitar silenciosamente el rendimiento incluso cuando todo lo demás parece correcto. Fernando Páez V, especialista en marketing digital, lo calificó como un problema de visibilidad vinculado a entornos con mucho spam.
Páez V escribió:
“Servicios gratuitos de alojamiento de subdominios… atraen spam y dificultan que los sitios legítimos obtengan visibilidad”
Lea nuestra cobertura completa: Mueller de Google: el alojamiento gratuito de subdominios dificulta el SEO
Tema de la semana: el acceso es la nueva ventaja
Las historias de esta semana comparten un elemento común. El acceso, ya sea a datos personales, a sitios web a través de bots o a una evaluación justa eligiendo el dominio correcto, da forma a los resultados antes de que se produzca cualquier optimización.
Personal Intelligence le brinda acceso al modo AI a su correo electrónico y fotos, cambiando el tipo de consultas que deben realizarse. Los datos de Hostinger muestran que los robots de búsqueda obtienen acceso mientras que los robots de entrenamiento quedan bloqueados. La advertencia de subdominio de Mueller nos recuerda que la elección del dominio determina si los sistemas de Google dan a su contenido una evaluación justa.
El hilo común es que la visibilidad depende cada vez más de lo que se permite entrar y dónde se construye. Bloquear los bots incorrectos puede reducir las posibilidades de que aparezcan o sean citados en herramientas de inteligencia artificial. Construir sobre un dominio con mucho spam te pone en desventaja antes de escribir una palabra. Y las funciones de inteligencia artificial de Google ahora tienen acceso a un contexto personal al que los editores no pueden acceder ni observar.
Para los profesionales, esto significa que las decisiones de acceso, tanto las suyas como las de las plataformas, dan forma a los resultados más que las ganancias incrementales de optimización. Revise los permisos de su rastreador y las opciones de dominio, y observe cómo el contexto personal en el modo AI cambia las consultas para las que intenta clasificar.
Historias principales de la semana:
Más recursos:
Imagen de portada: Accogliente Design/Shutterstock



