Google Search Central APAC 2025: Todo desde el día 2

Google Search Central APAC 2025: Todo desde el día 2


El segundo día de Google Search Central Live APAC 2025 comenzó con un breve vínculo con la inmersión profunda del día anterior en gatear, antes de moverse directamente a la indexación.

Cherry Prommawin abrió guiándonos a través de cómo Google analiza HTML y destaca las etapas clave en la indexación:

  1. HTML PARSING.
  2. Renderización y ejecución de JavaScript.
  3. Deduplicación.
  4. Extracción de características.
  5. Extracción de señal.

Esto estableció el tema para el resto del día.

Cherry señaló que Google primero normaliza el HTML sin procesar en un DOM, luego busca elementos de encabezado y navegación, y determina qué sección contiene el contenido principal. Durante este proceso, también extrae elementos como REL = canonical, hreflang, enlaces y anclajes, y etiquetas meta-robots.

«No hay preferencia entre sitios web receptivos versus sitios web dinámicos/adaptativos. Google no intenta detectar esto y no tiene una ponderación preferencial». – Cherry Prommawin

Los enlaces siguen siendo centrales en la estructura de la web, tanto para el descubrimiento como para la clasificación:

«Los enlaces siguen siendo una parte importante de Internet y se usan para descubrir nuevas páginas, y para determinar la estructura del sitio, y los usamos para la clasificación». – Cherry Prommawin

Control de indexación con reglas de robots

Gary Illyes aclaró dónde las etiquetas robots.txt y robots -meta encajan en el flujo:

  • Robots.txt Controla lo que los rastreadores pueden buscar.
  • Etiquetas de meta robot Controle cómo se usan esos datos recuperados aguas abajo.

Destacó varias directivas menos conocidas:

  • ninguno: Equivalente a noindex,nofollow combinado en una sola regla. ¿Hay algún beneficio para esto? Mientras que funcionalmente es idéntico, usar una directiva en lugar de dos puede simplificar la administración de etiquetas.
  • Notranslate: Si se establece, Chrome ya no ofrecerá traducir la página.
  • NoimageIndex: También se aplica a los activos de video.
  • No disponible después: A pesar de ser introducidos por ingenieros que desde entonces han seguido adelante, todavía funciona. Esto podría ser útil para desaprobar publicaciones de blog sensibles al tiempo, como ofertas y promociones de tiempo limitado, por lo que no persisten en las características de IA de Google y corren el riesgo de engañar a los usuarios o perjudicar la percepción de la marca.

Comprender lo que hay en una página

Gary Illyes enfatizó que el contenido principal, tal como se define en las pautas de la calidad del evaluador de Google, es el elemento más crítico en el rastreo e indexación. Puede ser texto, imágenes, videos o características ricas como calculadoras.

Mostró cómo cambiar un tema al área de contenido principal puede aumentar las clasificaciones.

En un ejemplo, las referencias móviles a «Hugo 7» desde una barra lateral en el contenido central (principal) condujeron a un aumento medible en la visibilidad.

«Si desea clasificarse para ciertas cosas, coloque esas palabras y temas en lugares importantes (en la página)». – Gary Illyes

Tokenización para la búsqueda

No puede volcar HTML sin procesar en un índice de búsqueda a escala. Google lo divide en «tokens», palabras o frases individuales, y almacena las que están en su índice.

El primer sistema de segmentación HTML se remonta a la oficina de Ingeniería de Tokio 2001 de Google, y los mismos métodos de tokenización alimentan sus productos AI, ya que «por qué reinventar la rueda».

Cuando el contenido principal es delgado o de bajo valor, lo que Google etiqueta como un «404 suave», se marcó con una anotación central para mostrar que esta deficiencia está en el corazón de la página, no solo en una sección periférica.

Manejo de duplicación web

Imagen del autor, julio de 2025

Cherry Prommawin explicó la deduplicación en tres áreas de enfoque:

  1. Agrupación: Uso de redireccionamientos, similitud de contenido y rel = canonical para agrupar páginas duplicadas.
  2. Verificaciones de contenido: SUMAS de verificación que ignoran la caldera y atrapan muchas páginas de errores blandos. Tenga en cuenta que los errores suaves pueden derribar un clúster completo.
  3. Localización: Cuando las páginas difieren solo por la ubicación (por ejemplo, a través de Geo -Redirects), Hreflang las une sin penalización.

Ella contrasta con redireccionamientos permanentes versus temporales: ambas juegan un papel en el rastreo y el agrupamiento, pero solo la redirección permanente influye en la URL que se elige como el canónico del grupo.

Google prioriza el riesgo de secuestro primero, la experiencia del usuario en segundo lugar y las señales de propietario del sitio (como su rel = canonical) tercero al seleccionar la URL representativa.

Geotargeting

Geotargeting le permite indicar a Google para qué país o región es el más relevante, y funciona de manera diferente a la orientación de lenguaje simple.

Prommawin enfatizó que no necesita ocultar contenido duplicado en dos sitios específicos del país; Hreflang manejará esos alternativos para usted.

GeotargetingImagen del autor, julio de 2025

Si sirve el contenido duplicado en múltiples URL regionales sin localización, corre el riesgo de confundir tanto a los rastreadores como a los usuarios.

Para geotarget de manera efectiva, asegúrese de que cada versión tenga contenido único y localizado adaptado a su audiencia específica.

Las señales de geotargeting primarias que usa Google son:

  1. Dominio de nivel superior del país (CCTLD): Dominios como .sg o .au indican el país objetivo.
  2. Anotaciones de hreflang: Utilice etiquetas, encabezados HTTP o entradas de mapa del sitio para declarar suplentes de lenguaje y regionales.
  3. Ubicación del servidor: La dirección IP o la ubicación de alojamiento de su servidor pueden actuar como una pista geográfica.
  4. Señales locales adicionalescomo Lenguaje y moneda en la página, enlaces de otros sitios web regionales y señales de su perfil comercial local, todos refuerzan su región objetivo.

Al combinar estas señales con contenido localizado genuinamente, ayuda a Google a servir la versión correcta de su sitio a los usuarios correctos y evitar las trampas de los clústeres no intencionados de contenido duplicado.

Datos y medios estructurados

Gary Illyes introdujo la fase de extracción de características, que se ejecuta después de la deduplicación y es computacionalmente costosa. Comienza con HTML, luego comienza la indexación de medios asíncronos separados para imágenes y videos.

Si su HTML está en el índice pero sus medios no lo son, simplemente significa que la tubería de medios todavía está funcionando.

Las sesiones en esta pista incluyeron:

  • Datos estructurados con William Prabowo.
  • Usando imágenes con Ian Huang.
  • Involucrar a los usuarios con video con William Prabowo.

Preguntas y respuestas para llevar en el esquema

El marcado de esquema puede ayudar a Google a comprender las relaciones entre las entidades y permitir las características dirigidas por LLM.

Pero, el esquema excesivo o redundante solo agrega hinchazón de página y no tiene beneficios de clasificación adicionales. Y el esquema no se usa como parte del proceso de clasificación.

Cálculo de señales

Durante la extracción de señal, también parte de la indexación, Google calcula una combinación de:

  • Señales indirectas (enlaces, menciones por otras páginas).
  • Señales directas (palabras y ubicaciones en la página).
Cálculo de señalesImagen del autor, julio de 2025

Illyes confirmó que Google todavía usa PageRank internamente. No es el algoritmo exacto del libro blanco de 1996, pero lleva el mismo nombre.

Manejo de spam

Los sistemas de Google identifican alrededor de 40 mil millones de páginas spam cada día, impulsados por su «spambrain» basado en LLM.

manejo de spamImagen del autor, julio de 2025

Además, Illyes enfatizó que EEAT no es una señal de indexación o clasificación. Es un principio explicativo, no una métrica calculada.

Decidir qué se indexa

La selección del índice se reduce a la calidad, definida como una combinación de confiabilidad y utilidad para los usuarios finales. Las páginas se eliminan del índice para señales negativas claras:

  • noindex directivas.
  • Contenido vencido o limitado en el tiempo.
  • 404s suaves y duplicados resbalados.
  • Violaciones puras de spam o políticas.

Si una página ha sido rastreada pero no indexada, el remedio es mejorar la calidad del contenido.

El enlace interno puede ayudar, pero solo en la medida en que hace que la página sea realmente más útil. El objetivo de Google es recompensar las mejoras centradas en el usuario, no la manipulación de la señal.

A Google no le importa si sus imágenes son generadas por AI

Las imágenes generadas por IA se han vuelto comunes en marketing, educación y flujos de trabajo de diseño. Estas imágenes son producidas por modelos de aprendizaje profundo entrenados en colecciones masivas de imágenes.

Durante la sesión, a Huang describió que a Google no le importa si sus imágenes son generadas por IA o humanos, siempre que transmitan de manera precisa y efectiva la información o cuenten la historia que pretende.

Mientras las imágenes sean comprensibles, sus orígenes de IA son irrelevantes. El objetivo principal es la comunicación efectiva con su audiencia.

Huang destacó un ejemplo de una imagen de IA utilizada por el equipo de Google durante el primer día de la conferencia que, en una inspección minuciosa, tiene algunos errores visuales, pero como «accesorio», su trabajo era representar una línea de tiempo y no era el contenido principal de la diapositiva, por lo que estos errores no importan.

Imagen del autor, julio de 2025

Podemos adoptar un enfoque similar para nuestro uso de imágenes generadas por IA. Si la imagen transmite el mensaje y no es el contenido principal de la página, los problemas menores no conducirán a la penalización, ni utilizarán imágenes generadas por IA en general.

Las imágenes deben sufrir una revisión humana rápida para identificar errores obvios, lo que puede evitar errores de producción.

La supervisión continua sigue siendo esencial para mantener la confianza en sus imágenes y proteger la integridad de su marca.

API de Google Trends anunció

Finalmente, Daniel Waisberg y Hadas Jacobi presentaron la nueva API de Google Trends (alfa). Las características clave de la nueva API incluirán:

  • Datos de interés de búsqueda a escala constante que no se recalibran cuando cambia las consultas.
  • Una ventana rodante de cinco años, actualizada hace hasta 48 horas, para comparaciones estacionales e históricas.
  • Agregación de tiempo flexible (semanal, mensual, anual).
  • Desgloses de región y subregión.

Esto abre un mundo de análisis de tendencias programáticas con métricas confiables y comparables con el tiempo.

Eso concluye el día dos. Mañana, tenemos cobertura del último día tres en Google Search Central Live, con más noticias e ideas.

Más recursos:


Imagen destacada: Dan Taylor/Salt. Agencia

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *