Google duplica su apuesta por las descripciones generales de IA: actualización de Ray AIO

Google duplica su apuesta por las descripciones generales de IA: actualización de Ray AIO


La jefa de búsqueda de Google, Liz Reid, escribió anoche una publicación de blog titulada «Descripciones generales de IA: acerca de la semana pasada». Básicamente dijo que, en general, la gran mayoría de las descripciones generales de IA son realmente buenas y encontraron ejemplos de dónde se pueden realizar mejoras. Pero las descripciones generales de IA llegaron para quedarse y Google seguirá mostrándolas en la Búsqueda de Google.

Como recordarás, Google lanzó AI Overviews hace un par de semanas en Estados Unidos. Luego, con el tiempo, muchos comenzaron a ver y compartir ejemplos extraños y vergonzosos (a veces dañinos) de descripciones generales de IA, lo que llevó a Google a actualizar su documentación de ayuda y a que el CEO de Google se pusiera a la defensiva.

Ella dijo: «Encontramos una violación de la política de contenido en menos de una de cada 7 millones de consultas únicas en las que aparecían AI Overviews». «Seguiremos mejorando cuándo y cómo mostramos descripciones generales de IA y fortaleciendo nuestras protecciones, incluso para casos extremos, y estamos muy agradecidos por los comentarios continuos», añadió.

Algunos llaman a las mejoras y actualizaciones realizadas en estas descripciones generales de IA, la Actualización Ray. Mike King sugirió el nombre en X y dijo: «Voy a nombrar la primera actualización de algoritmo de la era AIO. La llamaremos «Filtro de rayos» o «Actualización de rayos» que lleva el nombre de Lily Ray». Lily contribuyó decisivamente a presionar a Google para que trabajara más duro en estas descripciones generales de IA al compartir innumerables ejemplos de dónde salieron mal.

Aquí hay algunos puntos sobre lo que dijo Liz Reid, profundizo un poco más en Search Engine Land y hay más cobertura en Techmeme. Debo señalar que esto es lo que ella dijo, no lo que yo estoy diciendo:

  • A los buscadores les gustan las descripciones generales de IA y interactúan más con ellas y con los editores a los que se hace referencia en ellas.
  • Las descripciones generales de IA funcionan de manera muy diferente a los chatbots y otros productos LLM
  • Las descripciones generales de IA están integradas en la búsqueda principal y solo muestran información respaldada por los mejores resultados web.
  • Las descripciones generales de IA generalmente no «alucinan» ni inventan cosas como lo harían otros productos LLM.
  • Cuando AI Overviews se equivoca, generalmente es por otras razones: malinterpretar consultas, malinterpretar un matiz del lenguaje en la web o no tener mucha información excelente disponible.
  • La tasa de precisión de AI Overviews es tan buena como la de los fragmentos destacados
  • Google dijo que «ha visto nuevas búsquedas sin sentido, aparentemente destinadas a producir resultados erróneos».
  • Se ha compartido ampliamente una gran cantidad de capturas de pantalla falsas.
  • «Pero ciertamente aparecieron algunas descripciones generales de IA extrañas, inexactas o inútiles», admitió Google.
  • Puede haber «vacíos de datos» y «lagunas de información» en las que Google podría citar páginas que no debería, como documentos satíricos (como en el caso de «¿Cuántas piedras debo comer?»
  • En algunos casos, Google dijo que las descripciones generales de IA malinterpretan el lenguaje de las páginas web y presentan información inexacta.

Entonces, ¿qué hará Google para mejorar las descripciones generales de IA?

  • Google no solucionará individualmente cada uno de los problemas, actualiza sus modelos para mejorar lo que salió mal, de modo que también funcione para otras consultas.
  • Google creó mejores mecanismos de detección para consultas sin sentido que no deberían mostrar una descripción general de IA y limitó la inclusión de contenido de sátira y humor.
  • Google actualizó sus sistemas para limitar el uso de contenido generado por el usuario en respuestas que podrían ofrecer consejos engañosos.
  • Google agregó restricciones de activación para consultas en las que las descripciones generales de IA no resultaron tan útiles.
  • Para temas como noticias y salud, Google dijo que ya cuenta con fuertes barreras de seguridad. Por ejemplo, Google dijo que su objetivo es no mostrar resúmenes de IA para temas de noticias difíciles, donde la frescura y la factualidad son importantes.
  • En el caso de la salud, Google dijo que lanzó mejoras de activación adicionales para mejorar nuestras protecciones de calidad.

Aquí hay algunas publicaciones sobre X sobre esto:

Foro de discusión en WebmasterWorld.



Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *