The Guardian: Las descripciones generales de la IA de Google dieron consejos de salud engañosos

The Guardian: Las descripciones generales de la IA de Google dieron consejos de salud engañosos


The Guardian publicó una investigación en la que afirmaba que los expertos en salud encontraron orientación inexacta o engañosa en algunas respuestas de AI Overview para consultas médicas. Google cuestiona los informes y dice que muchos ejemplos se basaron en capturas de pantalla incompletas.

The Guardian dijo que probó búsquedas relacionadas con la salud y compartió respuestas de AI Overview con organizaciones benéficas, expertos médicos y grupos de información para pacientes. Google le dijo a The Guardian que la «gran mayoría» de las descripciones generales de IA son objetivas y útiles.

Lo que The Guardian informó haber encontrado

The Guardian dijo que probó una variedad de consultas de salud y pidió a las organizaciones de salud que revisaran los resúmenes generados por IA. Varios revisores dijeron que los resúmenes incluían orientación engañosa o incorrecta.

Un ejemplo fue el cáncer de páncreas. Anna Jewell, directora de apoyo, investigación e influencia de Pancreatic Cancer UK, dijo que aconsejar a los pacientes que evitaran los alimentos ricos en grasas era «completamente incorrecto». Añadió que seguir esa orientación «podría ser realmente peligroso y poner en peligro las posibilidades de que una persona esté lo suficientemente bien como para recibir tratamiento».

El informe también destacó las consultas sobre salud mental. Stephen Buckley, jefe de información de Mind, dijo que algunos resúmenes de IA para afecciones como psicosis y trastornos alimentarios ofrecían «consejos muy peligrosos» y eran «incorrectos, dañinos o podían llevar a las personas a evitar buscar ayuda».

The Guardian también citó un ejemplo de detección del cáncer. Athena Lamnisos, directora ejecutiva de la organización benéfica contra el cáncer Eve Appeal, dijo que una prueba de Papanicolaou incluida como prueba para el cáncer vaginal era “información completamente incorrecta”.

Sophie Randall, directora del Foro de Información para Pacientes, dijo que los ejemplos mostraban que «las descripciones generales de inteligencia artificial de Google pueden colocar información de salud inexacta en la parte superior de las búsquedas en línea, lo que presenta un riesgo para la salud de las personas».

The Guardian también informó que repetir la misma búsqueda podría producir diferentes resúmenes de IA en diferentes momentos, provenientes de diferentes fuentes.

La respuesta de Google

Google cuestionó tanto los ejemplos como las conclusiones.

Un portavoz dijo a The Guardian que muchos de los ejemplos de salud compartidos eran «capturas de pantalla incompletas», pero por lo que la compañía pudo evaluar, vinculaban «a fuentes conocidas y acreditadas y recomendaban buscar asesoramiento de expertos».

Google le dijo a The Guardian que la «gran mayoría» de las descripciones generales de IA son «objetivas y útiles» y que «continuamente» realiza mejoras de calidad. La compañía también argumentó que la precisión de AI Overviews está «a la par» de otras funciones de búsqueda, incluidos los fragmentos destacados.

Google agregó que cuando las descripciones generales de IA malinterpreten el contenido web o pierdan el contexto, tomará medidas según sus políticas.

Ver también: Las descripciones generales de Google AI impactan a los editores y cómo adaptarse al 2026

El contexto más amplio de precisión

Esta investigación llega en medio de un debate que se ha estado desarrollando desde que AI Overviews se expandió en 2024.

Durante el lanzamiento inicial, AI Overviews llamó la atención por sus resultados extraños, incluidas sugerencias sobre pegamento en pizza y comer piedras. Más tarde, Google dijo que reduciría el alcance de las consultas que activan resúmenes escritos por IA y perfeccionaría el funcionamiento de la función.

Cubrí ese lanzamiento y los primeros problemas de precisión rápidamente se convirtieron en parte de la narrativa pública en torno a los resúmenes de IA. La pregunta entonces era si los problemas eran casos extremos o algo más estructural.

Más recientemente, los datos de Ahrefs sugieren que las consultas médicas de YMYL tienen más probabilidades que el promedio de activar descripciones generales de IA. En su análisis de 146 millones de SERP, Ahrefs informó que el 44,1% de las consultas médicas de YMYL desencadenaron una descripción general de IA. Eso es más del doble de la tasa de referencia general del conjunto de datos.

Una investigación separada sobre preguntas y respuestas médicas en LLM ha señalado lagunas en el soporte de citas en las respuestas generadas por IA. Un marco de evaluación, SourceCheckup, encontró que muchas respuestas no estaban totalmente respaldadas por las fuentes que citaban, incluso cuando los sistemas proporcionaban enlaces.

Por qué esto importa

Las descripciones generales de IA aparecen encima de los resultados clasificados. Cuando el tema es la salud, los errores tienen más peso.

Los editores han pasado años invirtiendo en experiencia médica documentada para cumplir. Esta investigación pone el mismo foco en los propios resúmenes de Google cuando aparecen en la parte superior de los resultados.

Los informes de The Guardian también resaltan un problema práctico. La misma consulta puede generar diferentes resúmenes en diferentes momentos, lo que dificulta verificar lo que vio al ejecutar la búsqueda nuevamente.

Mirando hacia el futuro

Google ajustó previamente las descripciones generales de IA después de las críticas virales. Su respuesta a The Guardian indica que espera que las descripciones generales de IA sean juzgadas como otras funciones de búsqueda, no sujetas a un estándar separado.

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *