La implementación por parte de Google de resúmenes generados por IA en los resultados de búsqueda de EE. UU. está dando un giro desastroso, y los principales medios de comunicación como The New York Times, BBC y CNBC informan sobre numerosas inexactitudes y respuestas extrañas.
En las redes sociales, los usuarios comparten un sinfín de ejemplos del resultado absurdo y a veces peligroso de la función.
Desde recomendar pegamento no tóxico para la pizza hasta sugerir que comer piedras proporciona beneficios nutricionales, los errores garrafales serían divertidos si no fueran tan alarmantes.
Replicado….
¡Pero aprecio que el pegamento sugerido no sea tóxico!
Mire, no se trata de «trampas», sino de señalar daños claramente previsibles. Antes de que, por ejemplo, un niño muera a causa de este desastre.
No se trata de Google, se trata del efecto previsible de la IA en la sociedad. pic.twitter.com/MIPjF8hg0i-MMitchell (@mmitchell_ai) 23 de mayo de 2024
No podía creerlo antes de probarlo. Google necesita solucionar este problema lo antes posible. pic.twitter.com/r3FyOfxiTK
—Kris Kashtanova (@icreatelife) 23 de mayo de 2024
Cobertura de los principales medios de comunicación
Como informó The New York Times, las resúmenes de inteligencia artificial de Google luchan con hechos básicos, afirmando que Barack Obama fue el primer presidente musulmán de los Estados Unidos y afirmando que Andrew Jackson se graduó de la universidad en 2005.
Estos errores socavan la confianza en el motor de búsqueda de Google, en el que más de dos mil millones de personas confían para obtener información autorizada en todo el mundo.
Eliminación manual y mejoras del sistema
Como informó The Verge, Google ahora está luchando por eliminar las extrañas respuestas generadas por IA y mejorar sus sistemas manualmente.
Un portavoz de Google confirmó que la compañía está tomando «medidas rápidas» para eliminar respuestas problemáticas y utilizando ejemplos para perfeccionar su función de descripción general de IA.
La prisa de Google por la integración de la IA
La implementación defectuosa de las resúmenes de IA no es un incidente aislado para Google.
Como señala CNBC en su informe, Google cometió varios pasos en falso en su apuro por integrar la IA en sus productos.
En febrero, Google se vio obligado a pausar su chatbot Gemini después de que generó imágenes inexactas de personajes históricos y se negó a representar a personas blancas en la mayoría de los casos.
Antes de eso, el chatbot Bard de la compañía enfrentó el ridículo por compartir información incorrecta sobre el espacio exterior, lo que provocó una caída de 100 mil millones de dólares en el valor de mercado de Google.
A pesar de estos reveses, los expertos de la industria citados por The New York Times sugieren que Google no tiene más remedio que seguir avanzando en la integración de la IA para seguir siendo competitivo.
Sin embargo, los desafíos que supone dominar los grandes modelos lingüísticos, que ingieren información falsa y publicaciones satíricas, son ahora más evidentes.
El debate sobre la IA en la búsqueda
La controversia en torno a las descripciones generales de la IA añade combustible al debate sobre los riesgos y limitaciones de la IA.
Si bien la tecnología tiene potencial, estos errores recuerdan a todos que se necesitan más pruebas antes de lanzarla al público.
La BBC señala que los rivales de Google enfrentan reacciones similares por sus intentos de incluir más herramientas de inteligencia artificial en sus productos orientados al consumidor.
El organismo de control de datos del Reino Unido está investigando a Microsoft después de que anunciara una función que tomaría capturas de pantalla continuas de la actividad en línea de los usuarios.
Al mismo tiempo, la actriz Scarlett Johansson criticó a OpenAI por utilizar una voz parecida a la suya sin permiso.
Qué significa esto para los sitios web y los profesionales de SEO
La cobertura de los principales medios de comunicación sobre las descripciones erróneas de la IA de Google llama la atención del público sobre el problema de la disminución de la calidad de las búsquedas.
Mientras la empresa trabaja para abordar las imprecisiones, el incidente sirve como advertencia para toda la industria.
Conclusión importante: priorizar el uso responsable de la tecnología de inteligencia artificial para garantizar que los beneficios superen los riesgos.