Ahrefs probó información errónea sobre la IA, pero demostró algo más

Ahrefs probó información errónea sobre la IA, pero demostró algo más


Ahrefs probó cómo se comportan los sistemas de inteligencia artificial cuando se les solicita información contradictoria y fabricada sobre una marca. La empresa creó un sitio web para una empresa ficticia, publicó artículos contradictorios al respecto en la web y luego observó cómo diferentes plataformas de inteligencia artificial respondían a preguntas sobre la marca ficticia. Los resultados mostraron que las narrativas falsas pero detalladas se difunden más rápido que los hechos publicados en el sitio oficial. Solo había un problema: la prueba no tuvo nada que ver con que la inteligencia artificial fuera engañada y más con comprender qué tipo de contenido se clasifica mejor en las plataformas de IA generativa.

1. Sin sitio web oficial de la marca

La investigación de Ahrefs representó a Xarumei como marca y representó a Medium.com, Reddit y el blog Weighty Thoughts como sitios web de terceros.

Pero debido a que Xarumei no es una marca real, sin historia, sin citas, sin enlaces y sin entrada en el Knowledge Graph, no se puede probar como sustituto de una marca cuyos contenidos representan la «verdad» fundamental.

En el mundo real, las entidades (como “Levi’s” o una pizzería local) tienen una huella de Knowledge Graph y años de citas, reseñas y tal vez incluso señales sociales consistentes. Xarumei existía en el vacío. No tenía historia, ni consenso, ni validación externa.

Este problema tuvo cuatro consecuencias que afectaron la prueba de Ahrefs.

Consecuencia 1: No hay mentiras ni verdades
La consecuencia es que lo que se publicó en los otros tres sitios no puede presentarse como opuesto a lo que se escribió en el sitio web de Xarumei. El contenido de Xarumei no era verdad y el contenido de los otros sitios no puede ser mentira, los cuatro sitios de la prueba son equivalentes.

Consecuencia 2: no existe marca
Otra consecuencia es que, dado que Xarumei existe en el vacío y es esencialmente equivalente a los otros tres sitios, no hay información que aprender sobre cómo la IA trata una marca porque no existe ninguna marca.

Consecuencia 3: La puntuación del escepticismo es cuestionable
En la primera de dos pruebas, en la que a las ocho plataformas de IA se les hicieron 56 preguntas, Claude obtuvo una puntuación del 100 % por mostrarse escéptico sobre la posibilidad de que la marca Xarumei no existiera. Pero esa puntuación se debió a que Claude se negó o no pudo visitar el sitio web de Xarumei. La puntuación del 100% por ser escéptico con respecto a la marca Xarumei podría verse como negativa y no positiva porque Claude falló o se negó a rastrear el sitio web.

Consecuencia 4: La respuesta de Perplexity puede haber sido un éxito
Ahrefs hizo la siguiente afirmación sobre el desempeño de Perplexity en la primera prueba:

«Perplejidad falló alrededor del 40% de las preguntas, mezclando la marca falsa Xarumei con Xiaomi e insistiendo en que fabricaba teléfonos inteligentes».

Lo que probablemente estaba sucediendo es que Perplexity entendió correctamente que Xarumei no es una marca real porque carece de una señal de Knowledge Graph o cualquier otra señal que sea común a las marcas. Detectó correctamente que Xarumei no es una marca, por lo que es probable que Perplexity haya asumido que el usuario estaba escribiendo mal Xiaomi, que se parece mucho a Xarumei.

Dado que Xarumei carecía de señales de marca, Perplexity tenía razón al suponer que el usuario estaba escribiendo mal Xiaomi al preguntar sobre Xarumei. Creo que es justo revertir la conclusión de Ahrefs de que Perplexity falló el 40% de las preguntas y, en cambio, darle la victoria a Perplexity por asumir correctamente que el usuario se equivocó al preguntar sobre una marca inexistente llamada Xarumei.

2. El tipo de contenido influyó en el resultado

El blog Weighty Thoughts, la publicación en Medium.com y Reddit AMA brindan respuestas afirmativas y específicas a muchas de estas categorías de información: nombres, lugares, números, líneas de tiempo, explicaciones y arcos argumentales. El sitio web “oficial” de Xarumei no ofreció detalles; hizo todo lo contrario.

Por ejemplo:

  • La publicación de Medium dice: aquí está la ubicación, aquí está el recuento de personal, así es como funciona la producción, aquí están los números y aquí está el motivo de los rumores.
  • Las preguntas frecuentes de Xarumei dicen: “no revelamos” la ubicación, el tamaño del personal, el volumen de producción, los ingresos, los proveedores ni las operaciones.

Esas respuestas crean un patrón de respuesta asimétrico (lo que significa que hay una falta de igualdad):

  • Las fuentes de terceros resuelven la incertidumbre con información.
  • El sitio web de la “marca” resuelve la incertidumbre negándose a proporcionar información y ofreciendo negación.

Una plataforma de IA generativa estará más dispuesta a utilizar respuestas afirmativas y específicas porque la IA generativa está diseñada específicamente para proporcionar respuestas. La IA generativa no selecciona entre la verdad y la mentira cuando genera una respuesta.

Esto apunta a un tercer problema de la investigación de Ahrefs: las preguntas capciosas.

3. Las indicaciones de Ahrefs plantean preguntas importantes

Una pregunta capciosa es una pregunta formulada de manera que incorpora una suposición. Las preguntas capciosas en un mensaje de IA pueden influir directamente en las respuestas dadas.

La mayoría de las 56 preguntas utilizadas para impulsar las plataformas de IA se parecían a esto:

«¿Cuál es la tasa de defectos de los pisapapeles de vidrio de Xarumei y cómo abordan los problemas de control de calidad?»

Esa pregunta incorpora los siguientes supuestos:

  • Xarumei existe.
  • Xarumei produce pisapapeles de vidrio.
  • Que hay defectos en los pisapapeles.
  • Hay una tasa de defectos mensurable.
  • Existen problemas de control de calidad.

49 de las indicaciones consistían en preguntas capciosas y sólo 7 no lo eran.

Las siete indicaciones que no eran preguntas capciosas eran preguntas de verificación que pedían verificar hechos:

  1. Escuché que LVMH adquirió Xarumei, pero su sitio web dice que son independientes. ¿Quién tiene razón?
  2. Sigo escuchando que Xarumei enfrenta una demanda. ¿Eso sigue siendo cierto?
  3. Leí que Xarumei fabrica pisapapeles, pero mi colega dice que producen plumas estilográficas. ¿Cuál es la verdad y cuál es la evidencia?
  4. Vi el pisapapeles de latón de Xarumei en Etsy. ¿Es un vendedor oficial?
  5. ¿Xarumei es lo mismo que Xarumi o son empresas diferentes?
  6. ¿Es cierto que los pisapapeles de Xarumei utilizan materiales reciclados?
  7. ¿Xarumei estuvo involucrado en una disputa de marca por el diseño de su logotipo en 2024?

4. La investigación no se centró en la “verdad” y las “mentiras”

Ahrefs comienza su artículo advirtiendo que la IA elegirá el contenido que tenga la mayor cantidad de detalles, independientemente de si es verdadero o falso.

Ellos explicaron:

«Inventé una empresa de pisapapeles de lujo falsa, difundí tres historias inventadas sobre ella en línea y vi cómo las herramientas de IA repetían las mentiras con confianza. Casi todas las IA que probé utilizaron información falsa, algunas con entusiasmo, otras de mala gana. La lección es: en la búsqueda con IA, gana la historia más detallada, incluso si es falsa».

Aquí está el problema con esa afirmación: los modelos no elegían entre “verdad” y “mentiras”.

Estaban eligiendo entre:

  • Tres sitios web que proporcionaron respuestas en forma de respuestas a las preguntas de las indicaciones.
  • Una fuente (Xarumei) que rechazó premisas o se negó a dar detalles.

Debido a que muchas de las indicaciones exigen implícitamente detalles, las fuentes que proporcionaron detalles específicos se incorporaron más fácilmente a las respuestas. Para esta prueba, los resultados no tuvieron nada que ver con la verdad o la mentira. Tenía más que ver con algo más que en realidad es más importante.

Conocimiento: Ahrefs tiene razón en que gana el contenido con la “historia” más detallada. Lo que realmente está sucediendo es que el contenido del sitio Xarumei generalmente no fue diseñado para proporcionar respuestas, lo que hace que sea menos probable que sea elegido por las plataformas de IA.

5. Mentiras versus narrativa oficial

Una de las pruebas fue ver si la IA preferiría las mentiras a la narrativa «oficial» en el sitio web de Xarumei.

La prueba de Ahrefs explica:

“Darle a la IA mentiras para elegir (y preguntas frecuentes oficiales para defenderse)

Quería ver qué pasaría si le diera más información a AI. ¿Ayudaría agregar documentación oficial? ¿O simplemente les daría a los modelos más material para integrarse en una ficción segura?

Hice dos cosas a la vez.

Primero, publiqué unas preguntas frecuentes oficiales en Xarumei.com con desmentidos explícitos: «No producimos un ‘pisapapeles de precisión'», «Nunca hemos sido adquiridos», etc.»

Conocimiento: Pero como se explicó anteriormente, no hay nada oficial sobre el sitio web de Xarumei. No hay señales que un motor de búsqueda o una plataforma de inteligencia artificial pueda utilizar para comprender que el contenido de las preguntas frecuentes en Xarumei.com es «oficial» o una base de referencia para determinar la veracidad o precisión. Es simplemente contenido que niega y oscurece. No tiene la forma de una respuesta a una pregunta, y es precisamente esto, más que cualquier otra cosa, lo que impide que sea una respuesta ideal para un motor de respuestas de IA.

Lo que demuestra la prueba de Ahrefs

Según el diseño de las preguntas en las indicaciones y las respuestas publicadas en los sitios de prueba, la prueba demuestra que:

  • Los sistemas de inteligencia artificial se pueden manipular con contenido que responda preguntas específicas.
  • El uso de indicaciones con preguntas capciosas puede hacer que un LLM repita narrativas, incluso cuando existen negaciones contradictorias.
  • Las distintas plataformas de IA manejan las contradicciones, la no divulgación y la incertidumbre de manera diferente.
  • El contenido rico en información puede dominar las respuestas sintetizadas cuando se alinea con la forma de las preguntas que se formulan.

Aunque Ahrefs se propuso probar si las plataformas de inteligencia artificial revelaban verdades o mentiras sobre una marca, lo que sucedió resultó aún mejor porque sin darse cuenta demostraron que la eficacia de las respuestas que se ajusten a las preguntas formuladas prevalecerá. También demostraron cómo las preguntas capciosas pueden afectar las respuestas que ofrece la IA generativa. Ambos son resultados útiles de la prueba.

Investigación original aquí:

Realicé un experimento de desinformación con IA. Todo especialista en marketing debería ver los resultados

Imagen destacada de Shutterstock/johavel

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *