Recientemente me sentí frustrado mientras trabajaba con Claude, y eso me llevó a un interesante intercambio con la plataforma, que me llevó a examinar mis propias expectativas, acciones y comportamiento… y eso me abrió los ojos. La versión corta es que quiero seguir pensando en la IA como un asistente, como un compañero de laboratorio. En realidad, hay que verlo como un robot de laboratorio, capaz de hacer cosas impresionantes, si se le da la dirección correcta, pero sólo dentro de una estructura sólida. Todavía hay muchas cosas de las que no es capaz y nosotros, como profesionales, a veces lo olvidamos y hacemos suposiciones basadas en lo que deseamos que una plataforma sea capaz de hacer, en lugar de basarla en la realidad de los límites.
Y si bien los límites de la IA hoy en día son realmente impresionantes, palidecen en comparación con lo que las personas son capaces de hacer. ¿A veces pasamos por alto esta diferencia y atribuimos características humanas a los sistemas de IA? Apuesto a que todos lo hemos hecho en un momento u otro. Hemos asumido precisión y tomado dirección. Hemos dado por sentado «esto es obvio» y esperábamos que la respuesta «incluyera lo obvio». Y nos molestamos cuando nos falla.
La IA a veces se siente humana en la forma en que se comunica, pero no se comporta como un humano en la forma en que opera. En esa brecha entre la apariencia y la realidad es donde realmente comienza la mayor parte de la confusión, la frustración y el mal uso de los grandes modelos lingüísticos. La investigación sobre la interacción entre humanos y computadoras muestra que las personas naturalmente antropomorfizan los sistemas que hablan, responden socialmente o reflejan los patrones de comunicación humana.
Esto no es una falta de inteligencia, curiosidad o intención por parte de los usuarios. Es un fracaso de los modelos mentales. Las personas, incluidos los profesionales altamente capacitados, a menudo se acercan a los sistemas de IA con expectativas determinadas por cómo se presentan esos sistemas en lugar de cómo funcionan realmente. El resultado es un flujo constante de decepción que se atribuye erróneamente a tecnología inmadura, indicaciones débiles o modelos poco confiables.
El problema no es ninguno de esos. El problema son las expectativas.
Para entender por qué, debemos observar dos grupos diferentes por separado. Los consumidores por un lado y los profesionales por el otro. Interactúan con la IA de manera diferente. Fallan de manera diferente. Pero ambos grupos están reaccionando al mismo desajuste subyacente entre cómo se siente la IA y cómo se comporta realmente.
El lado del consumidor, donde domina la percepción
La mayoría de los consumidores encuentran la IA a través de interfaces conversacionales. Los chatbots, asistentes y motores de respuesta hablan con oraciones completas, usan un lenguaje cortés, reconocen los matices y responden con aparente empatía. Esto no es accidental. La fluidez del lenguaje natural es la fortaleza principal de los LLM modernos y es la característica que los usuarios experimentan primero.
Cuando algo se comunica como lo hace una persona, los humanos naturalmente le asignan rasgos humanos. Comprensión. Intención. Memoria. Juicio. Esta tendencia está bien documentada en décadas de investigación sobre la interacción entre humanos y computadoras y el antropomorfismo. No es un defecto. Así es como la gente le da sentido al mundo.
Desde la perspectiva del consumidor, este atajo mental suele parecer razonable. No están intentando operar un sistema. Están tratando de obtener ayuda, información o tranquilidad. Cuando el sistema funciona bien, aumenta la confianza. Cuando falla, la reacción es emocional. Confusión. Frustración. Una sensación de haber sido engañado.
Esa dinámica es importante, especialmente a medida que la IA se integra en los productos cotidianos. Pero no es allí donde ocurren los fracasos más importantes.
Esos aparecen del lado de los practicantes.
Definir claramente el comportamiento del profesional
Un profesional no está definido por su puesto de trabajo o su profundidad técnica. Un practicante se define por la responsabilidad.
Si utiliza la IA ocasionalmente por curiosidad o conveniencia, es un consumidor. Si utiliza la IA repetidamente como parte de su trabajo, integra su producción en los flujos de trabajo y es responsable de los resultados posteriores, es un profesional.
Eso incluye gerentes de SEO, líderes de marketing, estrategas de contenido, analistas, gerentes de producto y ejecutivos que toman decisiones basadas en el trabajo asistido por IA. Los practicantes no están experimentando. Están operacionalizando.
Y aquí es donde el problema del modelo mental se vuelve estructural.
Los profesionales generalmente no tratan a la IA como a una persona en un sentido emocional. No creen que tenga sentimientos ni conciencia. En cambio, lo tratan como a un colega en el sentido del flujo de trabajo. A menudo como un colega joven capaz.
Esa distinción es sutil, pero crítica.
Los profesionales tienden a suponer que un sistema suficientemente avanzado inferirá la intención, mantendrá la continuidad y ejercerá el juicio a menos que se indique explícitamente lo contrario. Esta suposición no es irracional. Refleja cómo trabajan los equipos humanos. Los profesionales experimentados dependen habitualmente del contexto compartido, las prioridades implícitas y la intuición profesional.
Pero los LLM no funcionan de esa manera.
Lo que parece un antropomorfismo en el comportamiento del consumidor resulta ser una delegación fuera de lugar en los flujos de trabajo de los profesionales. La responsabilidad pasa silenciosamente del ser humano al sistema, no emocionalmente sino operativamente.
Puedes ver esta tendencia en patrones muy específicos y repetibles.
Los profesionales frecuentemente delegan tareas sin especificar completamente objetivos, restricciones o criterios de éxito, asumiendo que el sistema inferirá lo que importa. Se comportan como si el modelo mantuviera una memoria estable y una conciencia continua de las prioridades, incluso cuando saben, intelectualmente, que no es así. Esperan que el sistema tome la iniciativa, señale problemas o resuelva ambigüedades por sí solo. Sobrevaloran la fluidez y la confianza en los resultados y subestiman la verificación. Y con el tiempo, comienzan a describir los resultados como decisiones que tomó el sistema, en lugar de elecciones que él mismo aprobó.
Nada de esto es descuidado. Es una transferencia natural de hábitos de trabajo de la colaboración humana a la interacción del sistema.
La cuestión es que el sistema no es dueño del juicio.
Por qué esto no es un problema de herramientas
Cuando la IA tiene un rendimiento inferior en entornos profesionales, el instinto es culpar al modelo, a las indicaciones o a la madurez de la tecnología. Ese instinto es comprensible, pero pasa por alto la cuestión central.
Los LLM se comportan exactamente como fueron diseñados para comportarse. Generan respuestas basadas en patrones de datos, dentro de limitaciones, sin objetivos, valores o intenciones propias.
No saben lo que importa a menos que tú se lo digas. No deciden cómo es el éxito. No evalúan las compensaciones. No son dueños de los resultados.
Cuando los practicantes asignan tareas de pensamiento que todavía pertenecen a los humanos, el fracaso no es una sorpresa. Es inevitable.
Aquí es donde resulta útil pensar en Ironman y Superman. No como trivialidades de la cultura pop, sino como una corrección de modelo mental.
Ironman, Superman y la autonomía fuera de lugar
Superman opera de forma independiente. Percibe la situación, decide lo que importa y actúa según su propio criterio. Él está a tu lado y salva el día.
Así es como muchos profesionales esperan implícitamente que se comporten los LLM dentro de los flujos de trabajo.
Ironman funciona de manera diferente. El traje amplifica la fuerza, la velocidad, la percepción y la resistencia, pero no hace nada sin un piloto. Se ejecuta dentro de restricciones. Muestra opciones. Amplía la capacidad. No elige metas ni valores.
Los LLM son hombre de hierro trajes.
Amplifican cualquier intención, estructura y juicio que les aportes. No reemplazan al piloto.
Una vez que ves claramente esa distinción, mucha frustración se evapora. El sistema deja de parecer poco confiable y comienza a comportarse de manera predecible, porque las expectativas han cambiado para coincidir con la realidad.
Por qué esto es importante para los líderes de SEO y marketing
Los líderes de SEO y marketing ya operan dentro de sistemas complejos. Algoritmos, plataformas, marcos de medición y restricciones que no controlas son parte del trabajo diario. Los LLM agregan otra capa a esa pila. No lo reemplazan.
Para los gerentes de SEO, esto significa que la IA puede acelerar la investigación, expandir el contenido, descubrir patrones y ayudar con el análisis, pero no puede decidir cómo es la autoridad, cómo se deben hacer concesiones o qué significa el éxito para el negocio. Esas siguen siendo responsabilidades humanas.
Para los ejecutivos de marketing, esto significa que la adopción de la IA no es principalmente una decisión sobre herramientas. Es una decisión de colocación de responsabilidad. Los equipos que tratan a los LLM como tomadores de decisiones introducen riesgos. Los equipos que los tratan como capas de amplificación escalan de manera más segura y efectiva.
La diferencia no es la sofisticación. Es propiedad.
La verdadera corrección
La mayoría de los consejos sobre el uso de la IA se centran en mejores indicaciones. Impulsar importa, pero va en sentido descendente. La verdadera corrección es recuperar la propiedad del pensamiento.
Los seres humanos deben poseer metas, limitaciones, prioridades, evaluación y juicio. Los sistemas pueden manejar expansión, síntesis, velocidad, detección de patrones y dibujo.
Cuando ese límite es claro, los LLM se vuelven notablemente efectivos. Cuando se desdibuja, sigue la frustración.
La ventaja silenciosa
Aquí está la parte que rara vez se dice en voz alta.
Los profesionales que internalizan este modelo mental obtienen constantemente mejores resultados con las mismas herramientas que utilizan todos los demás. No porque sean más inteligentes o más técnicos, sino porque dejan de pedirle al sistema que sea algo que no es.
Ellos pilotean el traje y esa es su ventaja.
La IA no está tomando el control de tu trabajo. No estás siendo reemplazado. Lo que está cambiando es dónde reside la responsabilidad.
Trate a la IA como a una persona y se sentirá decepcionado. Trátalo como un sistema y estarás limitado. Trátelo como un traje de Ironman y TÚ será amplificado.
El futuro no pertenece a Superman. Pertenece a la gente que sabe volar el traje.
Más recursos:
Esta publicación se publicó originalmente en Duane Forrester Decodes.
Imagen destacada: Estudio Corona Boreal/Shutterstock



