Gary Illyes, de Google, advirtió sobre el uso de modelos de lenguaje grandes (LLM), afirmando la importancia de verificar fuentes autorizadas antes de aceptar cualquier respuesta de un LLM. Su respuesta fue dada en el contexto de una pregunta, pero curiosamente no publicó cuál era esa pregunta.
Motores de respuesta LLM
Según lo que dijo Gary Illyes, está claro que el contexto de su recomendación es el uso de IA para responder consultas. La declaración se produce a raíz del anuncio de SearchGPT por parte de OpenAI de que están probando un prototipo de motor de búsqueda de IA. Puede ser que su declaración no tenga relación con ese anuncio y sea solo una coincidencia.
Gary explicó primero cómo los LLM elaboran respuestas a las preguntas y menciona cómo una técnica llamada «conexión a tierra» puede mejorar la precisión de las respuestas generadas por la IA, pero que no es 100% perfecta y que los errores aún se escapan. Grounding es una forma de conectar una base de datos de hechos, conocimientos y páginas web a un LLM. El objetivo es fundamentar las respuestas generadas por la IA en hechos autorizados.
Esto es lo que Gary publicó:
“Con base en sus datos de capacitación, los LLM encuentran las palabras, frases y oraciones más adecuadas que se alinean con el contexto y el significado de una indicación.
Esto les permite generar respuestas relevantes y coherentes. Pero no necesariamente correctas en cuanto a los hechos. USTED, el usuario de estos LLM, aún necesita validar las respuestas en función de lo que sabe sobre el tema sobre el que le preguntó al LLM o en base a lecturas adicionales sobre recursos autorizados para su consulta.
La conexión a tierra puede ayudar a crear respuestas más objetivamente correctas, claro, pero no es perfecta; no reemplaza tu cerebro. Internet está lleno de información errónea intencionada y no intencionada, y no creerías todo lo que lees en línea, entonces, ¿por qué harías las respuestas de LLM?
Pobre de mí. Esta publicación también está en línea y podría ser un LLM. Eh, lo haces”.
Contenido y respuestas generados por IA
La publicación de Gary en LinkedIn es un recordatorio de que los LLM generan respuestas que son contextualmente relevantes para las preguntas que se formulan, pero que la relevancia contextual no es necesariamente objetiva.
La autoridad y la confiabilidad son cualidades importantes del tipo de contenido que Google intenta clasificar. Por lo tanto, lo mejor para los editores es verificar constantemente el contenido, especialmente el contenido generado por IA, para evitar perder autoridad sin darse cuenta. La necesidad de verificar los hechos también es válida para quienes utilizan la IA generativa para obtener respuestas.
Lea la publicación de LinkedIn de Gary:
Respondiendo algo desde mi bandeja de entrada aquí
Imagen destacada de Shutterstock/Roman Samborskyi