OpenAI afirma que el nuevo modelo «o1» puede razonar como un humano

OpenAI afirma que el nuevo modelo «o1» puede razonar como un humano


OpenAI ha presentado su último modelo de lenguaje, “o1”, promocionando avances en capacidades de razonamiento complejas.

En un anuncio, la compañía afirmó que su nuevo modelo o1 puede igualar el desempeño humano en pruebas de matemáticas, programación y conocimientos científicos.

Sin embargo, el verdadero impacto sigue siendo especulativo.

Reclamaciones extraordinarias

Según OpenAI, o1 puede obtener una puntuación en el percentil 89 en desafíos de programación competitivos organizados por Codeforces.

La compañía insiste en que su modelo puede funcionar a un nivel que lo ubicaría entre los 500 mejores estudiantes a nivel nacional en el Elite American Invitational Mathematics Examination (AIME).

Además, OpenAI afirma que o1 supera el rendimiento promedio de los expertos en la materia humana con credenciales de doctorado en un examen de referencia combinado de física, química y biología.

Estas son afirmaciones extraordinarias y es importante permanecer escéptico hasta que veamos un escrutinio abierto y pruebas en el mundo real.

Aprendizaje por refuerzo

El supuesto avance es el proceso de aprendizaje por refuerzo de o1, diseñado para enseñar al modelo a descomponer problemas complejos utilizando un enfoque llamado «cadena de pensamiento».

Al simular una lógica paso a paso similar a la humana, corregir errores y ajustar estrategias antes de generar una respuesta final, OpenAI sostiene que o1 ha desarrollado habilidades de razonamiento superiores en comparación con los modelos de lenguaje estándar.

Trascendencia

No está claro cómo el razonamiento afirmado por o1 podría mejorar la comprensión de las consultas (o la generación de respuestas) en matemáticas, codificación, ciencias y otros temas técnicos.

Desde una perspectiva de SEO, cualquier cosa que mejore la interpretación del contenido y la capacidad de responder consultas directamente podría tener un impacto. Sin embargo, es aconsejable ser cauteloso hasta que veamos pruebas objetivas de terceros.

OpenAI debe ir más allá de la intimidación de los puntos de referencia y proporcionar evidencia objetiva y reproducible para respaldar sus afirmaciones. Agregar las capacidades de o1 a ChatGPT en pilotos planificados del mundo real debería ayudar a mostrar casos de uso realistas.


Imagen de portada: JarTee/Shutterstock

Related Posts
Leave a Reply

Your email address will not be published.Required fields are marked *