El nuevo modelo de IA de OpenAI sorprende al "pensar" en chino sin motivo aparente

Droids

El nuevo modelo de IA de OpenAI sorprende al "pensar" en chino sin motivo aparente

El último modelo de inteligencia artificial de OpenAI, denominado o1, está desconcertando a expertos y usuarios por un curioso comportamiento: ocasionalmente comienza a "pensar" en chino y otros idiomas, incluso cuando se le plantean preguntas en inglés.

Un fenómeno inesperado

Poco después del lanzamiento de o1, el primer modelo de "razonamiento" de OpenAI, los usuarios comenzaron a reportar una peculiaridad llamativa. Al resolver problemas, el modelo ocasionalmente realiza sus procesos de razonamiento en chino, persa u otros idiomas, aunque la pregunta se haya formulado en inglés y la respuesta final se proporcione en el idioma original de la consulta.

"[o1] comenzó a pensar en chino aleatoriamente", señaló un usuario en Reddit, mientras que otros reportaron experiencias similares en diferentes plataformas sociales.

Teorías sobre las causas

Los expertos han propuesto diversas explicaciones para este comportamiento inusual. Clément Delangue, CEO de Hugging Face, sugirió que el fenómeno podría estar relacionado con los conjuntos de datos de entrenamiento, que contienen numerosos caracteres chinos.

Ted Xiao, investigador de Google DeepMind, propuso una teoría relacionada con los servicios de etiquetado de datos: "OpenAI y Anthropic utilizan servicios de etiquetado de datos de terceros para datos de razonamiento de nivel PhD en ciencia, matemáticas y programación. Por razones de disponibilidad y costo de mano de obra experta, muchos de estos proveedores de datos están basados en China".

Más allá del chino

Sin embargo, otros expertos cuestionan estas explicaciones, señalando que o1 no solo alterna al chino, sino también a otros idiomas como hindi y tailandés. Matthew Guzdial, profesor asistente de la Universidad de Alberta, ofreció una perspectiva diferente a TechCrunch: "El modelo no sabe qué es un idioma, ni que los idiomas son diferentes. Para él, todo es simplemente texto".

El papel de los tokens y la eficiencia

Una explicación alternativa sugiere que el modelo podría estar utilizando los idiomas que encuentra más eficientes para resolver cada tarea específica. Tiezhen Wang, ingeniero de Hugging Face, compartió una interesante observación: "Prefiero hacer matemáticas en chino porque cada dígito es solo una sílaba, lo que hace los cálculos más precisos y eficientes. Pero cuando se trata de temas como el sesgo inconsciente, cambio automáticamente al inglés, principalmente porque ahí es donde primero aprendí y absorbí esas ideas".

La importancia de la transparencia

Luca Soldaini, científico investigador del Allen Institute for AI, enfatizó a TechCrunch la necesidad de mayor transparencia en el desarrollo de sistemas de IA: "Este tipo de observación en un sistema de IA implementado es imposible de respaldar debido a lo opacos que son estos modelos. Es uno de los muchos casos que demuestran por qué la transparencia en la construcción de sistemas de IA es fundamental".

En ausencia de una explicación oficial por parte de OpenAI, la comunidad científica continúa investigando por qué o1 decide pensar en canciones en francés pero prefiere el mandarín para la biología sintética.

Este fenómeno subraya la complejidad y los misterios que aún rodean el funcionamiento interno de los modelos de IA más avanzados, resaltando la necesidad de mayor investigación y transparencia en el campo.

Deja un comentario