Miles Brundage, quien fuera investigador principal de políticas en OpenAI, ha criticado duramente a la empresa por lo que considera una "reescritura de la historia" respecto a su enfoque sobre la seguridad en inteligencia artificial. La controversia surge tras la publicación de un nuevo documento por parte de OpenAI que detalla su filosofía actual sobre seguridad y alineamiento en IA.
La controversia sobre el enfoque de seguridad
El origen de la disputa se encuentra en un documento publicado por OpenAI esta semana, donde la empresa describe su visión sobre el desarrollo de la Inteligencia Artificial General (AGI) como un "camino continuo" que requiere "implementar y aprender iterativamente" de las tecnologías de IA.
Brundage expresó su desacuerdo en redes sociales, argumentando que la caracterización que hace OpenAI de su histórico manejo de GPT-2 no refleja la realidad. Según el ex investigador, la cautela mostrada en el lanzamiento de GPT-2 en 2019 fue "100% consistente" con la filosofía actual de implementación iterativa de la empresa.
El caso GPT-2 y su significado histórico
El lanzamiento de GPT-2 en 2019 marcó un hito en la historia de OpenAI. La empresa inicialmente se negó a liberar el código fuente del modelo, citando riesgos potenciales de uso malicioso. En su lugar, optó por dar acceso limitado a medios de comunicación seleccionados.
Esta decisión generó debate en la comunidad de IA. Mientras algunos expertos argumentaron que los riesgos habían sido exagerados, otros, como la publicación The Gradient, llegaron a publicar una carta abierta solicitando la liberación del modelo por su importancia tecnológica.
Preocupaciones sobre la dirección actual
Brundage advierte que el nuevo documento de OpenAI parece establecer un marco donde "las preocupaciones son alarmistas" y se necesita "evidencia abrumadora de peligros inminentes para actuar sobre ellos", una mentalidad que considera "muy peligrosa" para sistemas avanzados de IA.
Presiones competitivas y financieras
El debate surge en un momento de intensa competencia en el sector. La empresa china DeepSeek ha ganado atención con su modelo R1, que iguala al modelo de "razonamiento" o1 de OpenAI en varios aspectos clave. El propio Sam Altman ha reconocido que DeepSeek ha reducido la ventaja tecnológica de OpenAI.
La situación financiera añade presión adicional. OpenAI registra pérdidas millonarias anuales, y según informes, se proyecta que estas podrían triplicarse hasta alcanzar los 14.000 millones de dólares (aproximadamente 13.000 millones de euros) para 2026.
Cambios estructurales y éxodo de talento
La empresa ha experimentado cambios significativos en su estructura interna. El año pasado, OpenAI disolvió su equipo de preparación para AGI, seguido por la salida de varios investigadores especializados en seguridad y políticas de IA hacia empresas competidoras.
La crítica de Brundage refleja una preocupación más amplia sobre el equilibrio entre el desarrollo comercial y la seguridad en el campo de la IA. Mientras OpenAI busca mantener su posición de liderazgo en un mercado cada vez más competitivo, surgen interrogantes sobre si la rapidez en el desarrollo podría comprometer los estándares de seguridad a largo plazo.