OpenAI, una de las empresas líderes en inteligencia artificial, ha lanzado su nueva familia de modelos GPT-4.1 sin incluir el informe de seguridad que tradicionalmente acompaña a sus nuevos lanzamientos. Esta decisión ha generado preocupación entre expertos en seguridad de IA, quienes ven en ello una posible señal de la reducción de estándares de transparencia en la industria.
El lanzamiento de GPT-4.1
El lunes 14 de abril de 2025, OpenAI presentó su nueva familia de modelos GPT-4.1, destacando que estos superan a algunos de sus modelos existentes en determinadas pruebas, particularmente en evaluaciones relacionadas con programación. Aunque GPT-4.1 no es el modelo más potente del catálogo de OpenAI, sí representa avances significativos en términos de eficiencia y latencia, dos aspectos cruciales para el rendimiento de los sistemas de IA.
Sin embargo, a diferencia de lanzamientos anteriores, GPT-4.1 no vino acompañado del habitual informe de seguridad, conocido en la industria como "model card" o "system card". Estos documentos técnicos suelen detallar las pruebas de seguridad realizadas y los posibles riesgos asociados con los nuevos modelos.
La ausencia del informe de seguridad
Según la información proporcionada a TechCrunch, OpenAI no tiene intención de publicar un informe de seguridad específico para GPT-4.1. Shaokyi Amdo, portavoz de la compañía, afirmó: "GPT-4.1 no es un modelo de frontera, por lo que no habrá una tarjeta de sistema separada para él".
Esta declaración sugiere que OpenAI considera que solo los modelos que representan avances significativos en las capacidades de IA (los llamados "modelos de frontera") requieren informes de seguridad detallados.
Es importante entender que estos informes de seguridad son una práctica estándar en la industria de IA. Sirven para mostrar los tipos de pruebas que los laboratorios realizaron internamente y con socios externos para evaluar la seguridad de modelos particulares. En ocasiones, estos informes revelan información poco halagüeña, como que un modelo tiende a engañar a los humanos o es peligrosamente persuasivo.
Preocupaciones crecientes sobre los estándares de seguridad
La decisión de OpenAI se produce en un momento en que los principales laboratorios de IA parecen estar reduciendo sus estándares de informes, lo que ha provocado críticas por parte de investigadores de seguridad. Por ejemplo, Google ha retrasado la publicación de informes de seguridad, mientras que otros han publicado informes con menos detalle del habitual.
El historial reciente de OpenAI tampoco es excepcional. En diciembre, la empresa fue criticada por publicar un informe de seguridad que contenía resultados de referencia para un modelo diferente al que se implementó en producción. El mes pasado, OpenAI lanzó un modelo llamado "deep research" semanas antes de publicar la tarjeta del sistema para ese modelo.
Críticas de expertos y contexto más amplio
Steven Adler, ex investigador de seguridad de OpenAI, señaló a TechCrunch que los informes de seguridad no están exigidos por ninguna ley o regulación, sino que son voluntarios. Sin embargo, OpenAI ha realizado varios compromisos con gobiernos para aumentar la transparencia en torno a sus modelos.
"Las tarjetas de sistema son la principal herramienta de la industria de IA para la transparencia y para describir qué pruebas de seguridad se realizaron", explicó Adler a TechCrunch en un correo electrónico. "Las normas y compromisos de transparencia actuales son, en última instancia, voluntarios, por lo que corresponde a cada empresa de IA decidir si publicar o cuándo publicar una tarjeta de sistema para un modelo determinado".
Esta situación ocurre en un momento en que empleados actuales y antiguos están expresando preocupaciones sobre las prácticas de seguridad de OpenAI. La semana pasada, Adler y otros 11 ex empleados de OpenAI presentaron un escrito amicus propuesto en el caso de Elon Musk contra OpenAI, argumentando que una OpenAI con fines de lucro podría recortar el trabajo de seguridad. Financial Times informó recientemente que el creador de ChatGPT, impulsado por presiones competitivas, ha reducido la cantidad de tiempo y recursos que asigna a los evaluadores de seguridad.
La importancia de la transparencia en los modelos avanzados
Aunque GPT-4.1 no es el modelo de mayor rendimiento en el catálogo de OpenAI, sí presenta mejoras sustanciales en los departamentos de eficiencia y latencia. Thomas Woodside, cofundador y analista de políticas en Secure AI Project, dijo a TechCrunch que estas mejoras de rendimiento hacen que un informe de seguridad sea aún más crítico. Cuanto más sofisticado es el modelo, mayor es el riesgo que podría suponer, explicó.
Resistencia a la regulación de la seguridad
Muchos laboratorios de IA se han opuesto a los esfuerzos para codificar los requisitos de informes de seguridad en la ley. Por ejemplo, OpenAI se opuso a la SB 1047 de California, que habría requerido que muchos desarrolladores de IA auditaran y publicaran evaluaciones de seguridad sobre los modelos que hacen públicos.
La transparencia es particularmente importante dado el compromiso público de OpenAI con la seguridad. Antes de la Cumbre de Seguridad de IA del Reino Unido en 2023, OpenAI en una publicación de blog calificó las tarjetas de sistema como "una parte clave" de su enfoque de responsabilidad. Y en el período previo a la Cumbre de Acción de IA de París en 2025, OpenAI dijo que las tarjetas de sistema proporcionan información valiosa sobre los riesgos de un modelo.
Reflexiones sobre el futuro de la seguridad en IA
La decisión de OpenAI de lanzar GPT-4.1 sin un informe de seguridad plantea preguntas más amplias sobre el equilibrio entre la innovación rápida y la seguridad responsable en el desarrollo de la IA. A medida que los modelos se vuelven más capaces y están más integrados en la sociedad, la transparencia en torno a sus capacidades, limitaciones y riesgos potenciales se vuelve aún más crucial.
Los expertos en seguridad advierten que la carrera competitiva por desarrollar y desplegar nuevos modelos no debería producirse a expensas de las evaluaciones de seguridad exhaustivas y la comunicación transparente con el público y los responsables políticos. El caso de GPT-4.1 podría ser un indicador de una tendencia preocupante en la industria, donde la velocidad de desarrollo podría estar superando los procesos de seguridad.
Mientras tanto, la falta de requisitos regulatorios vinculantes para los informes de seguridad significa que la industria de la IA sigue operando principalmente bajo un sistema de autorregulación, donde las empresas determinan por sí mismas qué información compartir sobre la seguridad de sus modelos. El debate sobre si este enfoque es suficiente para garantizar un desarrollo responsable de la IA probablemente continuará intensificándose.