El esperado modelo de inteligencia artificial de código abierto de OpenAI, que había generado una gran expectación en la comunidad tecnológica y se preveía para este verano, ha sido retrasado indefinidamente. Según informes recientes, la decisión se debe a una combinación de preocupaciones de seguridad y a un rendimiento que, al parecer, no ha alcanzado las cotas de sus principales competidores.
La noticia supone un revés en la estrategia de la compañía, que buscaba responder a la creciente presión de rivales como Meta y Google en el terreno de los modelos abiertos. El retraso pone de manifiesto los complejos desafíos técnicos y éticos que implica la liberación de tecnologías de IA potentes.
Un Anuncio Esperado y un Retraso Inesperado
La expectación en torno a un nuevo modelo abierto de OpenAI comenzó a crecer hace unos meses con la aparición de un misterioso chatbot llamado gpt2-chatbot en la Chatbot Arena de LMSys, una plataforma donde se comparan de forma anónima diferentes modelos de IA. Su rendimiento, sorprendentemente bueno para ser supuestamente una variante del antiguo GPT-2, hizo que muchos especularan con que se trataba de una nueva creación de OpenAI que se lanzaría próximamente.
Las sospechas fueron prácticamente confirmadas por la directora de tecnología de OpenAI, Mira Murati. Durante una charla en la Escuela de Ingeniería de Dartmouth, Murati afirmó que la compañía tenía la intención de lanzar un nuevo modelo de código abierto. Esta declaración avivó aún más el interés del sector, que veía en este movimiento un cambio estratégico para la empresa creadora de ChatGPT.
Sin embargo, la emoción se ha visto frenada por un informe del medio especializado The Information, del que se ha hecho eco TechCrunch, que asegura que el lanzamiento del modelo ha sido pospuesto. Por el momento, OpenAI no ha emitido ninguna comunicación oficial al respecto ni ha ofrecido una nueva fecha de lanzamiento.
¿Problemas de Seguridad o Rendimiento? Las Posibles Causas
El informe apunta a dos motivos principales detrás de esta decisión. El primero son «preocupaciones de seguridad no especificadas». En el ámbito de la inteligencia artificial, esto suele referirse al riesgo de que el modelo pueda ser utilizado para fines maliciosos, como la generación de desinformación a gran escala, la creación de discursos de odio, el desarrollo de software malicioso o la suplantación de identidad. Liberar el código de un modelo potente otorga a cualquiera la capacidad de ajustarlo y utilizarlo sin los filtros y salvaguardas que imponen las empresas en sus versiones comerciales.
El segundo motivo es de carácter técnico y competitivo. Al parecer, el nuevo modelo de OpenAI no está superando a sus rivales en las pruebas de rendimiento (conocidas como benchmarks). Concretamente, se menciona que no ha logrado un desempeño superior al de Llama 3, la última generación de modelos abiertos de Meta. En un mercado tan competitivo, lanzar un producto que no sea claramente superior a la oferta existente puede ser percibido como un paso en falso, especialmente para un líder del sector como OpenAI.
El Debate Interno de OpenAI: ¿Código Abierto o Cerrado?
Este episodio pone de relieve la tensión interna que parece existir en OpenAI sobre su propia naturaleza. La compañía fue fundada en 2015 como una organización sin ánimo de lucro con la misión de desarrollar una inteligencia artificial «abierta» y beneficiosa para la humanidad. Sin embargo, con el tiempo, ha pivotado hacia un modelo de negocio mucho más cerrado y comercial, ejemplificado por su producto estrella, GPT-4, cuyo funcionamiento interno es un secreto bien guardado.
El CEO de la compañía, Sam Altman, ha expresado en el pasado su escepticismo sobre la idea de liberar completamente modelos de IA muy avanzados, aludiendo a los riesgos que ello entrañaría. A pesar de ello, la presión del mercado parece haber forzado a OpenAI a reconsiderar su postura. Empresas como Meta, con su familia de modelos Llama; Google, con sus modelos Gemma; y la francesa Mistral, se han posicionado con fuerza en el nicho del código abierto, ganando el favor de desarrolladores e investigadores que prefieren trabajar con sistemas transparentes y personalizables.
La decisión de preparar un modelo abierto se enmarca en la promesa que Sam Altman, en declaraciones recogidas por el New York Times y citadas por TechCrunch, hizo sobre lanzar un «desfile de nuevos modelos» a lo largo de este año. Este modelo abierto sería una de las piezas clave de esa estrategia para diversificar su oferta y competir en todos los frentes.
El Futuro Incierto del Modelo y el Ecosistema IA
Es importante destacar que, incluso si finalmente se lanza, es probable que el modelo de OpenAI no sea de «código abierto» en el sentido más estricto del término. La fuente sugiere que sería más bien «open source-ish» o cuasi código abierto. Esto significa que, con toda probabilidad, se distribuiría bajo una licencia restrictiva que, si bien permitiría su descarga y modificación, podría prohibir su uso para fines comerciales o en determinados sectores, una estrategia similar a la que ya emplean Meta y Google con sus respectivos modelos.
El último lanzamiento verdaderamente significativo de código abierto por parte de OpenAI fue GPT-2 en 2019. Incluso en aquel entonces, la compañía optó por una liberación escalonada, publicando primero versiones más pequeñas y menos potentes del modelo por temor a un posible mal uso.
El retraso del gpt2-chatbot es, por tanto, un recordatorio de que la carrera de la inteligencia artificial no solo se libra en el campo de la potencia y las capacidades, sino también en el de la seguridad, la ética y la estrategia de mercado. La industria seguirá observando con atención los próximos pasos de OpenAI, ya que su decisión final no solo afectará a su posición competitiva, sino que también influirá en el futuro del ecosistema de la IA de código abierto.






