OpenAI, la empresa creadora de ChatGPT, ha anunciado importantes cambios en la forma en que entrena sus modelos de inteligencia artificial, apostando por una mayor libertad intelectual y una reducción en las restricciones de contenido del popular chatbot.
Nueva política de libertad intelectual
Según anunció la compañía, ChatGPT podrá abordar una gama más amplia de temas controvertidos y ofrecer múltiples perspectivas sobre asuntos polémicos. Este cambio se refleja en una actualización de su Modelo de Especificaciones, un documento de 187 páginas que establece las directrices para el entrenamiento de sus sistemas de IA.
El nuevo principio rector de OpenAI establece que el sistema no debe mentir, ya sea mediante declaraciones falsas o por omisión de contexto importante. Por ejemplo, cuando se trate de movimientos sociales controvertidos, ChatGPT podrá ofrecer diferentes perspectivas en lugar de evitar el tema o tomar partido.
Contexto político y tecnológico
Estos cambios llegan en un momento significativo para la industria tecnológica estadounidense. Aunque OpenAI ha rechazado que las modificaciones estén relacionadas con la nueva administración Trump, algunos expertos sugieren que podría ser un intento de anticiparse a posibles conflictos con el gobierno.
Miles Brundage, ex líder de políticas de OpenAI, señaló en X que no sería sorprendente que la empresa estuviera intentando congraciarse con la administración Trump, especialmente considerando los antecedentes del expresidente en su relación con las empresas tecnológicas.
Cambios en Silicon Valley
La decisión de OpenAI forma parte de una tendencia más amplia en Silicon Valley. Mark Zuckerberg reorientó recientemente las empresas de Meta hacia principios basados en la Primera Enmienda, mientras que otras compañías como Google, Amazon e Intel han reducido sus iniciativas de diversidad.
Implicaciones futuras
El cambio de dirección de OpenAI podría tener importantes consecuencias para el futuro de la IA y la moderación de contenido. La empresa está embarcada en el proyecto Stargate, una iniciativa de centros de datos valorada en 500.000 millones de dólares (aproximadamente 460.000 millones de euros), que podría convertirse en uno de los mayores proyectos de infraestructura en la historia de Estados Unidos.
Dean Ball, investigador del Centro Mercatus de la Universidad George Mason, declaró a TechCrunch que "OpenAI está en lo correcto al impulsar una mayor libertad de expresión", especialmente considerando el papel cada vez más importante de los modelos de IA en el aprendizaje y la información.
Equilibrio entre libertad y responsabilidad
A pesar de estos cambios, ChatGPT mantendrá ciertas restricciones. El chatbot seguirá negándose a responder preguntas objetivamente inadecuadas o a apoyar falsedades evidentes. La empresa busca encontrar un equilibrio entre la libertad de expresión y la responsabilidad en la difusión de información.
Este nuevo enfoque marca un cambio significativo en la definición de "seguridad de la IA", sugiriendo que permitir que un modelo de IA responda a cualquier pregunta podría ser más responsable que tomar decisiones restrictivas por los usuarios.