Una reciente investigación ha desmentido la creencia popular de que el modelo de inteligencia artificial DeepSeek puede evadir sus mecanismos de censura al ejecutarse localmente. Según un informe de Wired, la censura está integrada tanto en la capa de aplicación como en el entrenamiento base del modelo.
La censura está presente en múltiples niveles
La investigación ha revelado que, contrariamente a lo que se discute en varios foros técnicos, ejecutar DeepSeek de forma local en un ordenador personal no elimina las restricciones incorporadas en el modelo. Esta revelación es especialmente significativa ya que contradice una idea que se había extendido en comunidades de desarrollo.
Evidencias concretas de restricciones
Las pruebas realizadas por Wired demostraron que el modelo, incluso en su versión local, está programado para "evitar mencionar" eventos históricos específicos como la Revolución Cultural china, limitándose a destacar únicamente aspectos "positivos" del Partido Comunista Chino.
TechCrunch realizó sus propias pruebas utilizando una versión de DeepSeek disponible a través de la plataforma Groq, confirmando estos hallazgos. El modelo respondió sin problemas a preguntas sobre eventos históricos estadounidenses, como los sucesos de Kent State, pero se negó explícitamente a comentar sobre los acontecimientos de la Plaza de Tiananmen de 1989.
Implicaciones para usuarios y desarrolladores
Estos descubrimientos tienen importantes implicaciones para la comunidad tecnológica y los usuarios de modelos de IA:
- La censura no es solo una capa superficial que se puede eliminar fácilmente
- Las restricciones están profundamente integradas en el entrenamiento del modelo
- La ejecución local no garantiza una mayor libertad de respuesta
Contexto más amplio
Esta situación plantea preguntas más amplias sobre la transparencia en el desarrollo de modelos de IA y el control que las empresas mantienen sobre sus creaciones, incluso cuando estas se ejecutan en entornos locales. También destaca la importancia de comprender las limitaciones inherentes de los modelos de IA, independientemente de cómo se implementen.
La revelación de estas restricciones incorporadas en DeepSeek contribuye al debate en curso sobre la censura en la IA y la influencia de factores geopolíticos en el desarrollo de tecnologías de inteligencia artificial.