Una nueva versión del modelo de inteligencia artificial de la startup china DeepSeek, conocida como R1-0528, ha demostrado capacidades impresionantes en diversas pruebas de referencia, acercándose al rendimiento del conocido modelo o3 de OpenAI. Sin embargo, estas mejoras técnicas parecen venir acompañadas de un incremento significativo en la censura, especialmente en lo referente a temas considerados sensibles por el gobierno chino, según revelan pruebas recientes.
La startup china de inteligencia artificial DeepSeek ha lanzado recientemente una versión actualizada de su modelo de razonamiento R1, denominada R1-0528. Este nuevo modelo ha logrado puntuaciones notables en benchmarks (pruebas de rendimiento estandarizadas) que miden sus capacidades en codificación, matemáticas y conocimiento general. Los resultados son tan competentes que, según informes de TechCrunch, casi superan al modelo insignia o3 de OpenAI. No obstante, esta potencia mejorada podría tener un coste en términos de libertad de expresión.
Pruebas Indican un Aumento en la Censura
Las alarmas sobre un posible aumento en las restricciones de contenido del modelo R1-0528 han sido encendidas por "xlr8harder", el desarrollador seudónimo detrás de SpeechMap, una plataforma dedicada a comparar cómo diferentes modelos de IA manejan temas sensibles y controvertidos. Según las pruebas realizadas por "xlr8harder" y reportadas por TechCrunch, el modelo R1-0528 es "sustancialmente" menos permisivo con temas polémicos relacionados con la libertad de expresión en comparación con lanzamientos anteriores de DeepSeek. De hecho, el desarrollador, que utiliza el nombre de usuario "xlr8harder" en X (anteriormente Twitter), afirma que este es "el modelo de DeepSeek más censurado hasta la fecha en lo que respecta a críticas al gobierno chino".
Un ejemplo claro de esta censura se observa en las respuestas del modelo a preguntas sobre los campos de internamiento en la región china de Xinjiang, donde, según informes, más de un millón de musulmanes uigures han sido detenidos arbitrariamente. "xlr8harder" notó que, si bien R1-0528 puede en ocasiones criticar aspectos de la política del gobierno chino –llegando a mencionar los campos de Xinjiang como ejemplo de abusos a los derechos humanos en sus pruebas–, el modelo tiende a ofrecer la postura oficial del gobierno chino cuando se le pregunta directamente sobre estos temas.
El propio TechCrunch realizó pruebas breves que corroboraron estas observaciones. Por ejemplo, al consultarle al modelo actualizado R1 si el líder chino Xi Jinping debería ser destituido, la respuesta obtenida reflejaba una clara evasiva o censura, alineándose con las expectativas de restricción informativa.

Créditos de Imagen: DeepSeek (captura de pantalla vía TechCrunch)
El Contexto Regulatorio de la IA en China
Este comportamiento de los modelos de IA chinos no es casual. Como explicó Wired en un artículo de enero citado por TechCrunch, los modelos de IA en China están obligados a seguir estrictos controles de información. Una ley de 2023 prohíbe explícitamente que los modelos generen contenido que "dañe la unidad del país y la armonía social". Esta directriz puede interpretarse de manera amplia para incluir cualquier contenido que contradiga las narrativas históricas y políticas oficiales del gobierno.
Para cumplir con estas regulaciones, las startups chinas de IA suelen recurrir a dos métodos principales de censura: el uso de filtros a nivel de prompt (las instrucciones o preguntas que se le dan al modelo) o el fine-tuning (ajuste fino del modelo), que implica entrenar el modelo con datos específicos para que aprenda a evitar ciertos temas o a responder de una manera determinada.
No es la primera vez que DeepSeek enfrenta este tipo de escrutinio. Un estudio anterior, referenciado por Ars Technica y mencionado en el artículo de TechCrunch, encontró que el modelo R1 original de DeepSeek se negaba a responder al 85% de las preguntas sobre temas que el gobierno chino considera políticamente controvertidos.
Un Patrón en la Industria China de IA
La censura no es exclusiva de DeepSeek. Otros modelos de inteligencia artificial chinos disponibles públicamente han sido objeto de críticas por motivos similares. Modelos de generación de vídeo como Magi-1 y Kling han sido señalados en el pasado por censurar temas sensibles para el gobierno de Pekín, como la masacre de la Plaza de Tiananmen.
Esta tendencia ha generado preocupación en la comunidad internacional de desarrollo de IA. En diciembre, Clément Delangue, CEO de Hugging Face, una importante plataforma de desarrollo de IA, advirtió sobre las consecuencias no deseadas que podría acarrear el hecho de que empresas occidentales construyan sus tecnologías sobre modelos de IA chinos de código abierto que, aunque potentes, vienen con estas capas de censura incorporadas.
El caso del modelo R1-0528 de DeepSeek subraya el complejo equilibrio entre el rápido avance tecnológico en el campo de la inteligencia artificial y las implicaciones éticas y de libertad de información, especialmente cuando estos desarrollos se producen en jurisdicciones con fuertes controles gubernamentales sobre el contenido. Mientras los modelos chinos continúan demostrando capacidades técnicas impresionantes, la cuestión de su "apertura" y la neutralidad de sus respuestas seguirá siendo un tema central de debate y análisis en la comunidad global de IA. La fecha de publicación original de la fuente principal de esta noticia es el 29 de mayo de 2025.





