Microsoft prohíbe a sus empleados el uso de la aplicación DeepSeek por motivos de seguridad

Droids

Updated on:

Microsoft prohíbe a sus empleados el uso de la aplicación DeepSeek por motivos de seguridad

Microsoft ha prohibido a sus empleados utilizar la aplicación DeepSeek debido a preocupaciones relacionadas con la seguridad de datos y posible propaganda china, según anunció Brad Smith, vicepresidente y presidente de la compañía, durante una audiencia del Senado estadounidense celebrada este jueves.

La decisión de Microsoft

"En Microsoft no permitimos que nuestros empleados utilicen la aplicación DeepSeek", declaró Smith durante su intervención en la audiencia senatorial, refiriéndose específicamente al servicio de aplicación de DeepSeek, disponible tanto en versión de escritorio como en móvil.

El directivo también confirmó que Microsoft ha decidido no incluir DeepSeek en su tienda de aplicaciones por los mismos motivos de seguridad. Esta es la primera vez que la empresa tecnológica hace pública una prohibición de este tipo, aunque diversas organizaciones y países ya han impuesto restricciones similares a la tecnología de DeepSeek.

Razones de seguridad y preocupaciones geopolíticas

Smith explicó que la restricción se debe principalmente a dos factores de riesgo: la posibilidad de que los datos sean almacenados en China y que las respuestas generadas por DeepSeek puedan estar influenciadas por "propaganda china".

Según la política de privacidad de DeepSeek, la empresa almacena los datos de los usuarios en servidores ubicados en China. Estos datos están sujetos a la legislación china, que exige la cooperación con las agencias de inteligencia del país.

Además, DeepSeek censura fuertemente temas considerados sensibles por el gobierno chino, lo que refuerza las preocupaciones de Microsoft sobre posible manipulación de la información.

La aparente contradicción: DeepSeek en Azure

A pesar de las críticas y restricciones impuestas a DeepSeek, resulta llamativo que Microsoft ofrezca el modelo R1 de DeepSeek en su servicio en la nube Azure, después de que este modelo se volviera viral a principios de este año.

Sin embargo, existe una diferencia fundamental entre ofrecer la aplicación completa y proporcionar acceso al modelo subyacente. Al ser DeepSeek de código abierto, cualquier empresa o desarrollador puede descargar el modelo, almacenarlo en sus propios servidores y ofrecerlo a sus clientes sin necesidad de enviar los datos de vuelta a China.

Modificaciones y evaluaciones de seguridad

Durante la audiencia en el Senado, Smith reveló que Microsoft había conseguido acceder al interior del modelo de IA de DeepSeek para "cambiarlo" y eliminar "efectos secundarios dañinos". No obstante, no proporcionó detalles específicos sobre estas modificaciones, limitándose a remitir a TechCrunch a sus declaraciones en la audiencia.

En el anuncio inicial del lanzamiento de DeepSeek en Azure, Microsoft indicó que el modelo había pasado por "rigurosas evaluaciones de seguridad y ejercicios de 'red teaming'" antes de ser incorporado a la plataforma.

Estas evaluaciones estarían destinadas a mitigar los riesgos que Smith mencionó en su intervención, como la posibilidad de que el modelo propague propaganda o genere código inseguro.

Competencia en el mercado de la IA conversacional

Es importante señalar que DeepSeek representa una competencia directa para la aplicación de búsqueda por internet Copilot de Microsoft. Sin embargo, la empresa no prohíbe todos los chatbots competidores en su tienda de aplicaciones de Windows.

Por ejemplo, Perplexity está disponible en la tienda de aplicaciones de Windows. No obstante, TechCrunch observó que las aplicaciones desarrolladas por Google, el principal competidor de Microsoft, incluyendo el navegador Chrome y el chatbot Gemini, no aparecían en las búsquedas realizadas en la tienda web.

Contexto global de restricciones a DeepSeek

La decisión de Microsoft se enmarca en un contexto más amplio de preocupaciones internacionales sobre DeepSeek. Como mencionó Smith, numerosas organizaciones y gobiernos han impuesto limitaciones al uso de esta tecnología china de inteligencia artificial.

Estas restricciones generalmente se basan en las mismas inquietudes expresadas por Microsoft: el riesgo de filtración de datos sensibles a China y la posibilidad de que los resultados generados por el sistema estén influenciados por intereses geopolíticos del gobierno chino.

Implicaciones para el sector tecnológico

La postura de Microsoft refleja las crecientes tensiones en el sector tecnológico global, especialmente en lo que respecta a la inteligencia artificial, donde las preocupaciones sobre seguridad nacional, privacidad de datos y competencia comercial se entrelazan de manera compleja.

La prohibición también ilustra cómo las grandes empresas tecnológicas están tomando decisiones cada vez más restrictivas respecto a las tecnologías desarrolladas en China, en un contexto de creciente rivalidad tecnológica entre Estados Unidos y el gigante asiático.

Para los desarrolladores y usuarios de tecnologías de IA, este caso subraya la importancia de considerar no solo las capacidades técnicas de estas herramientas, sino también sus implicaciones geopolíticas y de seguridad, especialmente cuando se utilizan en entornos corporativos o con información sensible.


Este artículo se basa en información publicada por TechCrunch el 8 de mayo de 2025.

Deja un comentario