Dario Amodei, CEO de Anthropic, alerta sobre graves fallos de seguridad en DeepSeek

Droids

Updated on:

El CEO de Anthropic alerta sobre graves fallos de seguridad en la IA china DeepSeek

El director ejecutivo de Anthropic, Dario Amodei, ha lanzado una seria advertencia sobre DeepSeek, la empresa china de inteligencia artificial que recientemente ha causado revuelo en Silicon Valley. Según Amodei, el modelo de IA de DeepSeek mostró resultados preocupantes en pruebas de seguridad relacionadas con información sobre armas biológicas.

Fallos críticos en las pruebas de seguridad

Durante una entrevista en el podcast ChinaTalk, Amodei reveló que DeepSeek obtuvo "los peores resultados de prácticamente cualquier modelo que hayamos probado" en evaluaciones de seguridad realizadas por Anthropic. La prueba consistía en evaluar si los modelos de IA podían generar información sensible sobre armas biológicas que no está fácilmente disponible en fuentes públicas.

"No tenía absolutamente ningún bloqueo contra la generación de esta información", afirmó Amodei sobre el modelo de DeepSeek. Aunque el ejecutivo aclaró que no considera que los modelos actuales de DeepSeek sean "literalmente peligrosos", advirtió que podrían serlo en un futuro próximo.

Preocupaciones más allá de Anthropic

Las inquietudes sobre la seguridad de DeepSeek no se limitan a las pruebas de Anthropic. Investigadores de Cisco revelaron la semana pasada que DeepSeek R1 falló en bloquear instrucciones potencialmente dañinas en sus pruebas de seguridad, alcanzando una tasa de éxito del 100% en intentos de elusión de protecciones.

Es importante señalar que otros modelos de IA también mostraron vulnerabilidades significativas en las pruebas de Cisco, con Meta's Llama-3.1-405B y OpenAI's GPT-4o registrando tasas de fallo del 96% y 86% respectivamente.

Impacto en la adopción y restricciones

A pesar de estas advertencias, grandes empresas tecnológicas continúan integrando DeepSeek en sus servicios. AWS y Microsoft han incorporado el modelo R1 a sus plataformas en la nube, lo que resulta particularmente llamativo considerando que Amazon es el principal inversor de Anthropic.

Sin embargo, existe una creciente lista de países, empresas y organizaciones gubernamentales que han comenzado a prohibir el uso de DeepSeek. Entre ellas se encuentran la Marina de Estados Unidos y el Pentágono, que han tomado medidas para bloquear el acceso a la tecnología.

El nuevo panorama competitivo

A pesar de las críticas, Amodei reconoce a DeepSeek como un competidor serio en el campo de la IA. "El nuevo hecho aquí es que hay un nuevo competidor", señaló en ChinaTalk, situando a DeepSeek al nivel de las principales empresas de IA estadounidenses como Anthropic, OpenAI, Google, Meta y xAI.

Anthropic, que se posiciona como un proveedor de modelos de IA que toma la seguridad como prioridad, ha manifestado su apoyo a controles más estrictos sobre la exportación de chips a China, citando preocupaciones sobre posibles ventajas militares.

La controversia en torno a DeepSeek pone de manifiesto la creciente tensión entre la rápida innovación en el campo de la IA y la necesidad de garantizar la seguridad y el control responsable de estas tecnologías. El debate sobre cómo equilibrar estos aspectos probablemente continuará intensificándose a medida que más actores ingresen al mercado global de la IA.

Deja un comentario