Anthropic refuerza políticas de Claude: prohíbe armas CBRN y malware, flexibiliza contenido político

Droids

Updated on:

Anthropic actualiza las reglas de uso de Claude ante un panorama de IA más peligroso

Anthropic ha actualizado la política de uso de su chatbot Claude para responder a las crecientes preocupaciones sobre la seguridad de la IA, según informa The Verge.

La nueva política prohíbe específicamente usar Claude para desarrollar armas biológicas, químicas, radiológicas o nucleares (CBRN), así como explosivos de alto rendimiento. Anteriormente, Anthropic prohibía la producción general de armas o materiales peligrosos, pero la versión actualizada nombra explícitamente las armas CBRN y los explosivos de alto rendimiento.

En mayo de 2025, Anthropic implementó la protección «AI Safety Level 3» junto con el lanzamiento de su modelo Claude Opus 4. Estas salvaguardas están diseñadas para hacer que el modelo sea más difícil de vulnerar y evitar que ayude con el desarrollo de armas CBRN.

La empresa reconoce los nuevos riesgos que plantean las herramientas de IA agentiva, mencionando específicamente «Computer Use» (que permite a Claude tomar el control del ordenador del usuario) y «Claude Code» (una herramienta que integra Claude directamente en el terminal del desarrollador). Según Anthropic, «estas poderosas capacidades introducen nuevos riesgos, incluido el potencial de abuso a escala, creación de malware y ciberataques».

La política actualizada añade una nueva sección titulada «No comprometer sistemas informáticos o de red», que incluye reglas contra usar Claude para descubrir o explotar vulnerabilidades, crear o distribuir malware, y desarrollar herramientas para ataques de denegación de servicio (DoS).

Anthropic también ha flexibilizado su política sobre contenido político. En lugar de prohibir todo el contenido relacionado con campañas políticas y lobbying, ahora solo prohibirá usar Claude para «casos de uso que sean engañosos o disruptivos para los procesos democráticos, o que involucren la segmentación de votantes y campañas».

Además, la compañía aclaró que los requisitos para casos de uso de «alto riesgo» (donde Claude hace recomendaciones a individuos o clientes) solo se aplican a escenarios dirigidos al consumidor, no al uso empresarial.