Nueva York aprueba una ley pionera para prevenir catástrofes causadas por la inteligencia artificial

Droids

La legislatura del estado de Nueva York ha dado un paso histórico al aprobar un proyecto de ley destinado a regular los modelos de inteligencia artificial (IA) más potentes, con el objetivo de prevenir desastres a gran escala. La normativa, conocida como «SAFE for AI Act» (Ley de Marco Seguro y Exigencia para la IA), es la primera de su tipo a nivel estatal en Estados Unidos y ahora solo necesita la firma de la gobernadora Kathy Hochul para entrar en vigor.

La ley impone a los desarrolladores de sistemas de IA de gran capacidad la obligación de realizar rigurosas evaluaciones de riesgo antes de lanzar sus productos al público. Este enfoque proactivo busca identificar y mitigar posibles «daños catastróficos», estableciendo un nuevo precedente en la forma en que los gobiernos abordan los rápidos avances de esta tecnología.

¿En qué consiste la «Ley SAFE para la IA»?

El núcleo de la «SAFE for AI Act» es la prevención. En lugar de reaccionar a los problemas una vez que han ocurrido, la legislación exige a las empresas que analicen en profundidad las capacidades de sus modelos de IA más avanzados antes de que sean accesibles para el público general.

Según el texto del proyecto de ley, los desarrolladores deben evaluar si sus modelos podrían causar lo que se define como un «daño catastrófico». Este término se refiere específicamente a eventos que cumplan uno de dos criterios:

  1. Causar al menos 500 millones de dólares (aproximadamente 465 millones de euros) en daños económicos.
  2. Provocar la muerte o lesiones físicas graves a un número significativo de personas.

La ley pone un énfasis particular en riesgos de extrema gravedad. Obliga a los desarrolladores a determinar si su tecnología podría ser utilizada para facilitar el diseño, la fabricación o el uso de armas químicas, biológicas, radiológicas o nucleares. Si una evaluación concluye que un modelo de IA presenta un «riesgo inaceptable» en estas áreas, su despliegue público quedaría prohibido.

Además de las evaluaciones de riesgo, el proyecto de ley establece que los desarrolladores deben implementar un sistema de marca de agua digital u otro método de autenticación de contenido. Esta medida busca facilitar la identificación del contenido generado por IA, una herramienta clave en la lucha contra la desinformación y los deepfakes. La supervisión del cumplimiento recaerá en la Oficina de Tecnología Empresarial del estado, mientras que la Fiscalía General de Nueva York tendrá la potestad de hacer cumplir sus disposiciones.

Un enfoque en los gigantes tecnológicos

La «SAFE for AI Act» no pretende regular toda la industria de la inteligencia artificial. Su alcance está cuidadosamente delimitado para centrarse en los llamados «modelos cubiertos», es decir, los sistemas de IA más potentes y complejos del mercado.

La ley define estos modelos a través de un umbral técnico: aquellos que han sido entrenados utilizando al menos 10^26 operaciones de cómputo (conocidas como FLOPs, por sus siglas en inglés). Para ponerlo en perspectiva, este nivel de cálculo está asociado a los modelos de IA más avanzados y costosos, como las últimas generaciones de GPT de OpenAI o Gemini de Google.

Este enfoque significa que la legislación afectará principalmente a un pequeño grupo de grandes corporaciones tecnológicas que tienen los recursos para desarrollar estos sistemas de vanguardia, como OpenAI, Google, Anthropic y Microsoft. Las empresas más pequeñas o los desarrolladores que trabajan en modelos de IA de menor escala no estarían sujetos a estas estrictas regulaciones.

Apoyos, críticas y el debate sobre los riesgos de la IA

La aprobación de la ley ha sido celebrada por sus impulsores como un paso crucial hacia una innovación responsable. La senadora estatal Kristen Gonzalez, una de las principales patrocinadoras del proyecto, destacó su importancia. Según declaraciones recogidas por la publicación especializada The Verge, la senadora afirmó que «la Ley SAFE para la IA representa un paso fundamental para garantizar que la innovación no se produzca a costa de nuestra seguridad».

Sin embargo, el proyecto de ley también ha generado críticas por parte de organizaciones de derechos digitales. Evan Greer, directora de Fight for the Future, expresó su preocupación por el enfoque de la normativa. En declaraciones a The Verge, Greer argumentó que «esta ley se centra en daños especulativos, al estilo de la ciencia ficción, en lugar de los daños muy reales que los sistemas de IA no regulados están causando ahora mismo».

Los críticos señalan que, al centrarse en escenarios apocalípticos, la ley podría estar descuidando problemas más inmediatos y tangibles, como el sesgo algorítmico, la discriminación, la vigilancia masiva o la proliferación de desinformación. Además, existe la preocupación de que este tipo de regulación, aunque bien intencionada, pueda acabar consolidando el poder de las grandes tecnológicas. Las corporaciones gigantes tienen los recursos para cumplir con complejas auditorías y requisitos legales, mientras que las startups y los competidores más pequeños podrían verse excluidos del mercado, afianzando así el dominio de los actuales líderes de la industria.

Un paso adelante en la carrera por la regulación

La iniciativa de Nueva York no surge en el vacío. Se enmarca en un contexto global de creciente interés por establecer barreras de seguridad en torno a la inteligencia artificial. A nivel internacional, la Ley de IA de la Unión Europea ya ha establecido un marco regulatorio basado en el riesgo. En Estados Unidos, la Casa Blanca emitió una orden ejecutiva el año pasado para guiar el desarrollo seguro de la IA a nivel federal.

La «SAFE for AI Act» es significativa porque representa el primer intento de un estado estadounidense de legislar específicamente sobre los riesgos más extremos de los modelos de IA de frontera. Su aprobación en la legislatura estatal envía una fuerte señal sobre la urgencia que perciben los legisladores para abordar esta tecnología emergente.

El futuro de la ley depende ahora de la gobernadora Kathy Hochul. Si estampa su firma, Nueva York se convertirá en un laboratorio para la regulación de la IA en Estados Unidos, y su éxito o fracaso será observado de cerca por otros estados y por el gobierno federal.

Deja un comentario