California, el epicentro mundial de la inteligencia artificial y hogar de gigantes como Google, Meta y OpenAI, se encuentra en medio de un intenso pulso legislativo que podría redefinir el futuro de esta tecnología. Un ambicioso proyecto de ley que busca imponer estrictas normas de seguridad a los modelos de IA más avanzados ha superado su primer gran obstáculo en el Senado estatal, desatando un choque frontal entre los defensores de la regulación preventiva y gran parte de la industria de Silicon Valley, que advierte de consecuencias nefastas para la innovación.
El debate en torno a esta propuesta, conocida como SB 1047, no es solo una disputa local; se considera un posible precedente para la regulación de la IA en todo Estados Unidos y refleja una tensión global creciente entre la promesa de la inteligencia artificial y sus potenciales peligros.
¿En qué consiste la controvertida «ley de seguridad de la IA»?
El epicentro de la polémica es el proyecto de ley del Senado 1047 (SB 1047), bautizado oficialmente como la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera. Impulsado por el senador demócrata por San Francisco, Scott Wiener, el proyecto tiene un objetivo claro: establecer un marco de seguridad obligatorio para el desarrollo de los sistemas de IA más potentes.
La ley no pretende regular todas las aplicaciones de IA, sino que se centra específicamente en los llamados modelos de frontera. Estos se definen como aquellos sistemas cuyo desarrollo implica un coste computacional masivo, superior a 10^26 operaciones de coma flotante (FLOPs) —una medida de la capacidad de cálculo de un ordenador—, o un coste de entrenamiento superior a los 100 millones de dólares (aproximadamente 92 millones de euros).
Bajo la SB 1047, las empresas que desarrollen estos modelos estarían obligadas a:
- Realizar pruebas exhaustivas de seguridad para evaluar capacidades peligrosas, como la posibilidad de generar desinformación a gran escala, facilitar ciberataques o ayudar en la creación de armas biológicas.
- Certificar ante el estado que han mitigado cualquier riesgo peligroso antes de lanzar el modelo al público.
- Implementar robustas medidas de ciberseguridad para evitar que los modelos sean robados o utilizados por actores maliciosos.
- Crear una nueva agencia de supervisión, la «División de Modelos de Frontera», dentro del Departamento de Tecnología de California, que tendría la potestad de auditar a las empresas y acceder a sus evaluaciones de riesgo.
Quizás el punto más drástico es que otorgaría al Fiscal General de California la autoridad para ordenar el «apagado» de un modelo si se determina que representa un «riesgo crítico» para la seguridad pública.
Seguridad ante todo: los argumentos a favor de la regulación
Los defensores de la SB 1047 la presentan como una medida de «sentido común». El propio senador Wiener ha argumentado que la IA no debería ser una excepción a las reglas que se aplican a otras industrias potentes. «Todas las demás industrias de alto riesgo —aviación, farmacéutica, automoción— tienen normas de seguridad básicas para garantizar que sus productos no dañen a la gente. La inteligencia artificial no debería ser diferente», afirmó en un comunicado oficial tras la aprobación del proyecto en el Senado.
Este bando cuenta con el respaldo de figuras de peso en el mundo de la IA, como Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores galardonados con el Premio Turing y considerados «padrinos» de la IA moderna. Ambos han expresado públicamente su preocupación por los riesgos existenciales que podrían surgir de una IA superinteligente sin control. Organizaciones como el Center for AI Safety también apoyan la medida, insistiendo en que la autorregulación de las empresas es insuficiente para prevenir escenarios catastróficos. Su argumento principal es que, una vez que un modelo peligroso es liberado, el daño podría ser irreversible.
«Una política terrible»: la rebelión de Silicon Valley
La respuesta de una parte importante del ecosistema tecnológico ha sido contundente y abrumadoramente negativa. Líderes de la industria, inversores y académicos han calificado la ley de desastrosa para el futuro de California como líder en innovación.
Uno de los críticos más influyentes es Andrew Ng, profesor de Stanford y pionero del aprendizaje profundo, quien la ha descrito como una «política terrible». En una carta abierta firmada junto a otros expertos, argumenta que la SB 1047 crearía una «enorme burocracia regulatoria» que ahogaría a las startups y a la comunidad de código abierto, consolidando el poder en manos de unas pocas grandes corporaciones que son las únicas capaces de asumir los costes del cumplimiento normativo.
Yann LeCun, científico jefe de IA en Meta, comparte esta preocupación, defendiendo que una regulación estricta perjudicará a la investigación abierta y transparente. La principal crítica de la industria, resumida en una carta de oposición de la organización TechNet, se centra en varios puntos:
- Se basa en riesgos hipotéticos: Los opositores sostienen que la ley legisla sobre escenarios «de ciencia ficción» en lugar de abordar los daños reales y presentes de la IA, como los sesgos y la discriminación.
- Frena la innovación: El miedo a las responsabilidades legales y los altos costes de las pruebas podrían disuadir a las empresas de investigar y desarrollar nuevos modelos.
- Fomenta la fuga de talento: Advierten de que las compañías de IA podrían simplemente optar por mudarse de California a otros estados o países con regulaciones más laxas, llevándose con ellas inversión y empleos.
CalCompute y el futuro incierto de la IA en su epicentro global
Consciente de las críticas sobre el impacto en los actores más pequeños, el senador Wiener ha incluido en su propuesta la creación de CalCompute, un clúster de computación en la nube financiado con fondos públicos. El objetivo de esta iniciativa sería proporcionar a investigadores, startups y académicos acceso a la potencia de cálculo necesaria para entrenar modelos de IA, un recurso que hoy está mayoritariamente en manos de las grandes tecnológicas.
La aprobación de la SB 1047 en el Senado por 32 votos a favor y 8 en contra es solo el primer paso. Ahora el proyecto de ley pasa a la Asamblea de California, donde se espera otro intenso debate. Si finalmente es aprobada y firmada por el gobernador Gavin Newsom, California establecería el marco regulatorio más estricto para la IA en Estados Unidos, con posibles repercusiones a nivel global.
Este movimiento en California no ocurre en el vacío. Sigue la estela de la Ley de IA de la Unión Europea, aunque el enfoque californiano es más específico, centrándose en los modelos de frontera más avanzados. El resultado de esta batalla legislativa no solo determinará las reglas del juego para Silicon Valley, sino que podría sentar las bases de cómo las sociedades democráticas de todo el mundo deciden equilibrar la innovación sin límites con la seguridad colectiva en la era de la inteligencia artificial.