Meta se desmarca de sus rivales y rechaza firmar el pacto voluntario de la UE sobre inteligencia artificial

Droids

Updated on:

En una decisión que la diferencia de sus principales competidores, Meta, la empresa matriz de Facebook, Instagram y WhatsApp, ha anunciado que no firmará el Pacto sobre Inteligencia Artificial (IA) de la Unión Europea. Esta iniciativa voluntaria, suscrita por gigantes como Google, Microsoft y OpenAI, busca establecer un marco de buenas prácticas mientras se finaliza la legislación definitiva. La compañía dirigida por Mark Zuckerberg argumenta que los términos del pacto son ambiguos y podrían frenar la innovación, una postura que ha sido recibida con «decepción» por parte de las autoridades de Bruselas.

Un ‘no’ que resuena en Bruselas

La Unión Europea ha estado trabajando activamente para posicionarse a la vanguardia de la regulación de la inteligencia artificial. Como paso intermedio antes de la entrada en vigor de la ambiciosa y vinculante Ley de IA, la Comisión Europea propuso un pacto de adhesión voluntaria. El objetivo era que las empresas más avanzadas en el desarrollo de esta tecnología demostraran un compromiso temprano con la seguridad, la transparencia y la ética.

La respuesta de la industria fue mayoritariamente positiva. Empresas como Google, Microsoft, OpenAI (creadora de ChatGPT), Anthropic, IBM y otras docenas de compañías del sector decidieron sumarse a la iniciativa. Sin embargo, la ausencia de Meta en la lista de firmantes ha sido notoria.

La reacción desde Bruselas no se hizo esperar. El Comisario de Mercado Interior, Thierry Breton, una de las figuras clave detrás de la estrategia digital europea, expresó su descontento públicamente. En una publicación en la red social X, Breton se mostró «decepcionado» por la negativa de Meta, subrayando que el pacto representa una oportunidad para que las empresas «se preparen y demuestren su responsabilidad» antes de que la ley sea de obligado cumplimiento. La decisión de Meta la coloca, por tanto, en una posición aislada frente a sus principales rivales en la carrera por la IA.

Los argumentos de Meta: entre la innovación y la incertidumbre

Para explicar su postura, Meta recurrió a su Presidente de Asuntos Globales, Nick Clegg. En una extensa publicación en el blog de la compañía, Clegg detalló las razones detrás de la negativa. El principal argumento es que las disposiciones del Pacto sobre IA son, en su opinión, «vagas y mal definidas».

Según Clegg, esta falta de claridad podría tener consecuencias no deseadas. «Creemos que aceptar compromisos voluntarios cuyos detalles clave no están claros corre el riesgo de ahogar la innovación y crear incertidumbre jurídica para las empresas que intentan cumplirlos», escribió. Meta teme que un marco ambiguo pueda perjudicar tanto a las grandes tecnológicas como a las pequeñas empresas y startups que forman parte del ecosistema de la IA.

No obstante, Clegg se esforzó en matizar que esta negativa no implica un rechazo a la regulación. Al contrario, aseguró que Meta está «plenamente comprometida con los objetivos de la Ley de IA» y que cumplirá con todas sus obligaciones una vez que esta se convierta en legislación firme. Además, destacó que la compañía participa activamente en otros foros internacionales de gobernanza de la IA, como el Proceso de IA del G7 y la prestigiosa Partnership on AI, para demostrar su compromiso con un desarrollo responsable de la tecnología.

¿Qué es el Pacto sobre IA y por qué es importante?

Para entender el alcance de la decisión de Meta, es crucial diferenciar entre el Pacto sobre IA y la Ley de IA.

  • El Pacto sobre IA es un código de conducta voluntario. Funciona como una declaración de intenciones y un compromiso de autorregulación.
  • La Ley de IA (AI Act) será una legislación completa, pionera a nivel mundial y de carácter vinculante para cualquier empresa que quiera operar en el mercado único europeo.

El pacto fue diseñado por la Comisión Europea como un «puente» temporal. Su propósito es adelantar algunas de las prácticas que exigirá la futura ley, promoviendo un entorno de confianza y seguridad desde ahora. Entre los compromisos que incluye se encuentran medidas para identificar y mitigar riesgos, desarrollar sistemas robustos y fiables, y aumentar la transparencia, por ejemplo, mediante el uso de marcas de agua para identificar contenidos generados por IA, como los vídeos «deepfake». Al firmarlo, empresas como Google y Microsoft se comprometen a empezar a aplicar estos principios de inmediato.

El dilema del código abierto y el futuro de la regulación

La estrategia de Meta en el campo de la inteligencia artificial podría ofrecer una pista adicional sobre su reticencia. A diferencia de OpenAI o Google, que mantienen sus modelos más avanzados (GPT-4 y PaLM 2, respectivamente) como sistemas cerrados, Meta ha apostado por un enfoque de código abierto con su modelo Llama 2.

Esto significa que cualquier desarrollador puede descargar, modificar y utilizar Llama 2 libremente. Si bien este enfoque fomenta la innovación y la democratización de la tecnología, también presenta un desafío regulatorio. Una vez que un modelo de código abierto es liberado, su creador original tiene un control limitado sobre cómo se utiliza o se modifica. Esto complica la capacidad de Meta para garantizar el cumplimiento de ciertas normas, como el seguimiento de los usos de su tecnología o la implementación de salvaguardas universales, que podrían exigirse en el pacto.

La decisión de Meta abre un nuevo capítulo en el debate global sobre cómo regular una tecnología que avanza a una velocidad vertiginosa. Mientras sus competidores optan por una colaboración proactiva con los reguladores europeos, Meta elige un camino propio, defendiendo la innovación frente a lo que considera una regulación imprecisa. En cualquier caso, esta disputa sobre un pacto voluntario es solo el preludio. Cuando la Ley de IA de la UE sea una realidad, todas las empresas, incluida Meta, deberán jugar bajo las mismas reglas.