Meta, hasta ahora uno de los mayores defensores de la inteligencia artificial (IA) de código abierto, ha anunciado un importante matiz en su estrategia. Su CEO, Mark Zuckerberg, ha señalado que los futuros modelos que se aproximen a la «superinteligencia» o Inteligencia Artificial General (IAG) no se publicarán abiertamente, citando preocupaciones sobre la seguridad y el riesgo de un uso malintencionado. La decisión, sin embargo, no afectará a modelos de próxima generación como Llama 3, que sí se mantendrá como código abierto.
La compañía que dirige Facebook, Instagram y WhatsApp ha sido un actor clave en la democratización de la IA avanzada. Su familia de modelos de lenguaje Llama ha permitido a desarrolladores, investigadores y empresas de todo el mundo acceder a una tecnología que, en manos de sus competidores como OpenAI (creadores de ChatGPT) y Google, ha permanecido mayoritariamente cerrada y propietaria. Este nuevo anuncio traza una línea clara: la apertura tiene un límite, y ese límite es la seguridad ante una tecnología con un potencial sin precedentes.
Un giro estratégico en la carrera por la Inteligencia Artificial General
La confirmación de este cambio de rumbo llegó de la mano del propio Mark Zuckerberg. En una reciente entrevista, Zuckerberg explicó que no sería sensato abrir el código de sistemas de IA considerablemente más avanzados en el futuro, como los que se acercan a la IAG. «Por un lado, el código abierto es genial», comentó, destacando sus beneficios para la innovación y la seguridad al permitir que la comunidad identifique problemas. «Por otro lado, si estás construyendo algo que es fundamentalmente superinteligente, existe una gran pregunta sobre si quieres que sea de código abierto», matizó.
Esta postura representa un equilibrio delicado. Meta no abandona su filosofía open source, pero la modulará en función de la capacidad del modelo. La compañía seguirá publicando modelos potentes, como el esperado Llama 3, que se prevé que compita con los sistemas más avanzados del mercado actual. Sin embargo, para las tecnologías que trasciendan estas capacidades, la puerta permanecerá cerrada.
«No creo que la respuesta óptima para todos los modelos futuros sea necesariamente la misma», escribió Zuckerberg en una publicación en Threads a principios de este año. Esta declaración ya anticipaba una estrategia más matizada, que ahora se ha concretado.
La seguridad como argumento principal
La justificación central de Meta para mantener bajo llave sus futuras «superinteligencias» es la seguridad. Una Inteligencia Artificial General, por definición, poseería capacidades cognitivas a nivel humano o superiores. Liberar una herramienta de tal poder sin restricciones podría tener consecuencias impredecibles y potencialmente catastróficas si cayera en las manos equivocadas.
Zuckerberg argumenta que, si bien el código abierto ayuda a que muchas personas revisen y mejoren la seguridad de los sistemas actuales, el cálculo de riesgos cambia drásticamente cuando se habla de IAG. El potencial para su uso en ciberataques avanzados, desinformación a gran escala o incluso el desarrollo de armas autónomas obliga a adoptar una postura de máxima cautela.
Esta decisión alinea parcialmente a Meta con sus principales competidores. OpenAI, por ejemplo, ha sido muy criticada por la comunidad de código abierto por mantener en secreto la arquitectura y los datos de entrenamiento de su modelo más avanzado, GPT-4, precisamente por motivos de seguridad y competencia.
¿Qué es la «superinteligencia» y por qué es tan relevante?
Para entender la magnitud de la decisión de Meta, es crucial comprender qué significa «superinteligencia» o Inteligencia Artificial General (IAG). A diferencia de las IA actuales, que son expertas en tareas específicas (como escribir texto, generar imágenes o traducir idiomas), una IAG sería un sistema con la capacidad de entender, aprender y aplicar su inteligencia para resolver cualquier problema, de forma similar a un ser humano.
Una «superinteligencia» iría un paso más allá, superando las capacidades cognitivas humanas en prácticamente todos los ámbitos. La creación de una tecnología así es el objetivo final de muchas de las grandes empresas tecnológicas, ya que supondría un punto de inflexión para la ciencia, la medicina y la sociedad en general. Sin embargo, también plantea profundos dilemas éticos y de seguridad, que son los que ahora preocupan a Zuckerberg.
Una apuesta de miles de millones para construir el futuro
La ambición de Meta de alcanzar la IAG no es solo una declaración de intenciones; está respaldada por una de las mayores inversiones en infraestructura tecnológica de la historia. Zuckerberg ha revelado que la compañía está en proceso de construir una capacidad de computación masiva que, para finales de 2024, incluirá 350.000 procesadores (GPU) H100 de Nvidia.
Estas GPUs son el hardware más codiciado para el entrenamiento de IA y su coste es astronómico. Cada unidad puede costar entre 25.000 y 40.000 dólares (aproximadamente entre 23.000 y 36.800 euros), lo que sitúa la inversión total de Meta en sus nuevos sistemas en más de 10.000 millones de dólares (más de 9.200 millones de euros) solo en procesadores. Esta infraestructura, combinada con otros componentes, tiene como objetivo crear dos enormes clústeres de computación dedicados exclusivamente a la investigación y el desarrollo de la futura IAG de la compañía.
El debate del código abierto: entre la innovación y el control
La nueva postura de Meta aviva el debate central que divide a la industria de la IA: ¿debe la tecnología más avanzada ser abierta o cerrada?
Por un lado, figuras como Yann LeCun, científico jefe de IA de Meta y uno de los «padrinos» de la IA moderna, son firmes defensores del código abierto. LeCun ha argumentado repetidamente que la apertura es la mejor forma de garantizar la seguridad, ya que permite que miles de expertos independientes examinen el código en busca de fallos, sesgos y vulnerabilidades.
Por otro lado, empresas como OpenAI y Google sostienen que el control centralizado es esencial para prevenir el mal uso. La decisión de Zuckerberg sitúa a Meta en un terreno intermedio: una estrategia híbrida que busca obtener lo mejor de ambos mundos. Continuará fomentando la innovación y la competencia en el ecosistema con modelos como Llama 3, que seguirá siendo de código abierto para competir directamente con los modelos de Google y OpenAI.
Al mismo tiempo, la compañía se reserva el derecho de actuar como guardián de sus creaciones más potentes, reconociendo que, a partir de un cierto umbral de poder, los riesgos podrían superar a los beneficios de la apertura total. El futuro de la IA en Meta, por tanto, será una combinación de colaboración abierta y desarrollo controlado.






