Madrid. – OpenAI, la compañía de inteligencia artificial detrás de herramientas tan populares como ChatGPT, ha confirmado oficialmente que está colaborando con el Departamento de Defensa de Estados Unidos en varios proyectos de software. Este anuncio marca un giro significativo en la postura de la empresa, que hasta hace poco prohibía explícitamente el uso de su tecnología para fines «militares y de guerra».
La confirmación llegó de la mano de Anna Makanju, vicepresidenta de asuntos globales de OpenAI, durante una intervención en el Foro Económico Mundial de Davos. Makanju detalló que la empresa está trabajando activamente con el Pentágono en herramientas de ciberseguridad y explicó que la compañía ha actualizado sus políticas de uso para permitir este tipo de colaboraciones, siempre y cuando no impliquen el desarrollo de armamento.
Un giro estratégico en la política de uso
El cambio más notable ha sido la discreta modificación de la política de uso de OpenAI. Donde antes se leía una prohibición general sobre «actividades que tienen un alto riesgo de daño físico, incluyendo… desarrollo de armas [y] fines militares y de guerra», ahora la redacción prohíbe el uso de sus modelos para «dañar a uno mismo o a otros», mencionando específicamente el «desarrollo o uso de armas». La referencia general a «fines militares» ha desaparecido.
Según explicó Makanju en Davos, esta modificación busca aportar mayor claridad. «Debido a que nuestra política original tenía una prohibición general de lo ‘militar’, mucha gente pensó que esto prohibiría muchos de estos casos de uso», declaró en un panel, según recogieron medios como Bloomberg. «Y por eso queríamos ser más claros, pues creemos que una redacción más precisa es importante».
La compañía insiste en que su política de no permitir que su tecnología se utilice para desarrollar o desplegar armamento sigue «absolutamente vigente». El objetivo, argumentan, es no cerrar la puerta a aplicaciones militares que consideran beneficiosas para la seguridad nacional y el bienestar social, como la prevención del suicidio entre veteranos o la lucha contra la desinformación.
Ciberseguridad en el punto de mira de la colaboración
La colaboración principal entre OpenAI y el gobierno estadounidense se centra, por ahora, en el campo de la ciberseguridad. La empresa está trabajando con DARPA (la Agencia de Proyectos de Investigación Avanzados de Defensa), el brazo de innovación tecnológica del Pentágono, responsable de algunos de los avances tecnológicos más importantes de las últimas décadas, como internet o el GPS.
El proyecto conjunto tiene como objetivo desarrollar herramientas de software de código abierto para proteger redes y sistemas críticos contra ciberataques. Este tipo de colaboración defensiva es, según OpenAI, un ejemplo perfecto del tipo de aplicación militar que sus nuevas políticas permiten. No se trata de crear armas autónomas, sino de utilizar la capacidad de la IA para detectar y neutralizar amenazas digitales de forma más eficiente.
La implicación de DARPA sugiere que el Pentágono ve un enorme potencial en los modelos de lenguaje de gran tamaño (LLM), como los que impulsan a ChatGPT, para modernizar sus capacidades defensivas en el ciberespacio.
La delgada línea entre pragmatismo y ética
La decisión de OpenAI de abrazar la colaboración militar, aunque sea de forma limitada, la sitúa en una posición pragmática que busca equilibrar las oportunidades comerciales y estratégicas con sus principios éticos. El CEO de la compañía, Sam Altman, ha sido un claro defensor de estrechar lazos con el gobierno de Estados Unidos, argumentando que la IA es una tecnología demasiado importante para la seguridad nacional como para que sus principales desarrolladores se mantengan al margen.
Esta postura contrasta con la de otras gigantes tecnológicas. El caso más conocido es el del «Proyecto Maven» de Google en 2018. Cuando se reveló que la compañía estaba ayudando al Pentágono a usar IA para analizar imágenes de drones, miles de empleados protestaron, lo que llevó a Google a no renovar el contrato y a publicar un conjunto de principios éticos para la IA que prohibían su uso en armamento.
OpenAI parece haber aprendido de aquella experiencia, tratando de trazar una línea muy clara: sí a la defensa, la inteligencia y el apoyo logístico; no rotundo a las armas letales autónomas. Sin embargo, esta distinción no está exenta de debate. Los críticos argumentan que cualquier colaboración militar, por defensiva que sea, contribuye a la maquinaria de guerra y que la línea entre una herramienta de análisis y un sistema de selección de objetivos puede volverse borrosa con el tiempo.
Silicon Valley y la Defensa: un debate reabierto
El movimiento de OpenAI no es un hecho aislado, sino que refleja una tendencia creciente en Silicon Valley. A medida que la IA se vuelve más poderosa y central para la geopolítica, las empresas que la desarrollan se enfrentan a una presión cada vez mayor para posicionarse en el tablero de la defensa nacional.
Compañías como Palantir o Anduril han construido su modelo de negocio en torno a la colaboración con agencias de defensa e inteligencia. Ahora, una de las empresas de IA más influyentes y con mayor visibilidad pública se suma a esta corriente, aunque con matices.
La decisión de OpenAI podría normalizar las colaboraciones entre las grandes tecnológicas y los ejércitos, siempre que se establezcan unos límites éticos claros. El debate ya no es si la IA se usará con fines militares —algo que ya es un hecho—, sino cómo y con qué salvaguardas se hará. La postura de OpenAI, que busca activamente un papel en la seguridad nacional de EE. UU., podría marcar el camino para otras empresas del sector y redefinir la relación entre la innovación tecnológica y el poder militar en el siglo XXI.