SAN FRANCISCO / PEKÍN – OpenAI, la compañía desarrolladora del popular chatbot ChatGPT, ha revelado en un informe publicado el pasado jueves un incremento en el número de grupos originarios de China que utilizan su tecnología de inteligencia artificial (IA) para llevar a cabo operaciones encubiertas con fines maliciosos. Aunque las operaciones detectadas han sido generalmente de pequeña escala y dirigidas a audiencias limitadas, la empresa con sede en San Francisco destacó una expansión en el alcance y las tácticas empleadas por estos grupos.
Desde la irrupción de ChatGPT a finales de 2022, han existido preocupaciones significativas sobre las posibles consecuencias negativas de la tecnología de IA generativa, capaz de producir texto, imágenes y audio de apariencia humana de forma rápida y sencilla. El Ministerio de Asuntos Exteriores de China ha negado las afirmaciones de OpenAI, calificándolas de "carentes de base".
Detalles del Informe de OpenAI sobre Operaciones Encubiertas
El informe de OpenAI, divulgado el jueves 6 de junio, según informó Reuters, señala que la compañía está observando una actividad creciente por parte de estos grupos chinos. Si bien se subraya que el impacto inmediato de estas operaciones parece limitado debido a su escala reducida, la sofisticación y variedad de las tácticas están en aumento, lo que representa un desafío continuo para las plataformas de IA.
OpenAI publica regularmente informes sobre la actividad maliciosa que detecta en su plataforma. Estos abusos pueden incluir la creación y depuración de software malicioso (malware), o la generación de contenido falso para sitios web y plataformas de redes sociales, una práctica que busca manipular la opinión pública o realizar estafas. El enlace anterior, por ejemplo, detalla un informe de Microsoft sobre cómo detectaron a hackers de China, Rusia e Irán utilizando sus propias herramientas de IA, ilustrando un problema que afecta a múltiples desarrolladores de esta tecnología.
Ejemplos Concretos del Uso Indebido
El informe de OpenAI proporciona varios ejemplos de cómo se ha utilizado su tecnología con intenciones fraudulentas o manipuladoras por parte de grupos vinculados a China.
Manipulación en Redes Sociales y Desinformación
En un caso destacado, OpenAI procedió a prohibir cuentas de ChatGPT que estaban generando publicaciones en redes sociales sobre temas políticos y geopolíticos sensibles o relevantes para China. Entre el contenido generado se encontraban:
- Críticas a un videojuego con temática centrada en Taiwán.
- Acusaciones falsas dirigidas contra un activista paquistaní.
- Contenido relacionado con el cierre de la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID).
Parte del contenido también se enfocaba en la política estadounidense, como las críticas a los aranceles impuestos por el expresidente Donald Trump. Un ejemplo de publicación generada para la plataforma X (anteriormente Twitter) citado por Reuters es: "Los aranceles encarecen escandalosamente los productos importados, pero el gobierno derrocha en ayuda exterior. ¿Quién se supone que debe seguir comiendo?". Este tipo de mensajes busca exacerbar tensiones y polarizar el debate público.
Soporte a Ciberoperaciones
Otro ejemplo preocupante implica a actores de amenazas vinculados a China que utilizaron la IA para apoyar diversas fases de sus ciberoperaciones. Estas actividades incluían:
- Investigación de fuentes abiertas para recopilar información.
- Modificación de scripts para adaptarlos a sus necesidades.
- Resolución de problemas en configuraciones de sistemas.
- Desarrollo de herramientas para ataques de fuerza bruta (intentos repetidos de adivinar contraseñas) y para la automatización de actividades en redes sociales.
Campañas de Influencia en Estados Unidos
Un tercer caso identificado por OpenAI fue una operación de influencia con origen en China que generó contenido polarizador para redes sociales. Esta campaña no solo se valió de texto generado por IA, sino también de imágenes de perfil creadas artificialmente, con el objetivo de difundir mensajes que apoyaban ambos lados de temas divisivos dentro del discurso político estadounidense, buscando así amplificar la discordia.
Respuesta Oficial de China
Ante estas acusaciones, el Ministerio de Asuntos Exteriores de China ha declarado que las afirmaciones de OpenAI "carecen de base", según la cobertura de Reuters. Un portavoz del ministerio enfatizó la postura de Pekín respecto a la IA: "China concede gran importancia a la gobernanza de la inteligencia artificial y se ha opuesto sistemáticamente al mal uso y abuso de la tecnología de inteligencia artificial".
Esta respuesta se alinea con las negativas previas de China frente a acusaciones similares de espionaje cibernético o campañas de desinformación emanadas desde otros países u organizaciones tecnológicas.
OpenAI: Un Gigante Tecnológico en Crecimiento
OpenAI se ha consolidado como una de las empresas privadas más valiosas del mundo. Recientemente, la compañía anunció una ronda de financiación de 40.000 millones de dólares (aproximadamente 36.800 millones de euros), lo que situó la valoración de la empresa en unos impresionantes 300.000 millones de dólares (alrededor de 276.000 millones de euros). Este crecimiento exponencial subraya el enorme interés y la inversión en el campo de la inteligencia artificial, pero también intensifica el escrutinio sobre cómo se gestionan los riesgos asociados a estas potentes tecnologías.
La detección y mitigación del uso malicioso de la IA generativa sigue siendo un desafío clave para empresas como OpenAI, gobiernos y la sociedad en general, en un esfuerzo por equilibrar la innovación con la seguridad y la ética. La periodista Anna Tong en San Francisco, con información adicional de Liz Lee en Pekín, contribuyó a la información original de Reuters base de esta noticia.






