La desinformación procedente de Rusia parece haber encontrado un nuevo canal de distribución: los chatbots de inteligencia artificial. Según un reciente informe, una red moscovita está logrando que sistemas como ChatGPT y Meta AI reproduzcan narrativas falsas pro-rusas en sus respuestas a los usuarios.
Una operación de manipulación a gran escala
NewsGuard, una empresa especializada en el desarrollo de sistemas de calificación para sitios web de noticias e información, ha publicado un nuevo informe que revela cómo una red con sede en Moscú denominada "Pravda" está influyendo sistemáticamente en las respuestas ofrecidas por los chatbots de IA más populares.
La investigación, según publica TechCrunch, muestra que Pravda ha inundado deliberadamente los resultados de búsqueda y los rastreadores web con falsedades favorables a Rusia. El volumen de esta operación es impresionante: solo en 2024, esta red ha publicado aproximadamente 3,6 millones de artículos engañosos, según estadísticas del American Sunlight Project, una organización sin fines de lucro citada en el informe.
Los chatbots repiten desinformación rusa
El equipo de NewsGuard analizó diez de los chatbots de IA más utilizados actualmente en el mercado, incluyendo ChatGPT de OpenAI y Meta AI de Meta. Los resultados son preocupantes: estos sistemas reprodujeron narrativas falsas de desinformación rusa en un 33% de las ocasiones en que fueron consultados sobre temas sensibles.
Entre las falsedades más difundidas se encuentra la afirmación de que Estados Unidos opera laboratorios secretos de armas biológicas en Ucrania, una narrativa completamente falsa pero que los chatbots presentaron como información factual en numerosas ocasiones.
Técnicas sofisticadas de posicionamiento
Según el informe de NewsGuard, el éxito de la red Pravda para infiltrar sus contenidos en las respuestas de los chatbots se debe principalmente a sus sofisticadas técnicas de optimización para motores de búsqueda (SEO). Estas estrategias aumentan la visibilidad de sus contenidos en la web, lo que hace que los sistemas de IA, que se entrenan con enormes cantidades de información disponible en internet, los incorporen a sus bases de conocimiento.
"Esto puede resultar un problema intratable para los chatbots que dependen en gran medida de motores de búsqueda web", señala el informe de NewsGuard citado por TechCrunch.
Un desafío para la integridad de la IA
Este fenómeno plantea serias preocupaciones sobre la integridad de las herramientas de IA generativa, especialmente ahora que millones de personas las utilizan diariamente para obtener información y tomar decisiones. Si estos sistemas reproducen desinformación política sin advertir adecuadamente sobre su dudosa procedencia, podrían estar amplificando involuntariamente campañas de manipulación orquestadas por actores estatales.
La situación es particularmente problemática porque muchos usuarios confían en estas herramientas como fuentes imparciales de información, sin ser conscientes de que los datos con los que han sido entrenadas pueden incluir contenidos sesgados o directamente falsos.
Implicaciones para las empresas tecnológicas
Para compañías como OpenAI y Meta, este informe subraya la urgencia de desarrollar mecanismos más robustos para filtrar la desinformación en sus sistemas. El desafío no es trivial: a medida que estas redes de propaganda se vuelven más sofisticadas, también lo hace la dificultad para detectar y neutralizar su influencia.
Las empresas de IA se enfrentan ahora a preguntas críticas sobre cómo verifican las fuentes de información con las que entrenan sus modelos y qué medidas adicionales pueden implementar para evitar que sus sistemas amplifiquen propaganda extranjera.
Un problema en evolución
La manipulación de chatbots mediante técnicas de SEO representa una evolución en las estrategias de guerra informativa. Mientras que anteriormente las campañas de desinformación se centraban principalmente en redes sociales y medios tradicionales, ahora están adaptándose para explotar las vulnerabilidades de las nuevas tecnologías de IA.
Este caso pone de manifiesto cómo las herramientas de inteligencia artificial, diseñadas para facilitar el acceso a la información, pueden convertirse inadvertidamente en vectores de desinformación si no se implementan suficientes salvaguardas.
La respuesta pendiente
Por el momento, ni OpenAI ni Meta han respondido oficialmente a los hallazgos del informe de NewsGuard. La comunidad tecnológica y los reguladores observan con atención cómo reaccionarán estas empresas ante evidencias de que sus sistemas están siendo manipulados para difundir propaganda extranjera.
La creciente preocupación por la desinformación en plataformas de IA podría acelerar el desarrollo de nuevos estándares y prácticas para garantizar la fiabilidad de estos sistemas, especialmente cuando abordan temas geopolíticos sensibles.
El caso de la influencia rusa en los chatbots de IA ilustra claramente uno de los mayores desafíos de nuestra era digital: cómo garantizar que las tecnologías avanzadas no se conviertan en amplificadores de desinformación. A medida que los sistemas de IA se integran más profundamente en nuestra sociedad, la batalla por la integridad de la información que proporcionan se vuelve cada vez más crucial.