A pesar de las preocupaciones generalizadas sobre el potencial impacto de la inteligencia artificial en la desinformación electoral, Meta ha revelado que el contenido generado por IA representó menos del 1% de la desinformación relacionada con elecciones en sus plataformas durante 2024.
Análisis global de impacto
Según informó TechCrunch, la empresa realizó un análisis exhaustivo que abarcó importantes procesos electorales en diversos países, incluyendo Estados Unidos, Bangladesh, Indonesia, India, Pakistán, el Parlamento Europeo, Francia, Reino Unido, Sudáfrica, México y Brasil.
"Si bien hubo casos confirmados o sospechosos del uso de IA, los volúmenes se mantuvieron bajos y nuestras políticas y procesos existentes resultaron suficientes para reducir el riesgo en torno al contenido generado por IA", explicó Meta en una publicación en su blog oficial.
Medidas preventivas efectivas
Como parte de sus esfuerzos para combatir la desinformación, la herramienta de generación de imágenes Imagine AI de Meta rechazó 590,000 solicitudes para crear imágenes de figuras políticas prominentes durante el mes previo al día de las elecciones. Estas solicitudes incluían intentos de generar imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden.
Redes de influencia y propaganda
La compañía también reveló que las redes coordinadas que intentaban difundir propaganda o desinformación obtuvieron solo "ganancias incrementales de productividad y generación de contenido" mediante el uso de IA generativa. Meta enfatizó que su enfoque para combatir estas campañas se centra en el comportamiento de las cuentas, no en el contenido que publican, independientemente de si fue creado con IA o no.
Operaciones desmanteladas
Durante este período, Meta logró desarticular aproximadamente 20 nuevas operaciones de influencia encubierta en todo el mundo para prevenir la interferencia extranjera. La empresa señaló que la mayoría de estas redes no tenían audiencias auténticas y algunas utilizaban "me gusta" y seguidores falsos para aparentar mayor popularidad.
Comparativa con otras plataformas
En un giro interesante, Meta apuntó a otras plataformas sociales, señalando que los videos falsos sobre las elecciones estadounidenses vinculados a operaciones de influencia con base en Rusia se publicaron principalmente en X (anteriormente Twitter) y Telegram.
Perspectivas futuras
"Mientras hacemos balance de lo que hemos aprendido durante este año extraordinario, mantendremos nuestras políticas bajo revisión y anunciaremos cualquier cambio en los próximos meses", indicó Meta en su comunicado.
Este informe llega en un momento crucial, cuando la preocupación por el impacto de la IA en los procesos democráticos ha sido un tema central en el debate público. Los resultados sugieren que, al menos en las plataformas de Meta, estas preocupaciones podrían haber sido sobredimensionadas, aunque la empresa mantiene su vigilancia ante posibles amenazas futuras.