ByteDance desarrolla sistema de deepfakes ultrarrealistas que genera alarma

Droids

ByteDance desarrolla sistema de deepfakes ultrarrealistas que genera alarma

La empresa propietaria de TikTok, ByteDance, ha presentado un nuevo sistema de inteligencia artificial llamado OmniHuman-1 que puede generar videos deepfake de un realismo sin precedentes, elevando las preocupaciones sobre el potencial uso indebido de esta tecnología.

Un salto cualitativo en la generación de deepfakes

El nuevo sistema representa un avance significativo respecto a las tecnologías anteriores de deepfake. Mientras que la mayoría de las aplicaciones actuales producen resultados que delatan su origen artificial, OmniHuman-1 logra generar videos sorprendentemente realistas utilizando únicamente una imagen de referencia y un archivo de audio.

El sistema, entrenado con 19.000 horas de contenido videoagráfico, puede crear videos de cualquier duración y ajustar tanto la proporción de aspecto como el encuadre del cuerpo del sujeto. Entre las demostraciones presentadas por ByteDance se incluyen actuaciones ficticias de Taylor Swift, conferencias TED inexistentes y supuestas clases impartidas por Einstein.

Implicaciones preocupantes

La aparición de esta tecnología genera profunda preocupación entre expertos y autoridades. Durante el último año, los deepfakes ya han demostrado su capacidad para interferir en procesos democráticos. En Taiwán, un grupo afiliado al Partido Comunista Chino difundió un audio manipulado de un político apoyando a un candidato pro-China. En Moldavia circularon videos falsos de la presidenta Maia Sandu dimitiendo.

Impacto económico creciente

El aspecto financiero también resulta alarmante. Según datos de Deloitte, los contenidos generados por IA provocaron pérdidas por fraude superiores a 12.000 millones de dólares (aproximadamente 11.000 millones de euros) en 2023. Las proyecciones sugieren que esta cifra podría alcanzar los 40.000 millones de dólares (unos 37.000 millones de euros) solo en Estados Unidos para 2027.

Una encuesta realizada por la firma de verificación de identidad Jumio revela que el 60% de las personas se encontraron con un deepfake durante el último año, y el 72% expresó preocupación por ser engañado por estos contenidos en su vida diaria.

Esfuerzos regulatorios insuficientes

En febrero del año pasado, cientos de expertos en IA firmaron una carta abierta solicitando una regulación estricta de los deepfakes. Si bien más de 10 estados estadounidenses han promulgado leyes contra la suplantación mediante IA, no existe legislación federal al respecto. California intentó implementar una ley pionera que permitiría a los jueces ordenar la eliminación de deepfakes bajo pena de multa, pero la iniciativa se encuentra actualmente paralizada.

Un desafío técnico y social

Aunque las principales redes sociales y motores de búsqueda han implementado medidas para limitar la difusión de deepfakes, el volumen de este tipo de contenido continúa creciendo a un ritmo alarmante. La detección de videos manipulados se vuelve cada vez más compleja a medida que la tecnología mejora.

El sistema OmniHuman-1, si bien todavía presenta algunas limitaciones con imágenes de baja calidad y ciertas poses, marca un nivel de sofisticación sin precedentes en la generación de deepfakes. Aunque ByteDance no ha liberado el sistema públicamente, la experiencia indica que la comunidad de IA suele ser capaz de replicar rápidamente este tipo de avances.

La llegada de esta tecnología plantea interrogantes urgentes sobre la necesidad de desarrollar mejores herramientas de detección y establecer marcos regulatorios efectivos antes de que el problema se agrave aún más.

Deja un comentario