YouTube actualiza sus políticas para combatir los vídeos repetitivos y generados por IA

Droids

Updated on:

YouTube ha anunciado una importante actualización de sus políticas de monetización que entrará en vigor el próximo 15 de julio. La medida está diseñada para combatir la proliferación de contenido «no auténtico», específicamente los vídeos «producidos en masa» y «repetitivos». Esta decisión se produce en un momento de creciente preocupación por la avalancha de contenido de baja calidad generado mediante inteligencia artificial, un fenómeno conocido popularmente como «AI slop» o contenido basura.

Según la información publicada por TechCrunch, la plataforma de vídeo de Google busca reforzar los requisitos de originalidad y autenticidad para los creadores que forman parte de su Programa de Partners (YPP), el sistema que les permite obtener ingresos a través de sus vídeos.

Una «pequeña actualización» con grandes implicaciones

En un esfuerzo por calmar las posibles inquietudes de la comunidad, YouTube ha enmarcado este cambio como una simple clarificación de sus directrices existentes. La compañía actualizará su documentación de ayuda para ofrecer a los creadores una comprensión más detallada de lo que considera contenido «no auténtico» en el panorama actual.

Rene Ritchie, responsable de enlace con los creadores en YouTube, describió la medida como una «pequeña actualización» de las políticas del YPP que llevan mucho tiempo en vigor. En un vídeo de actualización publicado el martes, Ritchie aseguró que el objetivo no es penalizar formatos populares como los vídeos de reacción o aquellos que utilizan clips de otros contenidos, siempre que estos aporten un valor añadido significativo.

«Este tipo de contenido ha sido inelegible para la monetización durante años, ya que es contenido que los espectadores a menudo consideran spam», explicó Ritchie. Sin embargo, lo que su declaración no subraya es la escala y la facilidad con la que este tipo de vídeos se pueden generar hoy en día gracias a las herramientas de inteligencia artificial.

El verdadero objetivo: el «AI slop» que inunda la plataforma

El verdadero catalizador de esta actualización de políticas es el fenómeno del «AI slop». Este término se refiere al contenido de baja calidad, a menudo sin sentido o directamente falso, que se produce de forma masiva y automatizada utilizando IA generativa. Estos vídeos suelen tener un coste de producción casi nulo y su único objetivo es atraer visualizaciones rápidas para intentar monetizarlas.

La plataforma se ha visto inundada de ejemplos que evidencian la magnitud del problema. Como detalla TechCrunch, es cada vez más común encontrar canales que publican cientos de vídeos idénticos donde una voz sintética generada por IA narra textos sobre imágenes estáticas, fragmentos de videojuegos o clips reutilizados.

Algunos de los casos más notorios incluyen:

  • Canales de música por IA: Cuentas que publican música ambiental o genérica generada por algoritmos y que, sorprendentemente, han llegado a acumular millones de suscriptores.
  • Noticias falsas: Vídeos generados por IA sobre eventos de actualidad, como los relacionados con el juicio del rapero Diddy, que han logrado millones de visualizaciones difundiendo desinformación.
  • Contenido de crímenes falsos: A principios de este año, un reportaje de 404 Media destapó una serie documental sobre crímenes reales que se había vuelto viral, solo para descubrir que tanto las historias como las imágenes y las voces eran completamente inventadas por una IA.
  • Estafas de phishing: El problema ha llegado a tal punto que incluso la imagen del CEO de YouTube, Neal Mohan, fue utilizada en un vídeo deepfake para promover una estafa de criptomonedas en la propia plataforma, a pesar de que existen herramientas para denunciar este tipo de suplantaciones.

Protegiendo la reputación y el valor de YouTube

Aunque YouTube intente presentar el cambio como un ajuste menor, la realidad es que la proliferación descontrolada de «AI slop» representa una amenaza existencial para la integridad y el valor de la plataforma. Permitir que este tipo de contenido prospere y que sus creadores se beneficien económicamente podría devaluar la experiencia del usuario y dañar la confianza en el ecosistema de creadores.

Por ello, esta actualización de políticas es un movimiento estratégico. Al establecer unas directrices más claras y específicas sobre lo que constituye contenido «producido en masa» o «repetitivo» en la era de la IA, YouTube se dota de un marco normativo más sólido para llevar a cabo expulsiones masivas de canales infractores de su Programa de Partners.

En última instancia, la medida busca trazar una línea más clara en la arena: la inteligencia artificial puede ser una herramienta para potenciar la creatividad, pero su uso para inundar la plataforma con contenido de bajo esfuerzo y nulo valor no será recompensado. La batalla de YouTube contra el spam ha entrado en una nueva fase, y esta actualización de políticas es su primera gran ofensiva en el frente de la IA.