OpenAI no ha cumplido su compromiso de lanzar Media Manager, una herramienta prometida que permitiría a los creadores de contenido controlar cómo se utiliza su trabajo en el entrenamiento de sistemas de inteligencia artificial. La empresa había anunciado que la herramienta estaría disponible "antes de 2025", según informa TechCrunch.
El proyecto abandonado
Media Manager fue anunciada en mayo de 2024 como una solución integral que permitiría identificar texto, imágenes, audio y vídeo con derechos de autor. Sin embargo, fuentes internas revelan que el proyecto nunca fue considerado una prioridad. Un ex empleado de OpenAI, que prefirió mantener el anonimato, declaró a TechCrunch: "No creo que fuera una prioridad. Para ser honesto, no recuerdo a nadie trabajando en ello".
La situación se complicó aún más cuando Fred von Lohmann, miembro del equipo legal que trabajaba en Media Manager, pasó a un rol de consultor a tiempo parcial en octubre.
Controversia sobre propiedad intelectual
El desarrollo de esta herramienta surge en medio de una creciente controversia sobre el uso de contenido protegido por derechos de autor en el entrenamiento de modelos de IA. OpenAI enfrenta actualmente demandas colectivas presentadas por artistas, escritores, YouTubers y organizaciones de noticias, incluyendo The New York Times y Radio-Canada.
Sistemas actuales y sus limitaciones
Aunque OpenAI ofrece algunas opciones para que los creadores excluyan su contenido del entrenamiento de IA, estos métodos han sido criticados por ser poco sistemáticos e inadecuados:
- Un formulario de envío para que los artistas marquen su trabajo para su eliminación
- Opciones para que los administradores web bloqueen los bots de rastreo
- Ausencia de mecanismos específicos para obras escritas, vídeos o grabaciones de audio
Dudas sobre la viabilidad
Expertos legales cuestionan la efectividad potencial de Media Manager. Adrian Cyhan, abogado especializado en propiedad intelectual de Stubbs Alderton & Markiles, señaló a TechCrunch que incluso plataformas como YouTube y TikTok tienen dificultades con sistemas similares de identificación de contenido.
Ed Newton-Rex, fundador de Fairly Trained, argumenta que la herramienta trasladaría injustamente la responsabilidad a los creadores: "La mayoría de los creadores nunca sabrán de su existencia, y mucho menos la usarán".
Postura de OpenAI
OpenAI ha mantenido que sería "imposible" entrenar modelos de IA competitivos sin utilizar materiales con derechos de autor. La empresa continúa defendiendo sus prácticas bajo el principio de "uso justo", argumentando que sus modelos crean obras transformativas y no plagios.
Perspectivas futuras
La compañía no ha proporcionado nuevas fechas para el lanzamiento de Media Manager ni ha especificado qué características incluiría. Mientras tanto, OpenAI sigue implementando filtros para evitar la reproducción directa de ejemplos de entrenamiento, aunque estos han demostrado ser imperfectos.
La ausencia de esta herramienta prometida plantea interrogantes sobre el compromiso de OpenAI con la protección de los derechos de autor y su capacidad para equilibrar la innovación tecnológica con los derechos de los creadores de contenido.