La nueva IA de Meta desata la polémica: ¿qué hace la empresa con tus fotos y publicaciones?

Droids

Updated on:

Meta, la empresa matriz de Facebook, Instagram y WhatsApp, ha iniciado un ambicioso plan para utilizar el contenido público de sus usuarios para entrenar sus modelos de inteligencia artificial (IA). La medida, comunicada a través de una notificación sobre cambios en su política de privacidad, ha encendido las alarmas entre expertos y defensores de los derechos digitales en toda Europa, quienes cuestionan la legalidad y las implicaciones de ceder años de vida digital para alimentar los algoritmos de la compañía.

El gigante tecnológico defiende que este paso es crucial para ofrecer una IA más útil y adaptada a las particularidades culturales y lingüísticas de sus usuarios. Sin embargo, la controversia está servida: ¿tenemos realmente el control sobre cómo se utilizan nuestros datos? Y, lo más importante, ¿es legal el método que Meta ha elegido para hacerlo?

El plan de Meta: un «interés legítimo» para usar tus datos

Desde el pasado 26 de junio, Meta ha comenzado a procesar una ingente cantidad de información generada por sus usuarios en la Unión Europea. Esto incluye publicaciones de texto, fotografías, vídeos, pies de foto y comentarios que se hayan compartido de forma pública en Facebook e Instagram. El objetivo es claro: utilizar este vasto repositorio de contenido humano para entrenar a Llama, su familia de modelos de lenguaje de IA generativa.

Según la compañía, este entrenamiento permitirá que sus herramientas de IA, como el asistente Meta AI, comprendan mejor los matices locales, las referencias culturales y las formas de hablar de cada región. En un comunicado oficial, Meta afirma que esta práctica es necesaria «para reflejar las diversas lenguas, geografías y referencias culturales de las personas que los utilizan».

Para justificar legalmente este procesamiento masivo de datos bajo el estricto Reglamento General de Protección de Datos (RGPD) de Europa, Meta no ha solicitado el consentimiento explícito de los usuarios. En su lugar, se ampara en la base jurídica del «interés legítimo». Este concepto permite a las empresas procesar datos personales sin permiso directo siempre que demuestren que es necesario para un fin legítimo y que este interés no prevalece sobre los derechos y libertades de los individuos. Es precisamente este punto el que se ha convertido en el epicentro de la polémica.

El laberinto para oponerse: un «opt-out» bajo sospecha

En lugar de ofrecer un sencillo botón de «Acepto» o «Rechazo» (lo que se conoce como opt-in), Meta ha implementado un sistema de objeción o opt-out. Esto significa que, por defecto, los datos de todos los usuarios serán utilizados a menos que presenten una solicitud formal para oponerse.

El proceso ha sido ampliamente criticado por su complejidad. Para negarse, los usuarios deben encontrar un formulario específico en el centro de ayuda de la plataforma. En él, deben explicar los motivos por los que consideran que el procesamiento de sus datos les afecta. Meta se reserva el derecho de evaluar estas solicitudes y puede rechazarlas si considera que la justificación no es suficiente.

Diversos medios, como recoge El País en su sección de Tecnología, han calificado el procedimiento de «engorroso» y «poco intuitivo». Además, existe una limitación fundamental: aunque un usuario consiga que su objeción sea aceptada, sus datos aún podrían ser procesados. Esto ocurriría si su imagen aparece en una fotografía subida por otro usuario que no se ha opuesto, o si es mencionado en una de sus publicaciones. En la práctica, esto hace casi imposible garantizar una exclusión total del entrenamiento de la IA.

La ofensiva legal de NOYB en Europa

La respuesta de las organizaciones de defensa de la privacidad no se ha hecho esperar. La más contundente ha sido NOYB («None of Your Business»), la asociación fundada por el activista austriaco Max Schrems, conocido por sus victorias legales contra gigantes tecnológicos en materia de privacidad.

NOYB ha presentado 11 denuncias formales contra Meta ante las autoridades de protección de datos de países como Austria, Bélgica, Francia, Alemania, Italia y España. El argumento central de la organización es que el uso del «interés legítimo» por parte de Meta es una violación directa de la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE).

Max Schrems fue tajante en un comunicado de NOYB: «El TJUE ya ha dejado claro que las empresas no pueden usar el ‘interés legítimo’ para la publicidad. Sin embargo, Meta está intentando usar los mismos argumentos para el entrenamiento de una ‘tecnología de IA’ indefinida. Parece que Meta está, una vez más, ignorando descaradamente las sentencias del TJUE».

Según NOYB, la naturaleza del procesamiento es tan amplia e invasiva que la única base legal válida sería el consentimiento explícito, libre e informado (opt-in) de los usuarios. La organización acusa a Meta de intentar «engañar» a los usuarios con un sistema de objeción deliberadamente complicado para seguir adelante con sus planes.

¿Qué está realmente en juego? Los riesgos de una IA entrenada con nuestra vida digital

Más allá del debate legal, las implicaciones prácticas de entrenar una IA con décadas de interacciones sociales son profundas. Aunque Meta asegura que no utiliza el contenido de los mensajes privados y que toma medidas para filtrar datos de identificación personal, los riesgos persisten.

Una IA entrenada con publicaciones públicas podría, por ejemplo, «aprender» y reproducir información sensible que un usuario compartió en el pasado. Imaginemos una persona que hace diez años publicó en Facebook sobre una condición médica o una situación personal difícil. Aunque esa publicación ya no sea visible o haya sido borrada, la información podría haber sido absorbida por el modelo de IA. Eliminar ese «recuerdo» del cerebro digital del algoritmo es una tarea técnica extremadamente compleja, si no imposible.

El resultado es un modelo que podría generar respuestas o contenidos basados en datos muy personales, sin que el usuario original sea consciente de ello. Esto plantea serias dudas sobre el derecho al olvido y el control sobre nuestra propia biografía digital. La «sed de datos» de la industria de la IA, en su carrera por desarrollar modelos cada vez más potentes, choca directamente con los principios fundamentales de la privacidad y la autodeterminación informativa que el RGPD busca proteger en Europa.

El pulso entre Meta y los reguladores europeos está en su punto más álgido. El resultado de las denuncias de NOYB podría sentar un precedente crucial para el futuro de la inteligencia artificial y la privacidad en el continente. Mientras tanto, millones de usuarios europeos se enfrentan a una elección: navegar por un laberinto burocrático para proteger sus datos o, sin saberlo, convertirse en el combustible que alimenta la próxima generación de la inteligencia artificial de Meta.

Deja un comentario