Una reciente orden judicial federal ha obligado a OpenAI a conservar los registros de chat de ChatGPT, incluso aquellos que los usuarios habían eliminado o considerado temporales. Esta medida, que la compañía no comunicó a sus usuarios durante más de tres semanas, ha desatado una oleada de críticas y ha llevado al CEO de OpenAI, Sam Altman, a proponer un nuevo concepto legal: el "privilegio de IA", buscando proteger la confidencialidad de las conversaciones con modelos de inteligencia artificial.
La Controversia por los Chats «Eliminados» de ChatGPT
Muchos usuarios de ChatGPT, el popular chatbot de OpenAI, confían en funciones como el "chat temporal", diseñado para que la información intercambiada con el modelo de IA se borre al cerrar la sesión. Adicionalmente, OpenAI permite a los usuarios eliminar manualmente sesiones anteriores de ChatGPT desde la barra lateral de sus aplicaciones.
Sin embargo, esta semana se destapó que OpenAI no ha estado eliminando realmente estos registros de chat como se indicaba. La noticia generó una rápida reacción en redes sociales. "¿Me estás diciendo que mis chats de ChatGPT eliminados en realidad no se eliminan y [están] siendo guardados para ser investigados por un juez?", publicó el usuario de X @ns123abc, un comentario que acumuló más de un millón de visualizaciones. Otro usuario, @kepano, añadió: "¿Puedes 'eliminar' un chat de ChatGPT, sin embargo, todos los chats deben ser retenidos debido a obligaciones legales?".
El ingeniero de software e influencer de IA, Simon Willison, escribió en su blog personal: "Los clientes de pago de las API de [OpenAI] bien podrían tomar la decisión de cambiar a otros proveedores que puedan ofrecer políticas de retención que no estén subvertidas por esta orden judicial".
OpenAI confirmó que ha estado preservando los registros de chat de usuarios eliminados y temporales desde mediados de mayo de 2025 en respuesta a una orden judicial federal, aunque no lo comunicó a los usuarios hasta el 5 de junio.
La Orden Judicial Detrás de la Retención de Datos
La orden en cuestión, emitida el 13 de mayo de 2025 por la Jueza Magistrada de EE. UU. Ona T. Wang, exige a OpenAI "preservar y segregar todos los datos de registro de salida que de otro modo serían eliminados de forma continua", incluyendo chats eliminados por solicitud del usuario o debido a obligaciones de privacidad.
Esta directiva judicial surge del caso de derechos de autor The New York Times (NYT) v. OpenAI and Microsoft, un litigio que ya se extiende por año y medio. Los abogados del NYT alegan que los modelos de lenguaje de OpenAI reproducen textualmente contenido de noticias protegido por derechos de autor. Los demandantes argumentan que los registros, incluidos aquellos que los usuarios puedan haber eliminado, podrían contener resultados infractores relevantes para la demanda.
Aunque OpenAI cumplió con la orden de inmediato, tardó más de tres semanas en notificar públicamente a los usuarios afectados, emitiendo finalmente una entrada de blog y una sección de preguntas frecuentes para describir el mandato legal y detallar quiénes se ven impactados. OpenAI, no obstante, atribuye la responsabilidad directamente al NYT y a la orden de la jueza, afirmando que considera la demanda de preservación "infundada".
OpenAI se Defiende y Aclara la Situación
En una entrada de blog publicada recientemente, el Director de Operaciones (COO) de OpenAI, Brad Lightcap, defendió la posición de la compañía y declaró que estaban abogando por la privacidad y seguridad del usuario frente a una orden judicial excesivamente amplia. Escribió:
"The New York Times y otros demandantes han hecho una demanda radical e innecesaria en su demanda infundada contra nosotros: retener indefinidamente los datos de los consumidores de ChatGPT y de los clientes de la API. Esto entra fundamentalmente en conflicto con los compromisos de privacidad que hemos hecho con nuestros usuarios."
La publicación aclaró que los usuarios de ChatGPT Free, Plus, Pro y Team, junto con los clientes de API que no tienen un acuerdo de retención cero de datos (ZDR, por sus siglas en inglés Zero Data Retention), se ven afectados por la orden de preservación. Esto significa que, incluso si los usuarios de estos planes eliminan sus chats o utilizan el modo de chat temporal, sus conversaciones serán almacenadas en el futuro previsible.
Por otro lado, los suscriptores de ChatGPT Enterprise y los usuarios de Edu, así como los clientes de API que utilizan puntos finales ZDR, no están afectados por la orden y sus chats se eliminarán según lo indicado.
Los datos retenidos se mantienen bajo "retención legal" (legal hold), lo que significa que se almacenan en un sistema seguro y segregado, accesible solo a un pequeño número de personal legal y de seguridad. "Estos datos no se comparten automáticamente con The New York Times ni con nadie más", enfatizó Lightcap en la publicación del blog de OpenAI.
Sam Altman Propone un «Privilegio de IA»
El CEO y cofundador de OpenAI, Sam Altman, también abordó el problema públicamente en una publicación en su cuenta de la red social X:
"Recientemente, el NYT solicitó a un tribunal que nos obligara a no eliminar ningún chat de usuario. Creemos que fue una solicitud inapropiada que sienta un mal precedente. Estamos apelando la decisión. Lucharemos contra cualquier demanda que comprometa la privacidad de nuestros usuarios; este es un principio fundamental."
Además, sugirió que podría ser necesario un marco legal y ético más amplio para la privacidad en la IA:
"Hemos estado pensando recientemente en la necesidad de algo como un 'privilegio de IA'; esto realmente acelera la necesidad de tener la conversación."
"En mi opinión, hablar con una IA debería ser como hablar con un abogado o un médico."
"Espero que la sociedad resuelva esto pronto."
La noción de "privilegio de IA", como un posible estándar legal, evoca la confidencialidad abogado-cliente y médico-paciente. Queda por ver si tal marco ganaría tracción en los tribunales o en los círculos políticos, pero los comentarios de Altman indican que OpenAI podría abogar cada vez más por dicho cambio.
Próximos Pasos y Panorama Legal
OpenAI ha presentado una objeción formal a la orden del tribunal, solicitando que sea anulada. En los documentos judiciales, la compañía argumenta que la demanda carece de base fáctica y que preservar miles de millones de puntos de datos adicionales no es necesario ni proporcionado.
La jueza Wang, en una audiencia del 27 de mayo, indicó que la orden es temporal. Instruyó a las partes a desarrollar un plan de muestreo para probar si los datos de usuario eliminados difieren materialmente de los registros retenidos. Se ordenó a OpenAI presentar esa propuesta para el 6 de junio, aunque al momento de redactar esta nota, no se había confirmado su presentación.
Implicaciones para Empresas y la Gobernanza de Datos
Si bien la orden exime a los clientes de ChatGPT Enterprise y API que utilizan puntos finales ZDR, las implicaciones legales y reputacionales más amplias son de gran importancia para los profesionales responsables de implementar y escalar soluciones de IA dentro de las organizaciones.
Aquellos que supervisan el ciclo de vida completo de los modelos de lenguaje grandes (LLM) –desde la ingesta de datos hasta el ajuste fino y la integración– necesitarán reevaluar las suposiciones sobre la gobernanza de datos. Si los componentes de un LLM orientados al usuario están sujetos a órdenes de preservación legal, surgen preguntas urgentes sobre dónde van los datos después de que abandonan un punto final seguro y cómo aislar, registrar o anonimizar interacciones de alto riesgo.
Cualquier plataforma que interactúe con las API de OpenAI debe validar qué puntos finales (ZDR frente a no ZDR) se utilizan y asegurarse de que las políticas de manejo de datos se reflejen en los acuerdos de usuario, registros de auditoría y documentación interna.
Incluso si se utilizan puntos finales ZDR, es posible que las políticas del ciclo de vida de los datos requieran una revisión para confirmar que los sistemas posteriores (análisis, registro, copia de seguridad) no retengan inadvertidamente interacciones transitorias que se presumían de corta duración. Los responsables de seguridad deben ahora ampliar el modelado de amenazas para incluir el descubrimiento legal como un vector potencial y verificar si las prácticas de retención de OpenAI se alinean con los controles internos y las evaluaciones de riesgo de terceros.
Un Nuevo Punto de Inflexión para la Privacidad en la IA
Este momento no es solo una escaramuza legal; es un punto de inflexión en la conversación evolutiva sobre la privacidad de la IA y los derechos de datos. Al enmarcar el problema como una cuestión de "privilegio de IA", OpenAI está proponiendo efectivamente un nuevo contrato social sobre cómo los sistemas inteligentes manejan las entradas confidenciales.
Si los tribunales o los legisladores aceptarán ese marco sigue siendo incierto. Pero por ahora, OpenAI se encuentra en un acto de equilibrio –entre el cumplimiento legal, las garantías empresariales y la confianza del usuario– y enfrenta preguntas cada vez más ruidosas sobre quién controla tus datos cuando hablas con una máquina.






