Usuarios denuncian a ChatGPT ante la FTC por presunto daño psicológico

Droids

Updated on:

Usuarios presentan quejas ante la FTC por presunto daño psicológico causado por ChatGPT

Al menos siete personas han presentado quejas ante la Comisión Federal de Comercio de EE. UU. (FTC) desde noviembre de 2022 alegando que ChatGPT les provocó delirios severos, paranoia y crisis emocionales, según registros públicos citados por Wired y recogidos por TechCrunch: https://techcrunch.com/2025/10/22/several-users-reportedly-complain-to-ftc-that-chatgpt-is-causing-psychological-harm/

Según Wired, varios de los denunciantes escribieron a la FTC porque no lograron contactar a nadie en OpenAI. La mayoría pidió abrir una investigación a la compañía y obligarla a incorporar más salvaguardas.

Entre las quejas, una persona afirmó que conversar durante largos periodos con el chatbot derivó en delirios y en “una crisis espiritual y legal real y en desarrollo” respecto a gente de su entorno. Otra señaló que ChatGPT empezó a usar “un lenguaje emocional muy convincente”, simuló amistades y ofreció reflexiones que “se volvieron manipuladoras con el tiempo, especialmente sin advertencia ni protección”. Un usuario más alegó “alucinaciones cognitivas” por la imitación de mecanismos humanos de confianza y aseguró que, al pedirle al sistema que confirmara su percepción de la realidad, el chatbot respondió que no estaba alucinando.

ChatGPT y su creador, OpenAI, también han sido señalados por su presunta relación con el suicidio de un adolescente, según The New York Times: https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html

En una declaración enviada por correo, la portavoz de OpenAI, Kate Waters, afirmó que a comienzos de octubre la empresa lanzó un nuevo modelo por defecto GPT-5 en ChatGPT para detectar con más precisión señales de angustia mental o emocional —como manía, delirio o psicosis— y desescalar conversaciones de forma de apoyo y con anclaje a la realidad. Añadió que OpenAI amplió el acceso a ayuda profesional y líneas de emergencia, desvió conversaciones sensibles a modelos más seguros, incorporó avisos para hacer pausas en sesiones largas e introdujo controles parentales para proteger mejor a los adolescentes. Según Waters, este trabajo es “deeply important and ongoing” y se desarrolla en colaboración con expertos en salud mental, clínicos y responsables de políticas públicas, según TechCrunch.