Sam Altman defendió el plan de suavizar vetos en ChatGPT y afirmó que OpenAI “no es la policía moral electa del mundo”, tras la polémica por permitir contenidos como erotismo para adultos verificados, según CNBC (https://www.cnbc.com/2025/10/15/altman-open-ai-moral-police-erotica-chatgpt.html).
El martes, Altman dijo en X que OpenAI podrá “relajar de forma segura” la mayoría de restricciones gracias a nuevas herramientas y a haber mitigado “graves problemas de salud mental” (https://x.com/sama/status/1978129344598827128). El miércoles matizó que les “importa mucho el principio de tratar a los adultos como adultos”, que no permitirán “cosas que causen daño a otros”, y que quieren trazar límites similares a los de una película con clasificación R, también en X (https://x.com/sama/status/1978539332215681076). En diciembre de 2024 ya había adelantado que permitirían más contenido, incluido erotismo, para “adultos verificados” (https://www.cnbc.com/2025/10/15/erotica-coming-to-chatgpt-this-year-says-openai-ceo-sam-altman.html).
El post inicial de Altman generó confusión y críticas en redes, y la organización National Center on Sexual Exploitation pidió a OpenAI revertir la decisión. “Los chatbots de IA sexualizados son inherentemente arriesgados, generan daños reales a la salud mental por intimidad sintética; todo en un contexto de estándares de seguridad de la industria poco definidos”, dijo su directora ejecutiva, Haley McNamara, en un comunicado, citado por CNBC (https://www.cnbc.com/2025/10/15/altman-open-ai-moral-police-erotica-chatgpt.html).
OpenAI llega a este debate bajo mayor escrutinio por la protección de menores. En septiembre, la FTC abrió una investigación a OpenAI y otras tecnológicas por posibles efectos de los chatbots en niños y adolescentes (https://www.cnbc.com/2025/09/11/alphabet-meta-openai-x-ai-chatbot-ftc.html), y la compañía figura en una demanda por muerte por negligencia tras el suicidio de un adolescente cuya familia culpó a ChatGPT (https://www.cnbc.com/2025/08/26/openai-plans-chatgpt-changes-after-suicides-lawsuit.html). En los últimos meses, la empresa anunció controles parentales y trabaja en un sistema de predicción de edad para aplicar ajustes adecuados a menores (https://openai.com/index/introducing-parental-controls/). El martes también comunicó la creación de un consejo de ocho expertos para asesorar sobre cómo la IA afecta a la salud mental, las emociones y la motivación de los usuarios, según CNBC (https://www.cnbc.com/2025/10/15/altman-open-ai-moral-police-erotica-chatgpt.html).
Las nuevas posturas contrastan con declaraciones de Altman en agosto, cuando dijo estar “orgulloso” de haber resistido funciones como un “sex bot avatar” que podrían elevar el uso de ChatGPT pero no encajan con su objetivo a largo plazo, en un podcast citado por CNBC (https://www.youtube.com/watch?v=hmtuvNfytjM).






