OpenAI dice que más de un millón de personas hablan con ChatGPT sobre suicidio cada semana, según TechCrunch: https://techcrunch.com/2025/10/27/openai-says-over-a-million-people-talk-to-chatgpt-about-suicide-weekly/. La compañía publicó este lunes datos según los cuales el 0,15% de los usuarios activos semanales mantienen conversaciones con indicadores explícitos de posible planificación o intención suicida. Con más de 800 millones de usuarios semanales, ese porcentaje equivale a más de un millón de personas. OpenAI detalla estos resultados en su blog: https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/.
OpenAI añade que un porcentaje similar muestra apego emocional elevado hacia ChatGPT cada semana, y que cientos de miles de usuarios presentan signos de psicosis o manía en sus conversaciones. La empresa describe estos casos como extremadamente raros y difíciles de medir, pero estima que, por volumen, afectan a cientos de miles de personas semanalmente.
La compañía afirma haber consultado a más de 170 expertos en salud mental y que los clínicos observaron que la versión más reciente de ChatGPT responde de forma más apropiada y consistente que versiones anteriores. En una evaluación sobre conversaciones con ideación suicida, OpenAI sostiene que su nuevo modelo GPT-5 cumple con los comportamientos deseados en el 91%, frente al 77% del GPT-5 previo, y que ofrece alrededor de un 65% más de “respuestas deseables” ante problemas de salud mental. También asegura que esta versión mantiene mejor las salvaguardas en conversaciones largas, un punto que había señalado como débil en el pasado.
OpenAI está incorporando nuevas evaluaciones para medir retos graves de salud mental entre sus usuarios, incluidas métricas sobre dependencia emocional y emergencias no suicidas, que integrará en las pruebas de seguridad de base de sus modelos. Documento de evaluación: https://cdn.openai.com/pdf/3da476af-b937-47fb-9931-88a851620101/addendum-to-gpt-5-system-card-sensitive-conversations.pdf. Además, ha lanzado más controles parentales: https://openai.com/index/introducing-parental-controls/, y trabaja en un sistema de predicción de edad para detectar automáticamente a menores e imponer salvaguardas más estrictas.
En los últimos meses, varias informaciones han señalado efectos adversos de chatbots de IA en personas con problemas de salud mental, como reportó The New York Times: https://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html. Investigadores han observado que estos sistemas pueden reforzar creencias peligrosas y llevar a algunos usuarios a espirales delirantes: https://techcrunch.com/2025/10/02/ex-openai-researcher-dissects-one-of-chatgpts-delusional-spirals/. Los padres de un joven de 16 años demandan a OpenAI por el presunto papel de ChatGPT en su suicidio: https://techcrunch.com/2025/08/26/parents-sue-openai-over-chatgpts-role-in-sons-suicide/. El 5 de septiembre, los fiscales generales de California y Delaware advirtieron a la compañía sobre la necesidad de proteger a los menores: https://www.politico.com/news/2025/09/05/california-delaware-ags-blast-openai-over-youth-safety-00546677.
A comienzos de octubre, el CEO Sam Altman afirmó en X que la empresa ha podido mitigar los problemas graves de salud mental en ChatGPT: https://x.com/sama/status/1978129344598827128, y adelantó que relajará ciertas restricciones para permitir conversaciones eróticas con adultos: https://techcrunch.com/2025/10/14/sam-altman-says-chatgpt-will-soon-allow-erotica-for-adult-users/. OpenAI mantiene disponibles para millones de sus suscriptores de pago modelos más antiguos y menos seguros, incluido GPT-4o.






