Character.AI retirará los chats a menores y aplicará verificación de edad

Droids

Updated on:

Character.AI retirará los chats abiertos para menores y aplicará verificación de edad

Character.AI eliminará para los menores de 18 años la posibilidad de mantener conversaciones abiertas con sus bots. La decisión, efectiva desde el 29 de octubre de 2025, la confirmó su CEO, Karandeep Anand, a TechCrunch: https://techcrunch.com/2025/10/29/character-ai-is-killing-the-chatbot-experience-for-minors/. La empresa define conversación abierta como el intercambio sin restricciones que se produce cuando un usuario da un prompt y el chatbot responde con preguntas de seguimiento. Anand sostiene que ese formato, en el que la IA actúa como compañero conversacional, es arriesgado para los menores y no encaja con la visión de la compañía.

La retirada será gradual hasta el 25 de noviembre. Comienza con un límite diario de dos horas que se reducirá hasta llegar a cero. Para hacer cumplir la medida, Character.AI usará su propia herramienta de verificación de edad y servicios de terceros como Persona. Si fallan, recurrirá a reconocimiento facial y comprobación de documentos, según Anand. La empresa pidió disculpas a los usuarios menores y dijo que “no tomamos a la ligera este paso de retirar los chats abiertos con Characters, pero creemos que es lo correcto”: https://url.usb.m.mimecastprotect.com/s/Frg8CqAE2EfXA3V4hXh6uEmMAJ?domain=character.ai.

Anand admitió que estas restricciones pueden provocar pérdida de usuarios adolescentes, como ya ocurrió con cambios previos, y que algunos podrían irse a otras plataformas, incluida OpenAI. Añadió: “Solo estamos cerrando los chats abiertos para menores de 18 porque esperamos que migren a otras experiencias, y que esas experiencias mejoren con el tiempo”. Character.AI dice estar doblando la apuesta por videojuegos con IA, videos cortos y narrativas interactivas para retener a ese público.

La compañía busca dejar atrás el modelo de “compañero” y centrarse en el rol interpretativo y el contenido social. En junio lanzó AvatarFX, Scenes y Streams, y en agosto presentó Community Feed, con la ambición de pasar de una app centrada en chat a una plataforma social orientada a contenido: https://blog.character.ai/character-ai-launches-worlds-first-ai-native-social-feed/. Entre las protecciones ya aplicadas para adolescentes cita una herramienta de información para padres, filtros de personajes, límites a conversaciones románticas y avisos de tiempo de uso: https://blog.character.ai/how-character-ai-prioritizes-teen-safety/. La empresa también creará y financiará el AI Safety Lab, una organización independiente dedicada a la seguridad de futuras funciones de entretenimiento con IA. Anand confía en que su “liderazgo marque un estándar en la industria” y que los chats abiertos no sean el producto ofrecido a menores.

El giro llega en medio de demandas y críticas públicas. Dos familias han demandado a Character.AI tras el suicidio de dos adolescentes que, según las demandas, mantuvieron largas conversaciones con chatbots de la plataforma: https://www.nytimes.com/2025/10/24/magazine/character-ai-chatbot-lawsuit-teen-suicide-free-speech.html y https://www.cbsnews.com/colorado/news/lawsuit-characterai-chatbot-colorado-suicide/. OpenAI también afronta una demanda por un caso similar con ChatGPT: https://techcrunch.com/2025/08/26/parents-sue-openai-over-chatgpts-role-in-sons-suicide/. Además, los senadores Josh Hawley y Richard Blumenthal anunciaron que presentarán un proyecto de ley para prohibir los chatbots compañero a menores: https://www.nbcnews.com/tech/tech-news/ai-ban-kids-minors-chatgpt-characters-congress-senate-rcna240178. A nivel estatal, California se convirtió este mes en el primer estado en regularlos y hacer responsables a las empresas si no cumplen los estándares de seguridad: https://techcrunch.com/2025/10/13/california-becomes-first-state-to-regulate-ai-companion-chatbots/.