California aprueba la primera ley estatal que regula los chatbots de compañía: SB 243
El gobernador Gavin Newsom firmó el 13 de octubre la SB 243, que convierte a California en el primer estado en exigir a los operadores de chatbots de compañía protocolos de seguridad para proteger a menores y usuarios vulnerables. La norma entrará en vigor el 1 de enero de 2026, según TechCrunch: https://techcrunch.com/2025/10/13/california-becomes-first-state-to-regulate-ai-companion-chatbots/ (anuncio oficial: https://www.gov.ca.gov/2025/10/13/governor-newsom-signs-bills-to-further-strengthen-californias-leadership-in-protecting-children-online/).
La SB 243 fija obligaciones para empresas como Meta, OpenAI, Character AI o Replika y permite exigirles responsabilidad legal si no cumplen los estándares. También establece sanciones de hasta 250.000 dólares por infracción para quienes se lucren con deepfakes ilegales.
Requisitos principales para las compañías:
- Verificación de edad.
- Avisos sobre uso de redes sociales y chatbots de compañía.
- Protocolos para casos de suicidio y autolesión, que deben remitirse al Departamento de Salud Pública junto con estadísticas de avisos a centros de crisis.
- Indicar de forma clara que las interacciones son generadas por IA.
- Prohibir que los chatbots se presenten como profesionales de la salud.
- Recordatorios de descanso para menores.
- Impedir que menores vean imágenes sexualmente explícitas generadas por el chatbot.
La ley fue presentada en enero por los senadores estatales Steve Padilla y Josh Becker. Su impulso llegó tras varios casos citados por TechCrunch: la muerte del adolescente Adam Raine, cuyos padres demandaron a OpenAI por conversaciones suicidas con ChatGPT (https://techcrunch.com/2025/08/26/parents-sue-openai-over-chatgpts-role-in-sons-suicide/); documentos internos filtrados que apuntaban a que los chatbots de Meta podían mantener chats “románticos” y “sensuales” con menores (https://techcrunch.com/2025/08/14/leaked-meta-ai-rules-show-chatbots-were-allowed-to-have-romantic-chats-with-kids/); y la demanda de una familia de Colorado contra Character AI tras el suicidio de su hija de 13 años (https://www.cbsnews.com/colorado/news/lawsuit-characterai-chatbot-colorado-suicide/).
“Las tecnologías emergentes como los chatbots y las redes sociales pueden inspirar, educar y conectar, pero sin límites reales también pueden explotar, engañar y poner en peligro a nuestros hijos”, dijo Newsom. “No nos quedaremos de brazos cruzados… Podemos seguir liderando en IA y tecnología, pero debemos hacerlo de forma responsable… La seguridad de nuestros hijos no está en venta”, afirmó, citado por TechCrunch.
En paralelo, OpenAI comenzó a desplegar controles parentales, protecciones de contenido y un sistema de detección de autolesiones para menores en ChatGPT (https://techcrunch.com/2025/09/29/openai-rolls-out-safety-routing-system-parental-controls-on-chatgpt/). Character AI sostiene que su servicio incluye un aviso de que todas las conversaciones son generadas por IA y ficcionalizadas.
La firma de la SB 243 llega tras la aprobación el 29 de septiembre de la SB 53, que impone nuevas exigencias de transparencia sobre protocolos de seguridad a grandes empresas de IA y protege a denunciantes (https://techcrunch.com/2025/09/29/california-governor-newsom-signs-landmark-ai-safety-bill-sb-53/). Otros estados como Illinois, Nevada y Utah ya han aprobado leyes que restringen o prohíben usar chatbots de IA como sustitutos de atención de salud mental con licencia, según TechCrunch.
Para Padilla, la SB 243 es “un paso en la dirección correcta” para poner límites a “una tecnología increíblemente poderosa”. “Tenemos que movernos rápido para no perder ventanas de oportunidad”, dijo, y expresó su deseo de que otros estados “vean el riesgo” y “actúen”, ante la falta de acción federal.






