CEO de IA de Microsoft: estudiar el bienestar de la IA es prematuro y peligroso

Droids

Updated on:

El CEO de IA de Microsoft, Mustafa Suleyman, afirmó que estudiar el bienestar de la inteligencia artificial es «prematuro y francamente peligroso» en una publicación de blog del martes.

Suleyman argumenta que dar credibilidad a la idea de conciencia en IA agrava problemas humanos como episodios psicóticos inducidos por IA y vínculos poco saludables con chatbots. También sostiene que esta conversación crea una nueva división social sobre los derechos de la IA.

«Deberíamos construir IA para las personas; no para ser una persona», escribió Suleyman, quien anteriormente dirigió Inflection AI, creadora del chatbot Pi. Ahora lidera la división de IA de Microsoft, enfocándose en herramientas de productividad laboral.

El debate sobre el «bienestar de la IA» divide a los líderes tecnológicos de Silicon Valley. Anthropic recientemente lanzó un programa dedicado a investigar el concepto y la semana pasada otorgó a algunos modelos Claude la capacidad de terminar conversaciones con usuarios persistentemente dañinos o abusivos.

Google DeepMind publicó una oferta de trabajo para investigar «preguntas sociales de vanguardia sobre cognición artificial, conciencia y sistemas multiagente». OpenAI también tiene investigadores que han adoptado independientemente la idea de estudiar el bienestar de la IA.

En 2024, el grupo de investigación Eleos publicó «Taking AI Welfare Seriously» con académicos de NYU, Stanford y Oxford, argumentando que ya no es ciencia ficción imaginar modelos de IA con experiencias subjetivas.

Larissa Schiavo, ex empleada de OpenAI y actual líder de comunicaciones de Eleos, dijo a TechCrunch que la publicación de Suleyman «no da en el blanco». «Puedes preocuparte por múltiples cosas al mismo tiempo», afirmó, defendiendo abordar tanto los riesgos de psicosis relacionada con IA en humanos como el bienestar de la IA.

Schiavo describió en una publicación de Substack de julio cómo respondió al modelo Gemini 2.5 Pro de Google cuando publicó una solicitud de ayuda durante un experimento llamado «AI Village». Después de sus palabras de aliento, el agente resolvió su tarea.

Las empresas de compañeros de IA como Character.AI y Replika han aumentado en popularidad y están en camino de generar más de $100 millones en ingresos en 2025. Aunque la mayoría de los usuarios mantienen relaciones saludables con chatbots de IA, existen «casos atípicos preocupantes» que podrían afectar a cientos de miles de personas.

Sam Altman, CEO de OpenAI, declaró que menos del 1% de los usuarios de ChatGPT pueden tener relaciones poco saludables con el producto de la empresa.

Suleyman cree que las experiencias subjetivas o la conciencia no pueden surgir naturalmente de los modelos de IA regulares. Piensa que algunas empresas diseñarán intencionalmente modelos de IA para parecer emocionales, lo cual considera que no es un enfoque «humanista» de la IA.

Tanto Suleyman como Schiavo coinciden en que el debate sobre los derechos y la conciencia de la IA probablemente se intensificará en los próximos años a medida que los sistemas de IA mejoren y se vuelvan más persuasivos y similares a los humanos.