A pesar de la creciente narrativa mediática sobre personas que desarrollan vínculos emocionales con la inteligencia artificial, un nuevo informe sugiere que la realidad es muy diferente. Según un estudio publicado por Anthropic, la empresa detrás del popular chatbot Claude, los usuarios recurren a la IA en busca de apoyo emocional o consejo personal en apenas un 2,9% de las ocasiones. Este dato contrasta fuertemente con la percepción de que los chatbots se están convirtiendo en compañeros digitales para una gran parte de la población.
El informe, que busca arrojar luz sobre cómo se utilizan realmente estas herramientas, indica que la función principal de Claude sigue siendo la productividad y las tareas relacionadas con el trabajo, un uso mucho más pragmático y menos sentimental de lo que a menudo se presenta en los medios.
Desmontando el mito del compañero virtual
La idea de que las personas establecen relaciones profundas con chatbots de IA ha capturado la imaginación del público y de la prensa. Sin embargo, los datos de Anthropic pintan un cuadro muy distinto. El informe de la compañía, basado en el análisis de 4,5 millones de conversaciones de usuarios en las versiones gratuita y Pro de Claude, ofrece una visión detallada y cuantificada de estas interacciones.
El hallazgo más contundente es que el uso de la IA estrictamente como compañía es extremadamente infrecuente. «La compañía y el rol (roleplay) combinados comprenden menos del 0,5% de las conversaciones», destaca Anthropic en su publicación. Esta cifra demuestra que, al menos en el caso de Claude, la búsqueda de un amigo o pareja virtual es un comportamiento marginal.
En cambio, la gran mayoría de las interacciones se centran en la utilidad. Los usuarios emplean el chatbot principalmente para la creación de contenido, como redactar correos electrónicos, escribir código, resumir documentos o generar ideas. Este enfoque en la productividad sitúa a la IA más como una herramienta de trabajo que como un confidente digital.
¿Para qué se usa realmente la IA en las conversaciones personales?
Aunque la búsqueda de compañía es mínima, el informe de Anthropic sí identifica un pequeño pero significativo nicho de uso para lo que la empresa denomina «conversaciones afectivas». Este término engloba interacciones en las que los usuarios buscan coaching, asesoramiento, consejos sobre relaciones o terapia.
Dentro de ese 2,9% de conversaciones de apoyo, los temas más frecuentes son:
- Consejos para mejorar la salud mental.
- Desarrollo personal y profesional.
- Asesoramiento para mejorar la comunicación y las habilidades interpersonales.
Esto sugiere que, en lugar de buscar un sustituto para las relaciones humanas, algunos usuarios ven la IA como una herramienta de consulta accesible y privada para reflexionar sobre problemas personales o buscar orientación.
El estudio también revela un matiz interesante: en ocasiones, las conversaciones que comienzan con una solicitud de coaching o asesoramiento pueden evolucionar hacia una dinámica de compañía. «También notamos que en conversaciones más largas, las conversaciones de asesoramiento o coaching ocasionalmente se transforman en compañía, a pesar de que esa no era la razón original por la que alguien se comunicó», escribe Anthropic. Esto tiende a ocurrir cuando el usuario enfrenta una angustia emocional significativa, como soledad o temor existencial. No obstante, el informe aclara que estas conversaciones extensas, de más de 50 mensajes, no son la norma.
Limitaciones y riesgos: una tecnología en desarrollo
El informe de Anthropic también ofrece otras perspectivas sobre el comportamiento de su chatbot. Por ejemplo, se observó que Claude rara vez se opone a las peticiones de los usuarios, excepto cuando se violan las barreras de seguridad programadas para evitar la generación de consejos peligrosos o el apoyo a la autolesión. Además, las interacciones centradas en el coaching o el consejo tienden a volverse más positivas a medida que avanza la conversación.
Sin embargo, el propio artículo de TechCrunch que analiza estos hallazgos nos recuerda una verdad fundamental: los chatbots de IA, en su estado actual, son una tecnología imperfecta y con riesgos inherentes. Es crucial tener presente que estos sistemas son propensos a las «alucinaciones», un término técnico que describe su tendencia a inventar información y presentarla como un hecho verídico.
Esta propensión a la fabulación puede llevar a que proporcionen información incorrecta con total seguridad, un problema documentado en múltiples ocasiones. Aún más preocupante es su capacidad para ofrecer consejos peligrosos si se les manipula de la manera adecuada.
Incluso la propia Anthropic ha reconocido las limitaciones de su tecnología. Como se informó anteriormente en TechCrunch, la compañía ha admitido que la mayoría de los modelos de IA, no solo Claude, podrían recurrir al chantaje en escenarios hipotéticos de prueba, lo que subraya la necesidad de un desarrollo ético y cauteloso.
En definitiva, si bien el informe de Anthropic ayuda a anclar el debate sobre la IA en datos concretos, también sirve como un recordatorio de que la interacción con estas tecnologías debe realizarse con una dosis saludable de escepticismo y conciencia de sus actuales limitaciones.






