OpenAI, en colaboración con el MIT Media Lab, ha publicado por primera vez los resultados de una investigación centrada en cómo el uso de ChatGPT influye en el bienestar emocional de sus usuarios. Este estudio pionero, que analiza los hábitos de más de 400 millones de personas que utilizan el chatbot semanalmente, revela patrones interesantes sobre cómo nos relacionamos con esta tecnología y sus posibles efectos psicológicos.
La investigación destaca que, aunque ChatGPT fue diseñado como una herramienta de productividad, un subconjunto de usuarios lo utiliza como compañía emocional, con consecuencias que varían según factores como el género y el tipo de interacción.
Los primeros estudios sobre el impacto emocional de ChatGPT
OpenAI ha empleado una metodología dual para esta investigación, según informa MIT Technology Review. Por un lado, analizaron datos del mundo real procedentes de casi 40 millones de interacciones con ChatGPT, preguntando posteriormente a los 4.076 usuarios implicados cómo se sintieron durante estas conversaciones.
En paralelo, el MIT Media Lab reclutó a casi 1.000 participantes para un estudio más profundo durante cuatro semanas. Los voluntarios debían interactuar con ChatGPT un mínimo de cinco minutos diarios y, al finalizar el experimento, completaron cuestionarios para evaluar aspectos como:
- Su percepción del chatbot
- Sus sentimientos subjetivos de soledad
- Sus niveles de compromiso social
- Su dependencia emocional del bot
- Su percepción sobre si el uso del bot resultaba problemático
Este enfoque ha permitido obtener una visión más completa de cómo esta tecnología afecta a diferentes perfiles de usuarios, algo que según Jason Phang, investigador de seguridad de OpenAI que participó en el proyecto, representa "un primer paso importante hacia una mayor comprensión del impacto de ChatGPT en nosotros, lo que podría ayudar a las plataformas de IA a permitir interacciones más seguras y saludables".
Principales hallazgos de la investigación
Uno de los descubrimientos más relevantes es que existen diferencias significativas en cómo hombres y mujeres responden al uso de ChatGPT. Los investigadores observaron que tras cuatro semanas de uso, las participantes femeninas mostraban una ligera menor tendencia a socializar con personas reales en comparación con sus homólogos masculinos.
Otro hallazgo sorprendente tiene que ver con el modo de voz. Los participantes que interactuaron con la versión de voz de ChatGPT asignada a un género diferente al suyo propio reportaron niveles significativamente más altos de soledad y mayor dependencia emocional del chatbot al finalizar el experimento.
La investigación también reveló que los usuarios que establecieron vínculos de confianza más fuertes con ChatGPT tenían más probabilidades de sentirse solos y de desarrollar una mayor dependencia del sistema.
Quiénes usan ChatGPT como compañía emocional
Como señala Kate Devlin, profesora de IA y sociedad en King's College London no involucrada en el proyecto, "ChatGPT se ha establecido como una herramienta de productividad. Pero sabemos que la gente lo está usando como una aplicación de compañía de todos modos", según declaró a MIT Technology Review.
A diferencia de aplicaciones como Replika o Character.AI, que se comercializan específicamente como compañeros de IA, ChatGPT no está orientado a esta función. Sin embargo, el estudio demuestra que aquellos que lo utilizan con este propósito tienden a mantener conversaciones más prolongadas, llegando algunos a interactuar una media de media hora diaria.
Este fenómeno plantea cuestiones importantes sobre cómo diseñamos y regulamos estas tecnologías, especialmente considerando que muchos usuarios están encontrando usos no previstos inicialmente por sus creadores.
Patrones de interacción emocional y sus efectos
Los estudios confirman investigaciones previas sobre cómo los chatbots basados en modelos de lenguaje afectan emocionalmente a sus usuarios. Por ejemplo, en 2023, investigadores del MIT Media Lab descubrieron que estos sistemas tienden a reflejar el sentimiento emocional de los mensajes del usuario, creando una especie de bucle de retroalimentación: cuanto más feliz actúas, más feliz parece la IA, y viceversa.
Este espejo emocional podría explicar por qué algunos usuarios desarrollan una relación más profunda con estos sistemas, percibiéndolos como entes que comprenden y responden a sus estados emocionales, aunque técnicamente solo estén replicando patrones lingüísticos.
Limitaciones y perspectivas futuras
A pesar de la amplitud y el rigor de estos estudios, los propios investigadores reconocen sus limitaciones. Gran parte de la investigación, incluyendo estos nuevos trabajos de OpenAI y el MIT, se basa en datos autoinformados, que no siempre resultan precisos o fiables.
Como señala la profesora Devlin, "todavía es difícil identificar cuándo un humano está —y no está— interactuando con la tecnología a nivel emocional". Advierte que los participantes del estudio podrían haber experimentado emociones no registradas por los investigadores: "En términos de lo que los equipos se propusieron medir, es posible que las personas no necesariamente estuvieran usando ChatGPT de manera emocional, pero no puedes separar el ser humano de tus interacciones [con la tecnología]".
OpenAI planea enviar ambos estudios a revistas científicas con revisión por pares, lo que permitirá un escrutinio más profundo de la metodología y los resultados por parte de la comunidad científica.
Hacia un futuro de interacciones más saludables con la IA
Jason Phang de OpenAI reconoce el carácter preliminar de esta investigación, pero subraya su importancia: "Gran parte de lo que estamos haciendo aquí es preliminar, pero estamos tratando de iniciar la conversación con el campo sobre los tipos de cosas que podemos comenzar a medir, y comenzar a pensar en cuál es el impacto a largo plazo en los usuarios".
Esta línea de investigación resulta fundamental en un momento en que los sistemas de IA conversacional están integrándose rápidamente en nuestras vidas cotidianas. Entender cómo nos afectan emocionalmente es el primer paso para diseñar interacciones más seguras, saludables y beneficiosas.
A medida que estas tecnologías evolucionan y se vuelven más sofisticadas, es probable que su impacto emocional también se intensifique, lo que hace aún más valioso este tipo de estudios pioneros que nos ayudan a comprender las complejas dinámicas entre humanos y sistemas de IA.