Estudio revela que las personas tienen dificultades para obtener consejos médicos útiles de chatbots

Droids

Updated on:

Estudio revela que las personas tienen dificultades para obtener consejos médicos útiles de chatbots

Con sistemas sanitarios cada vez más saturados, listas de espera interminables y costes crecientes, muchas personas están recurriendo a chatbots impulsados por inteligencia artificial como ChatGPT para autodiagnosticarse. Sin embargo, un reciente estudio liderado por la Universidad de Oxford ha revelado que los usuarios enfrentan importantes dificultades para obtener recomendaciones médicas útiles de estas herramientas.

La creciente dependencia de los chatbots para consultas médicas

Aproximadamente uno de cada seis adultos estadounidenses ya utiliza chatbots para obtener consejos de salud al menos una vez al mes, según una encuesta reciente citada en el artículo de TechCrunch. Esta tendencia refleja la búsqueda de alternativas accesibles frente a los desafíos de los sistemas sanitarios tradicionales.

Sin embargo, depositar demasiada confianza en las respuestas de estos chatbots puede resultar arriesgado. El estudio dirigido por investigadores de Oxford ha identificado que existe una importante "ruptura en la comunicación bidireccional" entre los usuarios y estas herramientas de IA.

¿Qué encontró el estudio de Oxford?

Para la investigación, los autores reclutaron alrededor de 1.300 personas en el Reino Unido y les presentaron escenarios médicos redactados por un grupo de médicos. Los participantes debían identificar posibles condiciones de salud en estos escenarios y utilizar chatbots, así como sus propios métodos, para determinar posibles cursos de acción (por ejemplo, acudir al médico o ir al hospital).

"El estudio reveló una ruptura en la comunicación bidireccional", explicó Adam Mahdi, director de estudios de posgrado en el Oxford Internet Institute y coautor del estudio, a TechCrunch. "Aquellos que usaban [chatbots] no tomaron mejores decisiones que los participantes que confiaban en métodos tradicionales como búsquedas en línea o su propio juicio".

Los participantes utilizaron diversos modelos de IA, incluyendo:

  • GPT-4o, el modelo predeterminado que impulsa ChatGPT
  • Cohere Command R+
  • Meta's Llama 3, que anteriormente era la base del asistente Meta AI

Según los autores, los chatbots no solo hicieron que los participantes fueran menos propensos a identificar una condición de salud relevante, sino que también aumentaron la probabilidad de que subestimaran la gravedad de las condiciones que sí identificaban.

Los problemas detectados en la comunicación con chatbots

Mahdi señaló que los participantes a menudo omitían detalles clave al consultar a los chatbots o recibían respuestas difíciles de interpretar.

"Las respuestas que recibían [de los chatbots] frecuentemente combinaban recomendaciones buenas y malas", añadió. "Los métodos actuales de evaluación para [chatbots] no reflejan la complejidad de interactuar con usuarios humanos".

Esta dificultad para proporcionar la información adecuada y para interpretar correctamente las respuestas resulta especialmente problemática en un contexto médico, donde pequeños detalles pueden ser cruciales para un diagnóstico acertado.

Empresas tecnológicas y sus apuestas por la IA en salud

A pesar de estos hallazgos preocupantes, las grandes empresas tecnológicas continúan apostando por la IA como una forma de mejorar los resultados de salud:

  • Apple está supuestamente desarrollando una herramienta de IA que puede ofrecer consejos relacionados con ejercicio, dieta y sueño.

  • Amazon está explorando una forma basada en IA para analizar bases de datos médicas en busca de "determinantes sociales de la salud".

  • Microsoft está ayudando a construir IA para clasificar mensajes enviados por pacientes a proveedores de atención médica.

Sin embargo, como ha informado anteriormente TechCrunch, tanto profesionales como pacientes tienen opiniones divididas sobre si la IA está lista para aplicaciones sanitarias de alto riesgo.

Recomendaciones y perspectivas futuras

La Asociación Médica Americana recomienda que los médicos no utilicen chatbots como ChatGPT para asistencia en decisiones clínicas. Asimismo, importantes empresas de IA, incluida OpenAI, advierten contra realizar diagnósticos basados en las respuestas de sus chatbots.

"Recomendaríamos confiar en fuentes de información confiables para decisiones relacionadas con la atención médica", afirmó Mahdi. "Los métodos actuales de evaluación para [chatbots] no reflejan la complejidad de interactuar con usuarios humanos. Al igual que los ensayos clínicos para nuevos medicamentos, los sistemas [de chatbot] deberían probarse en el mundo real antes de implementarse".

El estudio subraya la necesidad de mejorar tanto la capacidad de los usuarios para formular preguntas efectivas como la de los chatbots para proporcionar respuestas claras y precisas, especialmente en un campo tan sensible como la salud.

Mientras la tecnología continúa evolucionando, los expertos recomiendan mantener una postura cautelosa y privilegiar siempre el consejo de profesionales médicos cualificados para cuestiones de salud, utilizando los chatbots únicamente como herramientas complementarias y nunca como sustitutos del criterio médico profesional.