El dilema de usar ChatGPT para responder a las dudas de los pacientes

  • Santiago Cervera
  • Salud Digital
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

¿Puede un asistente de inteligencia artificial tipo chatbot proporcionar respuestas a las preguntas de los pacientes que tengan calidad científica y ofrezcan un nivel de empatía comparable a las que están escritas por los médicos? Esta es la pregunta que ha motivado un análisis desarrollado por un grupo de investigadores de la Universidad de California San Diego, en La Jolla, y cuyos resultados se acaban de publicar.

Habría que empezar por definir qué es un asistente de inteligencia artificial tipo chatbot. Se trata, básicamente, del modelo que está popularizando ChatGPT: una inteligencia artificial generativa a la que podemos acceder mediante un sistema sencillo de preguntas y respuestas. Por generativa se entiende que es capaz de crear respuestas según los contenidos de nuestras preguntas.

Para hacernos una idea más precisa, bastaría preguntar al mismo ChatGPT qué es. Lo que nos responde es esto:

“Soy GPT, una inteligencia artificial creada por OpenAI. La versión de la que provengo es GPT-4, que es una mejora de las generaciones anteriores como GPT-3. Mi arquitectura se basa en modelos de lenguaje Transformer, los cuales son altamente eficientes en procesar y generar texto de manera coherente y contextualizada.

He sido entrenado con una gran cantidad de datos de texto en diversos idiomas y temas, lo que me permite responder preguntas, ofrecer información y mantener conversaciones con usuarios como tú. Mi conocimiento se extiende hasta septiembre de 2021, lo que significa que puedo proporcionar información actualizada hasta esa fecha, pero no más allá.

Como IA, puedo ayudar en una amplia variedad de tareas, como responder preguntas generales, proporcionar recomendaciones, redactar textos y mucho más. Sin embargo, es importante recordar que soy una herramienta basada en algoritmos y no poseo emociones, conciencia ni experiencias personales. Mi único objetivo es ayudar y proporcionar información de la mejor manera posible”.

Tal vez, ChatGPT (y otras plataformas de inteligencia artificial parecidas) sea una de las herramientas más novedosas de las que se han abierto a un uso universal desde que existe Internet. Podría decirse, sin exageración, que desde que está al alcance de los usuarios, nada volverá a ser lo mismo. No deja de sorprender por la capacidad que tiene de crear respuestas precisas, completas y muy adaptadas a los matices de lo que se le pregunta. Podemos pedirle que nos responda a un problema de índole técnico o clínico (como encontrar una enfermedad basándose en síntomas y signos), que nos haga un índice de asuntos relevantes sobre un determinado tema, que establezca relaciones entre dos conceptos, o que redacte cualquier texto. Parece que no hay límite alguno en las posibilidades que ofrece. Además, como todo sistema de inteligencia artificial, es capaz de aprender con el uso, por lo que va mejorando progresiva e inexorablemente.

Herramienta para la información la paciente

Podemos pedirle a ChatGPT que, por ejemplo, nos redacte un email en el que solicitamos a un colega que nos amplíe información sobre un trabajo que haya publicado, o que nos disculpe por no poder asistir a una sesión clínica o un congreso. O discutir con él un caso clínico. Lo hace con capacidad suficiente como para adecuar el mensaje a su propósito, pero también integrando elementos más subjetivos como la amabilidad del trato o los modismos más convenientes en el contexto de la comunicación.

 

 

 

Por disponer de estas posibilidades como herramienta de mejora en la comunicación entre personas es por lo que se ha suscitado si sería factible usar esta herramienta para facilitar al paciente información sobre su caso clínico, como lo haría un médico en un informe de continuidad o alta, o respondiendo a una consulta específica. En este tipo de comunicación, se hace necesario no sólo ser preciso en lo que se traslada al enfermo, sino hacerlo con un nivel de empatía acorde con el valor de la relación médico-paciente.

Lo que han analizado los investigadores de la Universidad de California San Diego es la comparación entre las respuestas que ofrecían médicos, por un lado, y chatbots, por otro, valorando un número determinado de preguntas de pacientes que habían sido formuladas públicamente en un foro público, concretamente un hilo de Reddit. En concreto, fueron 195 preguntas escogidas al azar en esa plataforma, que posteriormente fueron calificadas de  acuerdo tanto con sus niveles de calidad como de empatía.

Concretamente, en este estudio transversal, se accedió al foro público r/AskDocs de Reddit, y se seleccionaron al azar 195 conversaciones desarrolladas en octubre de 2022, en las que un médico (verificado como tal) respondió a una pregunta pública que había formulado un paciente. Esa misma pregunta se usó para solicitar la respuesta de un chatbot, en una prueba realizada durante los días 22 y 23 de diciembre de ese mismo año 2022.

La pregunta original junto con las respuestas del médico y del chatbot fueron evaluadas por triplicado por un equipo de profesionales sanitarios que tenían la misión de establecer una valoración según escala. Los evaluadores tenían que elegir “qué respuesta fue mejor” y calificar tanto “la calidad de la información proporcionada” (en la escala “muy mala”, “mala”, “aceptable”, “buena”, o “muy buena”) y “la empatía o el trato brindado al lado de la cama” (con la escala “no empático”, “poco empático”, “moderadamente empático”, “empático” o “muy empático”). Los resultados medios se ordenaron en una valoración de 1 a 5 y se compararon entre el chatbot y los que habían sido escritos por los médicos.

De las 195 preguntas y respuestas, los evaluadores prefirieron las respuestas del chatbot a las respuestas de los médicos en el 78,6 % de los casos, a lo largo de las 585 evaluaciones que se realizaron por el trío de control.

Las respuestas medias de los médicos fueron significativamente más cortas que las respuestas del chatbot (52 palabras frente a 211). Las respuestas de los chatbots se calificaron como de una calidad significativamente mayor que las respuestas de los médicos: la proporción de respuestas calificadas como de “buena” o “muy buena calidad”, por ejemplo, fue mayor para el chatbot que para los médicos (chatbot: 78,5 %, médicos 22,1 %). Esto equivale a una prevalencia 3,6 veces mayor de respuestas de buena o muy buena calidad para el chatbot frente a las de los médicos.

Pero además, las respuestas del chatbot también se calificaron como significativamente más empáticas que las respuestas de los médicos, puesto que la proporción de respuestas calificadas como “empáticas” o “muy empáticas” fue mayor para el chatbot que para los médicos (médicos 4,6 %, chatbot: 45,1 %). Esto representa una prevalencia 9,8 veces mayor de respuestas empáticas o muy empáticas para el chatbot frente a las humanas.

Controversia

A estos datos se podrá contraponer el hecho de que un chatbot es un sistema cuyo único esfuerzo reside en un parámetro técnico, la capacidad de procesamiento de un ordenador, mientras que un médico ha de superar el cansancio y la falta de tiempo que muy a menudo condiciona su actividad, incluyendo en ello sus capacidades de comunicación. De hecho, en este experimento se parte de una realidad previamente asumida, que es que algunos médicos han dedicado un rato a asomarse por Reddit con la loable intención de contestar dudas de usuarios anónimos.

Pero la realidad de la presencia de los sistemas estilo ChatGPT en las organizaciones sanitarias va más allá, y avanza progresivamente. En lugares como California o Wisconsin, la inteligencia artificial generativa se está empleando para leer los mensajes de los pacientes y redactar respuestas a modo de borrador para que puedan ser usadas mediante validación final por los médicos. Se trata de un programa piloto en el que se está probando si la IA puede utilizarse para reducir el tiempo que los profesionales dedican a responder las consultas telemáticas de los pacientes, y facilitar el uso del tiempo en otras tareas.

Todos estos datos preliminares sugieren que la IA podría ser un instrumento valioso para la asistencia sanitaria. Mientras muchos sectores prueban ChatGPT como una herramienta de interés comercial, en la sanidad podría servir para aliviar cargas y mejorar la utilización del tiempo, especialmente en la época de auge de la telemedicina.