Los pacientes desconfían (por el momento) del Dr. Chatbot

  • Salud Digital
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

“Tu médico podría ser un robot antes de lo que piensas”. Esta frase se ha escrito recientemente en una información publicada en la sección “Future Pulse” del medio digital Politico, donde también han bautizado como Dr. Chatbot a la posibilidad, no tan remota, de que los pacientes acudan a sistemas de inteligencia artificial para hacer consultas sobre su estado de salud.

En efecto, parece que Dr. Google se va a jubilar dentro de poco (al menos tal como lo conocemos) y acaba de terminar su posgrado el Dr. Chatbot, de manera que será este quien empiece a responder a las preguntas de los pacientes.

La popularización de sistemas como ChatGPT, al que ya se puede acceder por cualquier usuario de la red, hace que cada vez más personas tengan la posibilidad de tener como referencia a una inteligencia artificial para contarle sus síntomas, buscar diagnósticos o entender más sobre su enfermedad.  

Llegó tras la pandemia el interés (y la necesidad) por emplear sistemas digitales para la gestión de muchos procesos sanitarios, y los primeros que surgieron fueron los que usaban algoritmos para aliviar las cargas rutinarias y mejorar la eficiencia operativa. Algunos de estos nuevos instrumentos fueron chatbots (sistemas de mensajería que ofrecen comunicación con un ordenador, no con otras personas) para abordar tareas rutinarias como solicitar citas y resolver trámites.

Pero como era inevitable, ya se empiezan a utilizar sistemas de base similar, aunque de mayor complejidad en sus contenidos, para proporcionar consejos sobre salud. Y el caso es que los estudios que se están haciendo parecen confirmar que su nivel de fiabilidad comienza a ser relevante.

Recientemente, investigadores de la Clínica Cleveland y la Universidad de Stanford desarrollaron un experimento consistente en preguntar a ChatGPT, el sistema de inteligencia artificial desarrollado por la plataforma OpenAI, 25 cuestiones sobre prevención cardiovascular. Las respuestas acertadas fueron 21, un 84 %, según un revisor humano. Se consideraron apropiadas para una amplia gama de recomendaciones, incluidas preguntas sobre cómo perder peso y reducir el colesterol, o el significado de algunas determinaciones analíticas.

Los autores de experimento quedaron sorprendidos, especialmente, por la capacidad del sistema para resumir información extensa y compleja y condensarla en respuestas bastante simples. ChatGPT, en cambio, no fue tan perspicaz en asuntos como el tipo de deporte que se recomendaría a algunos pacientes. De hecho, propuso cardio y levantamiento de pesas, lo que en algunos casos es perjudicial. También pasó por alto detalles relevantes en algunas preguntas sobre los niveles de colesterol, y sugirió incorrectamente que un medicamento para la enfermedad cardiovascular no estaba disponible comercialmente.

Otras investigaciones recientes están determinando valoraciones no tan halagüeñas sobre la utilidad de estos sistemas. Algunas se han desarrollado en el área de la salud mental, y en este campo no se han detectado, hasta el momento, efectos estadísticamente significativos sobre variables relacionadas con el bienestar subjetivo de los pacientes que los usan, incluso evidencia débil de efectividad en el tratamiento de síntomas como el estrés o la distimia.

El problema que han detectado muchos investigadores es que estos sistemas funcionan mediante un mecanismo de “caja negra”, y por eso es imposible saber cómo se llega a una determinada respuesta. Esto imposibilita que el profesional pueda asumir unos veredictos que le ayuden a adoptar decisiones compartidas entre ellos y los pacientes. De esta forma se limita de manera fundamental la posibilidad de que se puedan emplear estos chatbots para enriquecer el trabajo clínico.

Pero, ¿qué piensan los usuarios del sistema?

Cualquier pronóstico que se quiera hacer sobre si estamos ante un cambio relevante para la asistencia sanitaria con la llegada de estos instrumentos ha de tener muy en cuenta la receptividad con la que puedan ser recibidos por los más importantes en este escenario, los usuarios del sistema, sean pacientes o no.

Hay pocos estudios que nos ofrezcan información sobre este asunto, y seguramente los que se hagan serán muy cambiantes en los próximos tiempos. Imaginemos que hace 15 años se hiciera la pregunta “¿estaría usted dispuesto a que su teléfono móvil pueda ser la única manera en la que poder controlar su cuenta bancaria?”. La respuesta hubiera sido seguramente que no. Y, sin embargo, hoy se abren muchas más cuentas corrientes basadas en apps que las que se hacen operativas en las oficinas. Es seguro que con el paso del tiempo y la popularización de los sistemas de inteligencia artificial generativa, su traslación al campo de la salud crecerá en aceptabilidad.

El Centro de Investigación Pew ha sido uno de los primeros en explorar de manera metodológicamente solvente las opiniones públicas de los norteamericanos sobre la inteligencia artificial en ámbito de la salud y la medicina. El resultado es que menos de la mitad de los encuestados considera que la inteligencia artificial puede mejorar los resultados que aprecian los pacientes.

La encuesta ha encontrado que existe una significativa incomodidad entre los estadounidenses con la idea de que la inteligencia artificial se utilice en su propia atención médica. Seis de cada diez adultos estadounidenses dicen que se sentirían incómodos si su hospital o aseguradora confiara en la inteligencia artificial para hacer cosas como diagnosticar enfermedades o recomendar tratamientos; en cambio, una proporción bastante menor (el 39 %) dice que se sentiría cómoda con esto.

La mayoría de la muestra no está convencida de que estas tecnologías puedan mejorar los resultados de salud. Solo el 38 % considera que la inteligencia artificial está capacitada para diagnosticar enfermedades y recomendar tratamientos, y con ello mejorar la asistencia sanitaria. El 33 % cree que conduciría a peores resultados y el 27 % dice que no haría mucha diferencia.

Cuando se les preguntó con más detalle sobre cómo el uso de la inteligencia artificial afectaría la salud y la medicina, los estadounidenses identificaron una combinación de aspectos positivos y negativos.

En el lado positivo, una proporción mayoritaria de los estadounidenses piensa que la utilización de la inteligencia artificial en este campo reduciría, en lugar de aumentar, la cantidad de errores cometidos por los médicos (un 40 % lo considera así, mientras que un 27 % discrepa).

También, quienes consideran que existen inequidades por la incorporación de sesgos raciales o étnicos en la atención sanitaria, aprecian que este problema mejoraría (51 %), frente a los que opinan que empeoraría (15 %), si la inteligencia artificial se usara para más procesos clínicos.

Sin embargo, existe una gran preocupación sobre el impacto potencial de la inteligencia artificial en el campo de la relación médico - paciente: el 57 % dice que el uso de inteligencia artificial para hacer cosas como diagnosticar enfermedades y recomendar tratamientos empeoraría esta relación, y únicamente un 13 % dice que mejoraría.

La seguridad de los registros médicos también es motivo de preocupación para los estadounidenses: el 37 % piensa que emplear inteligencia artificial empeoraría este aspecto, en comparación con el 22 % que piensa que mejoraría. 

Entre los hombres, el 46 % dice que se sentiría cómodo con el empleo de la inteligencia artifical en su propia atención médica, mientras que el 54 % dice que se sentiría incómodo con esto. Las mujeres expresan opiniones aún más negativas: el 66 % dice que se sentiría incómoda.