La UE quiere que la Inteligencia Artificial aplicada a la medicina sea “transparente, trazable y bajo supervisión humana”. Éstas son sus razones.


  • Médicos e Internet
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

Se trata de un asunto complejo, pero que merece una explicación lo más detallada posible por su incidencia en el ámbito médico y sanitario. La Comisión Europea ha presentado un primer paquete de propuestas para la nueva estrategia digital en la Unión, en el propósito de impulsar la digitalización de todos los sectores de actividad. La presidenta de la Comisión, la médico Ursula von der Leyen, ha descrito el propósito como la búsqueda de “una Europa adaptada a la era digital”.

Pero así como en anteriores décadas los esfuerzo principales consistían en crear infraestructuras y redes, y en reducir la llamada brecha digital (desigualdades sociales fruto del acceso diferencial a las tecnologías), hoy el reto tienen que ver con la funcionalidad. Y dentro de ella, el importante capítulo de la Inteligencia Artificial (IA), que va  ser en un futuro inmediato la gran tecnología transformadora de nuestra sociedad. Lo está siendo ya en el área médica, cuando casi cada semana observamos la aparición de nuevos sistemas algorítmicos de análisis de la información y las imágenes que ofrecen, por ejemplo, resultados diagnósticos superiores incluso a los obtenidos tradicionalmente.

Cada vez son más las voces que piden ciertos niveles de regulación de la IA, incluyendo entre ellas a los líderes de las compañías tecnológicas occidentales como Google o Microsoft. En algunos casos, la regulación se hace necesaria para establecer los niveles de responsabilidad que tengan todos los que de alguna manera participen de ella. Esto es muy relevante, por ejemplo, en los sistemas de conducción autónoma de vehículos, y especialmente en el campo médico y sanitario. ¿Quien responde de un diagnóstico mal hecho ejecutado por una ordenador, o por el accidente de un vehículo guiado por un sistema de autopilotaje?

De ahí que la Comisión se proponga establecer algunas reglas de juego para las que considera algunas de las aplicaciones de la IA como de "alto riesgo", que ella misma define especialmente en tres áreas clave: la salud, la vigilancia y el transporte.

Para estos sectores, quiere establecer una normativa que promueva permanentemente el uso de sistemas "transparentes, trazables y que garanticen la supervisión humana". 

También va a imponer el requisito de uso de datos “imparciales”, de manera que estos sistemas "funcionen adecuadamente y garanticen el respeto de los derechos fundamentales, en particular la no discriminación". Imaginemos que un algoritmo diagnóstico se ha elaborado tomando como base de aprendizaje automático una población con sesgo de edad o raza, y que por ello ofrezca resultados distintos para distintas personas. Esto es, entre otras cosas, lo que se quiere evitar. 

Algoritmos sujetos a escrutinio público.

Precisamente para ello, se han planteado una serie de reglas de protección al ciudadano para que las autoridades puedan "probar y certificar" los datos en los que se han basado los algoritmos, de manera similar a las reglas existentes que permiten realizar controles en productos como cosméticos, automóviles o juguetes. Dentro de ello se quiere también abrir un debate sobre las circunstancias en las que se permita el uso de la identificación biométrica por los sistemas.

Hablando de datos, se quiere promover un marco regulatorio que cubra la gobernanza, el acceso y la reutilización de ellos entre empresas, entre empresas y gobiernos, y dentro de las propias administraciones. Se quiere incentivar un mayor grado de intercambio que, según la Comisión, establecerá "reglas prácticas, justas y claras sobre el acceso y uso de datos, que cumplan con los valores y derechos europeos, como la protección de datos personales, la protección del consumidor y las normas de competencia".

  Es interesante que en este campo se pretende que los datos del sector público, entre los que se encuentran los de muchas organizaciones sanitarias, estén en una mayor disposición para ser abiertos, y son denominados como "conjuntos de datos de alto valor", entendiendo que su reutilización servirá de manera directa para fomentar la innovación.

Junto con todo ello, la Comisión quiere generar acciones sectoriales específicas para construir espacios de datos europeos que se centren en áreas específicas, como la fabricación industrial, el negocio verde, la movilidad o la salud. Esto tiene que ver también con los sistemas de procesamiento en la nube y las redes de 5G.

Inteligencia artificial confiable.

Al presentar las líneas generales de esta estrategia, se incidió en la idea de que en Europa hace falta mucha más gente para poder trabajar en el área de la IA. El paquete de propuestas trata de captar al máximo las posibilidades que ofrece la IA en muchos sectores, pero mitigando sus riesgo. El lema, dicen, es “crear confianza en lugar de miedo".

En su comunicado de prensa, la presidenta de la Comisión, von der Leyen, destacó una serie de ejemplos de cómo la IA podría generar beneficios para la sociedad, desde el diagnóstico "mejor y más temprano" de enfermedades como el cáncer (lo dice una doctora), hasta el cumplimineto de los objetivos de descarbonización para 2050. Es obvio, y así aparece a los ojos de la Comisión, que el sector de la salud va a ser uno de los más relevantes en esta estrategia, y que ya podemos decir que la UE es consciente de que el curso de la medicina y la asistencia sanitaria está cambiando profundamente a través de estas oportunidades tecnológicas.

"Seremos particularmente cuidadosos con los sectores donde los intereses de las personas y los derechos humanos esenciales están en juego", dijo la presidenta de la Comisión.  “La IA debe servir a las personas. Y, por lo tanto, siempre debe cumplir con los derechos de esas personas. Es por eso que hay que mantener el control de las decisiones críticas y la llamada “IA de alto riesgo”', es decir, la IA que potencialmente interfiere con los derechos de las personas, debe ser probada y certificada antes de llegar a nuestro mercado único”. En este grupo se encuentra la medicina y la asistencia sanitaria. “Queremos que la aplicación de estas nuevas tecnologías merezca la confianza de nuestros ciudadanos. Es por eso que estamos promoviendo un enfoque responsable y centrado en el ser humano para la inteligencia artificial. No creo que podamos ser líderes mundiales sin pautas éticas”, agregó.

Próximamente la Comisión abrirá un procedimiento de exposición pública del plan, y prevé disponer de un borrador final de su propuesta para fines de año, después del cual las diversas instituciones de la UE -como el Parlamento o el Consejo- tendrán la oportunidad de contribuir al mismo.