Prevenir suicidios utilizando Inteligencia Artificial.


  • Médicos e Internet
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

El corresponsal en China de la BBC ha publicado un extenso artículo contando una iniciativa que han puesto en marcha en ese país, denominada Tree Hole Rescue, que está consiguiendo algunos éxitos en materia de prevención de suicidios. Se emplea para ello sistemas de análisis de redes sociales mediante Inteligencia Artificial (IA).

El reportaje empieza contando el caso de Li Fan, un estudiante de 21 años que  pensó en suicidarse y que publicó un breve mensaje en la plataforma Weibo, una especie de Twitter chino, justo después del día de San Valentín. El texto que escribió decía "No puedo seguir más. Voy a rendirme". El chico estaba endeudado, había sufrido algunos conflictos familiares y mostraba síntomas depresivos. El caso es que la comunicación que emitió desde su móvil fue detectada por un sistema de análisis algorítmicos ejecutado en un ordenador en Amsterdam -eso cuenta la información- y se pudo activar un sistema de intervención basado en una red de voluntarios que inicialmente intentaron contactar con Li a través de las redes sociales. Al no conseguirlo, se avisó a la policía local, que finalmente pudo salvarle de lo que parecía ser un intento suicida.

El equipo de Tree Hole Rescue afirma que éste es sólo uno de los casos en los que han intervenido, y que sus sistemas están demostrando ser muy útiles en el abordaje de estos intentos de autolisis. El fundador de la iniciativa es Huang Zhisheng, investigador en el área de IA de la Universidad Libre de Amsterdam. Trabaja en coordinación con grupos de psicólogos de Pekín, y según sus datos han conseguido evitar que más de medio millar de personas se suicidaran. Afirman que "Cada semana podemos salvar a unas 10". La iniciativa está centrada en el país asiático, aunque una buen aparte del desarrollo tecnológico se esté elaborando en Países Bajos.

 

 

 

Vigilancia activa.

¿Cómo funciona el sistema? Se basa en un bot (un robot informático encargado de rastrear la red y generar determinadas respuestas) que se dedica a escrutar lo que se publica, y que se ha adiestrado para detectar mensajes que puedan relacionarse con conductas suicidas. En chino, se denomina “tree hole” (hueco en el árbol) a aquellos sitios web donde los ciudadanos publican información y comentarios más íntimos. 

El sistema de IA que está asociado al bot se encarga de detectar primero y clasificar después esos mensajes que, de acuerdo con los perfiles de sus emisores, puede sugerir una conducta suicida. Se ha creado una escala básica de 1 a 10, y el software desarrollado automáticamente  genera una alerta cuando se supera el nivel 6. Un 9 significa que hay una fuerte convicción de que se realizará un intento de suicidio en breve plazo de tiempo, y un 10 significa que es probable que ya esté en marcha.

El sistema está adiestrado para poder interpretar incluso los mensajes menos explícitos, como por ejemplo uno que fue emitido con el texto “¿Alguien quiere saltar al río conmigo?", y que sirvió para abordar un caso de posible suicidio de una mujer. También ha sido entrenado para detectar conductas más explícitas, como el caso de una persona que contó a través de las redes que se estaba tragando más de 60 pastillas contra el insomnio.

Según afirman sus creadores, el sistema permite tanto a los investigadores como a la red de  voluntarios del programa estar al tanto de las tendencias suicidas que se llegan a expresar a través de la red, y hacerlo con un 82% de probabilidad de acierto. Como en otros casos de uso de la IA, estos modelos son capaces de aprender de sí mismos, e ir mejorando sucesivamente su tasa de efectividad.

El sistema de análisis de tendencias suicidas no serviría de mucho si no existiera una red de intervención asociada a la detección de la alerta. Esta red “física” se encarga en una primera fase de encontrar en las propias redes datos de las personas que puedan estar pensando en quitarse la vida, como números de teléfono o direcciones del domicilio. Después, son capaces de localizar recursos asistenciales cercanos o avisar a la policía.

 

 

 

El problema del suicidio, en otras redes.

Facebook ya utiliza sistemas de inteligencia artificial para detectar a los usuarios que puedan estar considerando la opción del suicidio. También dispone de sistemas algorítmicos basados en IA capaces de alertar a sus equipos humanos si se encuentran indicios de este tipo de conductas. El equipo está capacitado para sugerir formas en las que el usuario pueda buscar ayuda mediante teléfonos de emergencias, asociaciones de voluntariado o incluso a través de la intervención profesional.

Instagram prohíbe la publicación de imágenes de daños autoinfligidos o cualquier otra publicación que según sus paneles de expertos o la propia legislación de los países promueven o presenten una imagen romántica de la autodestrucción. Un criterio severo en esta materia se adoptó por Instagram tras un caso ocurrido en el Reino Unido después del suicidio de una adolescente en cuya cuenta se mostraban fotos de venas cortadas, y que además había evidenciado síntomas claros de depresión.

En Google se adoptó desde hace tiempo el criterio de que ante determinadas búsquedas relacionadas con técnicas de autolisis, el primer resultado que se ofrecía era el de servicios de ayuda o asociaciones de apoyo en relación al suicidio. Algo muy similar hace Twitter ante la búsqueda en esa red de palabras relacionadas con este asunto.