La investigación de la Universidad de Oxford sobre la desinformación de YouTube durante la pandemia.


  • Médicos e Internet
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

El Oxford Internet Institute (OII), dependiente de la Universidad de Oxford, es un departamento multidepartamental dedicado a las ciencias sociales relacionadas con Internet. Según ellos mismos afirman, trabajan para comprender cómo el comportamiento individual y colectivo en las redes da forma a nuestro mundo actual, en lo social, lo económico y lo político. Desde su fundación en 2001, sus investigaciones han tenido un impacto relevante, y se le considera una organización políticamente influyente y muy referencial. 

Su último estudio ha tenido como objetivo verificar de qué manera los vídeos con información falsa publicados durante los últimos meses en YouTube sobre el coronavirus han influenciado la opinión social, cómo se propaga la desinformación, y de qué manera circula hasta alcanzar a su audiencia.

El trabajo se titula “Covid-related misinformation on YouTube”, y se basó en el examen de difusión de más de un millón de videos de YouTube relacionados con Covid que circularon en las redes sociales durante los pasados meses, pero que en algún momento tuvieron que ser eliminados por la plataforma por incumplir las normas de contenidos. Es decir, el análisis se centró en aquellos vídeos que antes de ser proscritos alcanzaron una amplia divulgación en las redes sociales. 

Las normas de YouTube prohíben la publicación de información falsa o información nociva sobre el coronavirus, como también se prohíben los contenidos pornográficos o las imágenes que puedan considerarse acosadoras o perturbadoras. El grupo de investigadores del OII consideró, a efectos metodológicos, que la razón principal por la que los videos que ellos estudiaron en relación con el coronavirus fueron eliminados por contener información falsa o engañosa, no por otro motivo.

De esta manera, se identificaron tales vídeos relacionados con el Covid buscándolos en Facebook, Reddit y Twitter, mediante una búsqueda semántica coincidente con las palabras clave relacionadas con el Covid. En realidad, la investigación de esta viralización de mensajes con origen en YouTube la había iniciado el Instituto en el mes de octubre de 2019, cuando todavía no había estallado la crisis del coronavirus, pero se reorientó en cuanto se produjo la pandemia.

 

Los datos analizados por los investigadores de Oxford mostraron que los videos de información falsa originarios de YouTube se compartieron casi 20 millones de veces en Facebook entre octubre de 2019 y junio de 2020. Tenían un mayor alcance en las redes sociales que las cinco fuentes de noticias en inglés más grandes que también se difunden por YouTube -CNN, ABC News, BBC, Fox News y Al Jazeera- juntas, cuyos videos se compartieron “sólo” 15 millones de veces.

  Una de las primeras conclusiones fue, por tanto, que los vídeos de desinformación relacionados con el Covid no encuentran su audiencia únicamente a través de la propia YouTube, sino en gran medida al ser compartidos en Facebook.

El papel de los usuarios y los verificadores.

En efecto, Facebook constituye el canal principal por el que se comparte información errónea. Y Facebook también generó el mayor número de reacciones a este tipo de publicaciones. Cada uno de los videos de desinformación compartidos en Facebook originaron alrededor de 11.000 reacciones (“me gusta”, comentarios o “compartir”), antes de ser eliminados por YouTube. En comparación, los videos publicados en Twitter fueron retuiteados en promedio alrededor de 63 veces cada uno.

Los investigadores de Oxford también encontraron que de los 8.105 videos de desinformación compartidos en Facebook entre octubre de 2019 y junio de 2020, solo 55 tenían etiquetas de advertencia puestas por los verificadores o moderadores de contenidos de esa plataforma. Por tanto, eran menos del 1% de todos los videos de desinformación que se estudiaron. 

Este fallo en la verificación de los contenidos por parte de Facebook facilitó sin duda que los videos de desinformación relacionados con el Covid se difundieran ampliamente y llegaran a  una gran audiencia. Los investigadores de Oxford observaron que, a pesar de la inversión y el esfuerzo de YouTube para limitar la difusión de la información errónea, se tardó un promedio de 41 días en eliminar los videos relacionados con el Covid que contenían información falsa. De esa manera, estos videos tuvieron un promedio de 150.000 reproducciones antes de que YouTube los eliminara.

 

El estudio establece una relación directa entre el número de visualizaciones de los vídeos con desinformación publicados en YouTube y el número de veces que son compartidos en Facebook. De manera que incluso se puede aventurar el éxito de un determinado vídeo según sea el número de veces que es compartido. Es raro que tenga muchas visualizaciones si no ha sido frecuentemente trasegado.

El Dr. Aleksi Knuutila, investigador postdoc del OII, afirma que “las personas que busquen información relacionada con el Covid en YouTube verán fuentes creíbles, porque la empresa ha mejorado su algoritmo. El problema, sin embargo, es que los videos de desinformación se viralizan en otras plataformas, sobre todo Facebook. De esa manera encuentran una audiencia masiva y es probable que influyan en las actitudes y el comportamiento de las personas. Por el bien de la salud pública, las plataformas de Internet deben asegurarse de que la información que reciben las personas sea precisa y confiable”.

Otros hallazgos  significativos con que sólo 250 grupos de Facebook son responsables de la mitad de la visibilidad que adquieren los videos de desinformación, y que los videos de desinformación más populares a menudo incluyen a personas que afirman tener experiencia médica pero que hacen afirmaciones anti-científicas sobre los tratamientos y las medidas de protección contra el coronavirus.