La escritura sintética y su relevancia para la publicación científica

  • Santiago Cervera
  • Salud Digital
El acceso al contenido completo es sólo para profesionales sanitarios registrados. El acceso al contenido completo es sólo para profesionales sanitarios registrados.

Posiblemente, dentro de muy poco habrá que poner en los créditos de un artículo científico una frase del estilo “este trabajo se ha redactado sin la utilización de sistemas de generación de texto sintético, y sus autores son los únicos que han elaborado personalmente el presente documento”, o algo parecido, igual que se suele hacer declaración de posibles conflictos de interés. La razón: estamos en el momento de auténtica eclosión y popularización de los sistemas de inteligencia artificial aplicados a la elaboración de textos, y este fenómeno empieza a tener un impacto relevante en la producción científica, o al menos en su difusión a través de las publicaciones.

La inteligencia artificial empleada para manejar textos tiene ya unos años de presencia en nuestras vidas. Por ejemplo, desde hace tiempo servicios como GMail, el gestor de correo electrónico de Google, permite activar una función que ayuda a completar las frases adivinando cuál es su desenlace más previsible. O mediante herramientas como LanguageTool, un corrector ortográfico que no solo avisa de las palabras mal escritas, sino que ayuda a cambiarlas por otras más pertinentes, o detecta inconsistencias gramaticales. Se trata de instrumentos capaces de leer lo que escribimos y, de alguna manera, interpretarlo y aprender de nuestras propias pautas de escritura para simplificar procedimientos.

Pero a lo que estamos asistiendo ahora es a un fenómeno que va a suponer un cambio muy relevante en el modo en el que nos expresamos, comunicamos, aprendemos y compartimos conocimiento.

En esta sección ya hemos hecho referencia al fenómeno de los chats que pueden usarse para preguntarles cualquier cosa, y que ofrecen respuestas basadas en el aprendizaje automático que han desarrollado tras digerir bases de datos enormes. Por ejemplo, en el artículo “¿Y si le preguntamos a una inteligencia artificial qué pasará en salud digital durante 2023?”. La noticia hoy es que estos sistemas están ganando un hueco fundamental en herramientas muy comunes para cualquier usuario de Internet, y han dejado de ser un instrumento exclusivo de la experimentación. 

De hecho, ya vamos teniendo a la inteligencia artificial con la que poder dialogar instalada en la mayor parte de los sistemas que utilizamos de manera cotidiana. Recientemente, el buscador web de Microsoft llamado Bing anunció que integraba un sistema de este tipo, de forma que además de los resultados habituales, cuando lo empleemos podremos obtener resultados basados en el análisis y re-elaboración que el propio sistema haga de la información disponible, al que podremos interrogar mediante un sistema de diálogo. Por ejemplo, le podemos pedir que nos diga qué restaurantes italianos tenemos cerca, y junto con el directorio de referencias abrirá una ventana en la que nos preguntará si estamos celebrando un aniversario, nos felicitará por ello, y nos contará que se ha enterado de que pronto van a abrir un nuevo local especializado en unas pizzas napolitanas hechas con ingredientes naturales. Sucesivamente, le podremos preguntar cosas como si estuviéramos ante un experto, no ante un indexador de páginas.

No solo Bing. También Google se ha dado cuenta de que el futuro de las búsquedas es este, y ya prevé poder ofrecer un nuevo buscador llamado Bard, basado en un modelo lingüístico que la compañía anunció en mayo de 2021 y que se entrena con diálogos entre personas reales, y que estará disponible en su navegador Chrome y en otros muchos de sus servicios. 

Lenguaje natural y lenguaje sintético.

Pero además, algunas herramientas colaborativas más innovadoras que ayudan a crear textos, como Notion o Craft (ambas tienen versiones gratuitas y de pago), ya han integrado estos módulos de inteligencia artificial, y las posibilidades que ofrecen son impresionantes. Por empleo, se puede pedir que elabore texto propio, por ejemplo diciéndole “escribe 500 palabras sobre tratamientos para la migraña”, o “escribe sobre las implicaciones sociales de la migraña”. También es posible pedirle que reformule textos (por ejemplo, un párrafo que se ha copiado y que se quiere disimilar), o que resuma un párrafo largo, o que amplíe una idea breve, o incluso que haga un índice, un esquema o un poema con la base de un texto previo. Los resultados a día de hoy son asombrosos, pero lo más alentador de estos sistemas es que al desarrollar un proceso de aprendizaje autónomo, cada vez adoptan mayores capacidades.

Cómo afecta a la producción científica.

Hasta tal punto se están popularizando estos sistemas, que ya se habla de dos tipos de textos. El sintético, que es el que ha creado una máquina tras proporcionarle unas instrucciones, y el natural, el de toda la vida, el que proviene de no otro origen que la creatividad y el intelecto humano. 

El hecho de que se pueda generar texto sintético está haciendo surgir una preocupación por la integridad de origen de todo lo que leemos, asumiendo que si dejamos sólo a las máquinas que hagan este trabajo estaremos depauperando el sentido de la producción intelectual y literaria, incluso cometiendo un fraude si hacemos pasar por texto original lo que es fruto del procesamiento de un ordenador. 

Ya hay ejemplos de periódicos digitales que solamente publican noticias creadas por un sistema de inteligencia artificial. Y en el ámbito académico, ha surgido la preocupación de si los alumnos que presentan un trabajo escrito lo habrán hecho mediante este tipo de técnicas, que a priori son inmunes a los detectores tradicionales de plagios, puesto que cada texto sintético se genera de manera única a petición de cada usuario. Hasta tal punto esto es así, que ya han aparecido sistemas de inteligencia artificial entrenados para… detectar textos que hayan sido originados por inteligencia artificial. 

La revista Science publicó recientemente un artículo sobre las implicaciones de estos sistemas para la generación de artículos científicos. Cuenta el caso de los biólogos Casey Greene y Milton Pividori, que decidieron pedir a un asistente automático que les ayudara a mejorar tres de sus trabajos de investigación. Este sugirió revisiones a secciones de documentos en unos pocos segundos. Cada manuscrito tardó unos cinco minutos en revisarse, y en uno de ellos se detectó un error en una referencia a una ecuación. Los documentos finales resultaron más fáciles de leer y el coste de la corrección resultó inapreciable. 

“Estoy realmente impresionado”, dijo Pividori, que trabaja en la Universidad de Pensilvania. “Esto nos ayudará a ser más productivos como investigadores”. Otros científicos consultados en el artículo reconocen que regularmente usan estos sistemas no solo para dar el toque final a los manuscritos, sino también como ayuda en su escritura. 

Pero como se explica también en ese artículo, existe una preocupación por la posibilidad de que los sistemas de inteligencia artificial puedan mostrar falsedades, errores o ser una fuente de fraude intelectual. Algunos investigadores piensan que estas herramientas son adecuadas para acelerar tareas como redactar documentos o cumplimentar trámites, siempre que haya supervisión humana, pero muchos científicos desaprueban su uso como generadores de contenidos relevantes. De ahí que ya se estén planteando norma de uso honesto, que establezcan límites para estas herramientas, incluso su regulación legal y deontológica.