Además de mostrar un contenido aparentemente real, las noticias falsas necesitan una gran difusión para llegar al mayor número de usuarios. Ya hemos visto que los bots sociales tienen un papel esencial en esa viralización de noticias falsas. Por ello, un primer paso para frenar el fenómeno pasa por detectarlos. La Inteligencia Artificial y, en concreto, el aprendizaje automático puede servir en esta tarea.
También hay que prestar atención al avance en la generación de noticias falsas. Con técnicas de Procesamiento del Lenguaje Natural (PLN), se consiguen textos ficticios cada vez más veraces, que retan a la IA a ir más allá del contenido para detectar su autoría.
Aprendizaje automático para la detección de bots sociales
Una primera aproximación para la detección automática de bots sociales se basa en el aprendizaje automático y en el análisis de redes sociales[1]. Las técnicas de aprendizaje automático precisan conocer previamente un conjunto de ejemplos válidos que sean lo más representativos de la variabilidad de casos posibles. A partir de este conjunto finito de ejemplos se construye automáticamente un modelo estadístico que infiera el resultado correcto para un nuevo caso.
Llevándolo al terreno de la detección de bots, se recolectan un número elevado de cuentas verificadas que incluyen tanto a bots como a humanos. Cada cuenta se perfila a su vez a partir de miles de características extraídas de sus comentarios y metadatos, tales como los seguidores y perfiles seguidos, los patrones temporales de actividad o el contenido y sentimiento de los comentarios.
Estas características se eligen de tal manera que los bots y los humanos presenten combinaciones de valores diferenciales que pueda descubrir el modelo para distinguirlos. Por ejemplo, publicar con una frecuencia y una temática distinta. La dificultad surge porque los bots sociales evolucionan constantemente, de manera que cada vez emulan más fidedignamente el comportamiento en redes sociales de un humano. Esto obliga a reconstruir el modelo con nuevos ejemplos, a medida que se descubren nuevos bots más sofisticados.
Otra aproximación se basa en estudiar las redes que forman las plataformas de bots. En este caso se va más allá de las características individuales de cada usuario y se tiene en cuenta cómo se relacionan y cómo se comportan cuando comparten contenidos similares. Esta aproximación permite además detectar acciones coordinadas, que de otra manera podría confundirse con una acción espontánea.
Tecnologías de generación automática de noticias falsas
El elemento más novedoso a tener en cuenta es la generación automática de noticias falsas mediante tecnologías de generación de lenguaje natural (Natural Language Generation, NLG). Los medios de comunicación vienen empleando estas técnicas para transformar los datos estructurados en una tabla en un contenido redactado en lenguaje natural listo para publicar.
Actualmente, entre otros casos de uso, se utilizan en noticias deportivas que describen lo ocurrido en un partido de fútbol, en la generación de obituarios, en predicciones meteorológicas, en noticias sobre la salud financiera de una empresa o en anuncios que añaden una descripción en texto a las características técnicas del producto. Así pues, se parte de datos reales para transformarlos en una noticia real.
Recientemente, se han desarrollado modelos de lenguaje basados en aprendizaje profundo (Deep Learning) muy sofisticados que permiten generar textos ficticios con un nivel de calidad similar a los escritos por un humano[2]. Con estos modelos, se puede crear un número ilimitado de noticias falsas para una temática concreta, lo que abre una nueva línea de investigación en la detección, no tanto de la veracidad, sino de la autoría del artículo, de manera que se puedan descartar rápidamente aquellas noticias generadas artificialmente.
Verificación de noticias falsas
Enfrentarse a un fenómeno tan complejo requiere incorporar, más allá de contramedidas tecnológicas, experiencia y conocimiento de múltiples disciplinas como la epidemiología, la psicología, la estadística, la pedagogía o las ciencias de la información.
Existen incentivos comerciales, que se añaden a los ya mencionados políticos, que son causa de la proliferación de portales de información que publican este tipo de noticias de baja calidad y baratas de producir para atraer usuarios y generar ingresos publicitarios. Por ello, comprobar la veracidad de una noticia sigue requiriendo del criterio humano, recayendo esta tarea en los servicios de verificación (fact-checking), a los que a la vez les supone elevados esfuerzos.
Actualmente, se está desarrollando tecnología que permite mitigar estos esfuerzos, realizando una clasificación automática previa que reduzca el número de noticias a revisar por el experto. La mayor parte de las aproximaciones se basan en técnicas similares a las que se han descrito anteriormente. Se parte de un conjunto de noticias etiquetadas como verdaderas o falsas, y se crea un sistema que aprende a diferenciarlas según el contenido del mismo.
En este caso, existe una limitación, ya que el modelo resultante es dependiente del contenido. Por ello, es difícil de generalizar, es decir, que consiga detectar noticias falsas en temáticas distintas que las que se utilizaron para entrenarlo. Para superar esta limitación, se complementan los algoritmos anteriores con información sobre la estrategia de publicación y la fiabilidad de la fuente de información, de manera similar a como se explicó en la detección de bots. Los algoritmos de última generación combinan técnicas de aprendizaje profundo, en especial redes adversarias, para extraer características generales a todas las noticias falsas, que consideren tanto el texto como las imágenes[3].
Tecnología para frenar la difusión de fake news
Aunque puedan atentar contra el derecho constitucional a la información veraz, no existe un delito tipificado en el código penal que condene la difusión de noticias falsas, mientras que no se demuestre que son el instrumento para cometer un delito. Además no es sencillo de demostrar, ya que existe una delgada línea entre estas informaciones falsas y el derecho a la libertad de expresión o de opinión, también recogido en el artículo 20 de la Constitución[4].
El propio Mark Zuckerberg defendió públicamente el derecho a difundir noticias en Facebook sobre la negación del Holocausto. Aunque como judío se sentía «profundamente ofendido», pensaba que «hay cosas en las que las personas se equivocan. No creo que estén en un error intencionalmente»[5].
En cualquier caso, esto no puede ser un impedimento para tomar medidas que ayuden a combatir este fenómeno que supone un grave riesgo para el pluralismo informativo. En mundo inundado de información, donde se entremezclan constantemente hechos y opiniones, es preciso desarrollar y promover mecanismos que filtren o reduzcan la cantidad de información falsa que circula por los medios sociales.
Bajo la premisa de que los bots no gozan del derecho a la libertad de expresión, el uso de la tecnología para la identificación temprana de bots maliciosos, así como la detección de noticias creadas artificialmente, se muestran como tecnologías claves para frenar esta difusión de noticias falsas.
[1] Ferrara, E., Varol, O., Davis, C., Menczer, F. & Flammini, A. The rise of social bots. Comm. ACM 59, 96–104 (2016).
[2] Radford, A., Wu, J., Amodei D., Amodei, D., Clark,J., Brundage,M., & Sutskeve, I. (2019) Better Language Models and Their Implications. OpenAI, https://openai.com/blog/better-language-models/
[3] Wang, Y., Ma, F., Jin, Z., Yuan, Y., Xun, G., Jha, K., & Gao, J. (2018, July). Eann: Event adversarial neural networks for multi-modal fake news detection. In Proceedings of the 24th acm sigkdd international conference on knowledge discovery & data mining (pp. 849-857)
[4] Adsuara, B. (2020, 4 de marzo). ¿Es delito difundir bulos por las redes sociales y WhatsApp? Accesible en https://www.lainformacion.com/opinion/borja-adsuara/es-delito-difundir-bulos-por-las-redes-sociales-y-whatsapp/6548490/
[5] Qué defienden los negacionistas del Holocausto y por qué Mark Zuckerberg dice que no deben ser censurados en Facebook. (2018, 19 de julio). Accesible en https://www.bbc.com/mundo/noticias-44894894