Las noticias falsas son arriesgadas, ya que han sido creadas para manipular las opiniones y creencias de los lectores. Para su detección, se ha desarrollado un software (con varias funcionalidades descritas a continuación), basado en técnicas de inteligencia artificial, que permite la detección de desinformación en los medios de comunicación.
1. Detección de Fake News y Análisis de Emociones (github.com/bilalghanem/fake_flow)
Herramienta basada en redes neuronales (Emo-analysis) que compara el lenguaje de las noticias falsas con el lenguaje de las noticias reales desde una perspectiva emocional, considerando un conjunto de tipos de información (propaganda, bulos, clickbait y sátira) de fuentes de artículos de noticias en línea y redes sociales. Se ha mostrado que la información falsa tiene diferentes patrones emocionales en cada uno de los tipos y las emociones juegan un papel clave en engañar al lector. En artículos más largos, donde los autores manipulan agregando exageraciones o fabricando eventos que afecten las emociones de los lectores, se ha utilizado el modelo FakeFlow, que modela el flujo de información afectiva en artículos de noticias falsos utilizando una arquitectura neuronal. El modelo aprende del flujo combinando el tema y la información afectiva extraída del texto.
2. Perfilado de propagadores/spreaders de Fake News (github.com/bilalghanem/FakeOrFact)
Los usuarios desempeñan un papel fundamental en la creación y propagación de noticias falsas en línea, ya sea intencionalmente o no. Dada la dificultad de saber que artículos contienen información falsa o no, se han desarrollado sitios web de verificación de hechos para crear conciencia sobre qué artículos contienen información inventada. A los usuarios de esas plataformas que participan activamente citando evidencias para refutar las noticias falsas y advertir a otros usuarios, se les conoce como verificadores (de hechos). Aquellos usuarios que tienden a compartir información falsa, se conocen como difusores (de noticias falsas). El modelo CheckerOrSpreader permite clasificar a un usuario como posible verificador o potencial difusor. Se basa en una red neuronal convolucional (CNN) y combina incrustaciones de palabras con características que representan los rasgos de personalidad de los usuarios y los patrones lingüísticos utilizados en sus tweets. El utilizar patrones lingüísticos junto con rasgos de personalidad mejora la diferenciación entre verificadores y propagadores.
3. Detección de bulos/rumores (github.com/bilalghanem/UPV-28-UNITO)
Este desarrollo se llevó a cabo para participar en el concurso de la tarea compartida RumorEval 2019, cuya misión principal era determinar automáticamente la veracidad de los rumores. El enfoque que se aplicó para abordar las subtareas del concurso explota tanto los algoritmos clásicos de aprendizaje automático como las incrustaciones de palabras, y se basa en diversos grupos de características: estilísticas, léxicas, emocionales, sentimentales, metaestructurales y basadas en Twitter. Además, se introduce un nuevo conjunto de características que aprovechan la información sintáctica de los textos.
4. Detección multimodal de Fake News con Información Textual, Visual y Semántica (github.com/zgb0537/Multimodal-Multi-image-Fake-News-Detection)
Se ha desarrollado un sistema multimodal para la detección de noticias falsas, combinando información textual, visual y semántica. Para la representación textual, usamos BERT-Base para capturar mejor el significado semántico y contextual subyacente del texto. Para la representación visual, extraemos etiquetas de imagen de múltiples imágenes que contienen los artículos utilizando, por ejemplo, el modelo VGG-16. La información semántica se obtiene por la similitud de imagen-texto calculada utilizando la similitud de coseno de las incrustaciones de etiquetas de título y de imagen. Luego, los diferentes componentes se concatenan para hacer la predicción final.
Más información: