VALÈNCIA, 5 (EUROPA PRESS)
Apelar a las emociones es, según multitud de estudios, una estrategia recurrente en la desinformación que inunda las redes en contextos de crisis, como la trágica dana del 29 de octubre. Sin embargo, ahora un estudio europeo revela un fenómeno poco estudiado hasta el momento: en cada plataforma, los contenidos operan bajo un paradigma emocional diferente. Así, los mensajes engañosos en X se asocian principalmente a la tristeza y miedo, mientras que en TikTok, se correlacionan con un aumento ira y disgusto.
Así se desprende del documento ‘Patrones emocionales divergentes en la desinformación en las redes sociales. Un análisis de tweets y tiktoks sobre la DANA en Valencia’. Se trata de un trabajo que acaba de publicar el Iberian Digital Media Observatory, un organismo cofundado por la Comisión Europea que trabaja en colaboración con el European Digital Media Observatory en la lucha contra la desinformación en España y Portugal. Ha sido dirigido por los investigadores de la Universitat Politècnica de València Iván Arcos y Paolo Rosso y el de la Universidad de Navarra Ramón Salaverría.
Los especialistas han analizado la difusión de desinformación en TikTok y X durante la barrancada de Valencia, que ha arrasado gran parte de la provincia y ha causado más de 220 víctimas mortales.
Para ello, se anotó manualmente un conjunto de datos de 650 publicaciones para distinguir entre desinformación y contenido confiable –con atención a palabras claves, audios etc.– y se ha empleado el método comparativo. También se ha realizado un experimento separado utilizando la inteligencia artificial GPT-4o en una configuración Few-Shot para evaluar su potencial como herramienta para la anotación automatizada.
Con estas herramientas, se han centrado en los rasgos emocionales predominantes en las publicaciones en X y TikTok y han logrado identificar un fenómeno poco investigado hasta ahora: el hecho de que, en cada plataforma, los contenidos informativos operan bajo un paradigma emocional diferente. Esta conclusión lleva a pensar que “es necesario comprender mejor el impacto de las dimensiones emocionales en la credulidad hacia el contenido de desinformación, así como la predisposición a compartirlo”, aseveran los investigadores en el artículo que recoge Europa Press.
En concreto, determinan que la desinformación sobre X se asocia principalmente con una mayor tristeza y miedo, mientras que en TikTok, se correlaciona con un aumento ira y disgusto. De este modo, el informe refuerza la conclusión, ya alcanzada en multitud de estudios previos, de que apelar a las emociones es una estrategia recurrente en mensajes deliberadamente engañosos. No obstante, y gracias al enfoque comparativo, revela que es preciso tener en cuenta la diferente operativa de estas emociones según la red social empelada.
Asimismo, el análisis lingüístico –utilizando el diccionario LIWC– determina que el contenido el contenido confiable utiliza un lenguaje “más articulado y fáctico, mientras que la desinformación emplea negaciones, palabras perceptuales y anécdotas personales para parecer creíble”.
PALABRAS CLAVE
En el proceso de extracción de datos se han contemplado palabras clave relacionadas con el fenómeno de la dana y narrativas de desinformación asociadas. ‘Conspiración’, ‘fallecidos ocultación’, ‘engaño’, ‘manipulación’, ‘mentiras’, ‘Bonaire cementerio’, ‘ayuda rechazada’ o ‘provocada presas’ son algunas de estas ‘keywords’, que fueron “cuidadosamente seleccionadas para capturar contenido que potencialmente difundiera desinformación o expresara reacciones emocionales durante el fenómeno dana”.
Y en cuanto al audio de las publicaciones de TikTok, aprecian igualmente patrones distintos: los audios confiables presentan tonos más brillantes y narraciones robóticas o monótonas, promoviendo la claridad y la credibilidad, lo que contrasta con los ‘fake’, que aprovechan la variación tonal, la profundidad emocional y los elementos musicales para “manipular la percepción”.
En los modelos de detección, SVM+TF-IDF logra la puntuación F1 más alta, sobresaliendo con datos limitados. La incorporación de funciones de audio en roberta-large-bne mejora tanto la precisión como la puntuación F1, superando a su contraparte de solo texto y a SVM en precisión. GPT-4o Few-Shot también tuvo un buen desempeño. Estos hallazgos, aseveran los expertos, “demuestran la importancia de aprovechar las funciones de texto y audio para mejorar la detección de desinformación en plataformas multimodales como TikTok”.
“AGENTES INTELIGENTES”
El estudio finaliza aludiendo a futuras investigaciones para expandir estos resultados, entre otras el diseño e implementación de “agentes inteligentes” capaces de detectar y mitigar la desinformación en tiempo real.
Estos agentes, sugieren, “podrían combinar técnicas de aprendizaje automático con sistemas basados en reglas para analizar señales lingüísticas y emocionales, detectar contenido malicioso y tomar contramedidas automatizadas”.
Así, ponen como ejemplo que estos ‘agentes inteligentes’ podrían señalar posible desinformación para su revisión o análisis adicional; proporcionar a los usuarios contexto o información verificada para contrarrestar afirmaciones falsas e interactuar con algoritmos de redes sociales para limitar la difusión de contenido dañino y, al mismo tiempo, promover información verificada y precisa.
- Te recomendamos -