MADRID, 13 (EUROPA PRESS)
Europa Press ha completado la primera fase de un proyecto desarrollado junto a la empresa española especializada en Inteligencia Artificial AyGLOO y con el apoyo financiero del Centro para el Desarrollo Tecnológico Industrial (CDTI) para tratar de dar respuesta al creciente reto que supone la difusión de noticias falsas por Internet.
La difusión sin control de bulos en X (antes Twitter) en los días posteriores a los ataques de Hamás en Israel y la posterior advertencia de la Comisión Europea a Elon Musk por contravenir las nuevas reglas de la Unión Europea contra la desinformación es uno de los últimos ejemplos de este reto.
Con el objetivo de dar un paso en esa dirección, Europa Press ha llevado a cabo un proyecto de I+D para crear un sistema de alerta temprana que puede usarse como primer ‘test’ ante posibles bulos y hacer frente a la irrupción de nuevas tecnologías, como la Inteligencia Artificial, que facilitan la creación a gran escala de este tipo de contenidos.
Utilizando técnicas de Inteligencia Artificial como el NLP (Procesamiento de Lenguaje Natural), STS (Similaridad Semántica de textos), NLI (Inferencia de Lenguaje Natural), Deep Learning (Aprendizaje Profundo), y XAI (Inteligencia Artificial Explicable), el propósito a medio plazo es dotar a periodistas e investigadores de herramientas que les permitan detectar rápidamente noticias falsas.
Para ello, se han desarrollado dos estrategias principales. Por un lado, se ha construido una gran base de datos de fact-checks en distintos lenguajes, que se actualiza diariamente y utiliza un modelo de similitud semántica para, ante un posible bulo, comprobar si ya ha sido verificado con anterioridad por un actor independiente.
Con frecuencia, las informaciones falsas se repiten a lo largo del tiempo, con lo que esta herramienta pretende servir para detectar bulos que vuelvan a surgir una y otra vez en el discurso público.
ANÁLISIS DE TEXTO
Además, y con el objetivo de abordar el problema desde distintos frentes, durante el desarrollo del proyecto se ha entrenado otro modelo con miles de ejemplos de bulos escritos en español y con noticias verdaderas escritas por los profesionales de la agencia de noticias. A partir de este entrenamiento, usando herramientas de NLP y Deep Learning, el modelo puede hacer una valoración sobre si cualquier texto parece falso o verdadero por cómo está escrito. Sin entrar a valorar la veracidad o falsedad del texto, este análisis pretende servir de alerta temprana para el periodista o el investigador.
Ante los riesgos que pueden suponer los sesgos o falta de transparencia en el uso de algoritmos de Inteligencia Artificial, esta parte del proyecto incluye un módulo de explicabilidad, que pretende dar ‘pistas’ al investigador de por qué el modelo considera que un texto parece falso.
La aplicación, que está aún en fase de desarrollo, va a ser ahora, en la segunda etapa del proyecto, probada por verificadores independientes y otros actores de la sociedad civil.
La Comisión Europea ha marcado como una de sus prioridades la lucha contra la proliferación de información falsa que puede desestabilizar sus instituciones democráticas y hacer que los ciudadanos pierdan la confianza en ellas.
- Te recomendamos -