Inicio España Bluesky cuenta con una mayor cantidad de usuarios, moderadores y denuncias por...

Bluesky cuenta con una mayor cantidad de usuarios, moderadores y denuncias por revisar

0

MADRID, 20 (Portaltic/EP)

Bluesky ha acompañado el incremento de usuarios en su red social con un aumento de los trabajadores que conforman su equipo de moderación, que actualmente cuenta con cien moderadores, que trabajan las 24 horas del día y disponen de apoyo psicológico para afrontar la exposición al contenido gráfico, que también ha crecido en los últimos meses.

La red social descentralizada ha pasado de tener 2,89 millones de usuarios a principios de 2024 -lanzó la aplicación en febrero- a tener 25,94 millones a su cierre, un crecimiento que obligado a invertir en infraestructura, pero también en personal de moderación, ya que en solo un año, las de denuncias crecieron un 17 por ciento.

El equipo de moderación recibió 358.000 denuncias en 2023, una cifra que ha crecido a lo largo de 2024, y que despegó a partir de septiembre, hasta alcanzar los 6,48 millones de denuncias en total. “El volumen de informes de los usuarios aumentó con el crecimiento de los usuarios y no fue lineal”, apuntan desde la compañía en su ‘Informe de moderación’.

Leer más:  La Comunidad de Madrid implementará un "escudo cibernético" para resguardarse de posibles ataques informáticos y amenazas digitales

Se mantuvo constate la proporción de usuarios que enviaron denuncias: el 5,6 por ciento de los usuarios activos realizaron una o más denuncias en 2023, frente al 4,57 por ciento de usuarios en 2024. Y denunciaron principalmente publicaciones individuales (3,5 millones), pero también perfiles (47.000), listas (45.000), mensajes directos (17.700), ‘feeds’ (5.300) y paquetes de inicio (1.900).

Aunque las denuncias se hicieron por motivos diversos, destacan las que señalan conducta antisocial, como acoso o intolerancia (1,75 millones); contenido engañoso, como suplantación de identidad, información errónea o afimaciones falsas sobre identidad o afiliaciones (1,20 millones) y ‘spam’ (1,40 millones).

Asimismo, en 2024, Bluesky aplicó 5,5 millones de etiquetas. Se trata de advertencias sobre el contenido que se añaden como consecuencia de la detección que hacen sus sistemas automatizados y posterior la revisión de su equipo de moderación. Las principales se debieron a sexual-figurativo (55.422), grosero (22.412) y correo basura (13.201).

El equipo de moderación también eliminó 66.308 cuentas y 6.334 registros, mientras que los sistemas automatizados retiraron 35.842 cuentas y 282 registros.

Leer más:  CCOO y UGT solicitan una reunión inmediata con Óscar López para buscar una solución a la crisis de Muface

Los usuarios afectados por las decisiones de moderación pueden apelar en la red social y, de hecho, 93.076 usuarios presentaron al menos una apelación en 2024, con un total de 205.000 apelaciones individuales.

TRABAJO CON LAS AUTORIDADES

Bluesky también recoge en su informe que las autoridades policiales, gobiernos y bufetes de abogados realizaron 238 solicitudes en 2024, principalmente de datos de usuarios (111) y de eliminación de datos (45). Aseguran que dieron respuesta a 182 y cumplieron con 146. También recibieron 937 casos por derechos de autor y marcas registradas.

Por su parte, la red social presentó 1.154 informes de abuso sexual infantil confirmado al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). “Con el aumento repentino de usuarios, también aumentó la complejidad en materia de seguridad infantil”, explican.

AUMENTO DEL ESFUERZO DE MODERACIÓN

Bluesky ha ampliado también su equipo de moderación, que ha pasado de tener de 25 a cien trabajadores, como informó en noviembre. Entonces, el director de Confianza y Seguridad, Aaron Rodericks, explicó que “el aumento de nuevos usuarios ha traído consigo un crecimiento vinculado a la cantidad de casos extremos complicados, inquietantes y absolutamente extraños con los que el equipo de confianza y seguridad debe lidiar”.

Leer más:  El próximo fin de semana, Almonte implementa medidas de seguridad para las peregrinaciones a la aldea de El Rocío

El equipo de moderación trabaja las 24 horas del día, con algunos empleados especializados en áreas de políticas específicas, como los dedicados a la seguridad infantil. Desde Bluesky aseguran que reforzarán este esfuerzo con nuevas contrataciones y con el acceso a apoyo psicológico, que ya ofrecen desde septiembre, para que puedan afrontar la exposición al contenido gráfico.

También van a mejorar los sistemas de detección proactiva, para que sean más sólidos, y desde este mismo mes, a incorporar Ozone, la herramienta de moderación de código abierto con la que los desarrolladores y los usuarios pueden “trabajar juntos” para ejecutar sus propios servicios de moderación independientes, como etiquetar u ocultar ciertos tipos de publicaciones.


- Te recomendamos -