Inicio España Bluesky comparte herramientas de moderación para crear un espacio seguro para las...

Bluesky comparte herramientas de moderación para crear un espacio seguro para las comunidades de usuarios

0

MADRID, 26 (Portaltic/EP)

La comunidad estará en el centro de la red social descentralizada Bluesky, y su seguridad y moderación se basará en un conjunto de herramientas que darán control a los gestores y usuarios sobre la interacción con sus publicaciones y respuestas, y una serie de filtros de contenido basada en etiquetas.

Bluesky ha compartido las líneas generales que guiarán sus herramientas de moderación, con las que buscan “tener en cuenta cómo se forman y moldean los espacios sociales a través de las comunidades”.

Las comunidades tendrán un papel destacado, porque entienden que para que un espacio común -como esta red social descentralizada- funcione “debe haber algún tipo de estructura que proteja a las personas que participan”, y rechazan la posibilidad de que la seguridad quede en manos de cada individuo “para que se ocupe de ella por su cuenta”.

El objetivo es formar grupos y comunidades de usuarios que puedan ayudarse unos a otros, y para reforzar esta idea, desde Bluesky han compartido en su blog una serie de propuestas de lo que serán sus herramientas de moderación.

La comunidad tendrá a su alcance una lista de usuarios, que pueden usarse para generar muros de publicaciones, para mostrar las relaciones sociales entre usuario o para crear las propias comunidades.

También un conjunto de controles de respuesta, para gestionar quién puede responder a una publicación, poder bloquear a determinados usuarios, y, para los casos más graves, la red social contempla la moderación de hilos, con la que el creador de la publicación decide cómo gestionar el discurso ya sea eliminando una respuesta, ocultándola o bloqueando la adición de respuestas en subhilos, especialmente cuando la discusión ha elevado el tono.

Bluesky también propone controles de etiquetado, para bloquear, ocultar o alertar sobre determinado contenido haciendo uso de etiquetas, con la posibilidad de denunciar el contenido infractor y de que los propios usuarios autoetiqueten sus publicaciones por ejemplo, para avisar de ‘spoilers’ o de contenido para adultos. No todas las etiquetas tienen la misma finalidad, sino que se usarán según la acción que se busque conseguir: ocultar, reducir, alertar, asesorar y mostrar.

Los responsables de la red social consideran que la moderación de contenido a través del filtro de las etiquetas, “es la diferencia entre una red social realmente excelente y una realmente terrible”, como inciden en la página de GitHub dedicado a este tema.


- Te recomendamos -