Facebook está simplificando la configuración de privacidad del grupo y agregando herramientas de administración por seguridad

Los grupos cerrados y secretos se renombran a grupos privados visibles y ocultos

Fuente: The Verge. Dami Lee @dami_lee. Facebook

Facebook anunció hoy que está actualizando la configuración de privacidad de su grupo y trabajando para moderar mejor el contenido inadecuado que infringe las reglas de la plataforma.

La plataforma está cambiando el nombre de sus confusas configuraciones de grupos públicos, cerrados y secretos a las configuraciones públicas y privadas un poco más sencillas, con la opción de hacer que los grupos privados sean visibles u ocultos para los no miembros.

El cambio es parte de un esfuerzo continuo para mejorar la seguridad del grupo, a través de características como dar a los administradores más herramientas de moderación y a los miembros la opción de ver el historial del grupo y obtener una vista previa de su contenido antes de aceptar o rechazar una invitación.

La nueva configuración del grupo también es parte de la Iniciativa de Comunidades Seguras que la compañía comenzó hace dos años, en un esfuerzo por monitorear y detectar contenido inadecuado en los grupos de Facebook.

El anuncio se produce a raíz de los hallazgos recientes de que grupos secretos de Facebook han estado actuando como lugares de reunión para actividades racistas y ofensivas, un ejemplo de principios del mes pasado, cuando ProPublica encontró a un grupo de agentes de la Patrulla Fronteriza bromeando sobre las muertes de migrantes.

Es probable que el cambio de nombre en sí no detenga el mal comportamiento, ya que los grupos secretos seguirán existiendo. Los grupos cerrados, que solo permiten a los miembros actuales ver el contenido del grupo y ver quién más está en el grupo, ahora se etiquetarán como grupos privados pero visibles. Los grupos secretos, que están ocultos en la búsqueda, pero que aún requieren una invitación para unirse, se cambiarán a un grupo privado y oculto.

Facebook dice que usa inteligencia artificial y aprendizaje automático para “detectar de manera proactiva el mal contenido antes de que alguien lo informe, y a veces incluso antes de que las personas lo vean”. El contenido marcado luego es revisado por humanos para ver si viola los estándares de la comunidad de Facebook, pero claramente, el sistema es defectuoso si los grupos ofensivos todavía están volando por debajo del radar.

En abril, Facebook actualizó sus políticas para mantener a los administradores con estándares más altos, comprometiéndose a penalizar al grupo en general si los moderadores aprueban las publicaciones que rompen las reglas de la plataforma.

Para asegurarse de que los administradores serán responsables del comportamiento de sus grupos, tendrán acceso a una herramienta llamada Calidad de grupo, que les brinda una visión general del contenido que viola los Estándares de la comunidad. Los administradores también tendrán una opción para compartir qué reglas se rompieron cuando rechazan las publicaciones pendientes, eliminan comentarios o silencian a los miembros.

Comentarios