San Francisco, Estados Unidos. Facebook aseguró este martes que otorgará a los usuarios el derecho de apelar las decisiones de la red social de eliminar fotos, videos o publicaciones escritas que violen los estándares de la comunidad.
Los planes para lanzar un proceso de apelaciones durane los próximos meses en todo el mundo se produjeron cuando Facebook brindó por primera vez una mirada a los estándares internos utilizados para decidir qué publicaciones van demasiado lejos en términos de discurso de odio o amenazas.
"Esto es parte de un esfuerzo por ser más claros acerca de dónde marcamos la línea en los contenidos", dijo a AFP el gerente de políticas públicas de Facebook para contenidos, Siobhan Cummiskey.
"Y por primera vez, les damos el derecho de apelar nuestras decisiones sobre publicaciones individuales para que puedan solicitar una segunda opinión cuando crean que hemos cometido un error", sostuvo.
La decisión de involucrar más a los usuarios de Facebook en los estándares para eliminar contenidos surge en momentos que la red social busca evitar críticas en un abanico de frentes, incluyendo el manejo de datos de las personas, la difusión de "noticias falsas" y polémica sobre si la política ha afectado las decisiones de eliminación de contenidos.
La empresa con sede en California ya permite a las personas apelar la eliminación de perfiles o páginas. El proceso de apelación que se confeccionará durante el próximo año extenderá ese derecho a las publicaciones individuales, según Cummiskey.
El nuevo proceso de apelación se centrará primero en la eliminación de publicaciones por nudismo, sexo, discurso de odio o violencia gráfica.
Las notificaciones enviadas con respecto a las publicaciones eliminadas incluirán botones en los que se puede hacer clic para activar las apelaciones, que serán manejadas por un miembro del equipo de Facebook.
Si bien se usa software para ayudar a encontrar contenido que viola los estándares en la red social, serán personas las que manejarán las apelaciones y el objetivo es hacer las revisiones en el día.
"Creemos que dar a las personas una voz en el proceso es otro componente esencial de la construcción de un sistema justo", dijo la vicepresidenta de gestión global de productos, Monika Bickert.
Unos 7.500 supervisores de contenido forman parte de un equipo de 15.000 personas que trabajan en Facebook en el área de seguridad, según Cummiskey, quien acotó que se espera que el equipo alcance los 20.000 empleados para finales de este año.