Facebook Community Standards from Facebook on Vimeo.
Facebook, la principal red social del planeta con más de 1.300 millones de usuarios, ayer actualizó sus directrices comunitarias para brindar "más claridad y detalle" de qué contenido permite o prohibe publicar.
En un mensaje oficial en su blog, la red social recalcó que sus políticas siguen intactas pero a raíz de comentarios de los usuarios han decidido ser más claros y brindar ejemplos. Facebook depende de las denuncias de sus bases para actuar ante contenido prohibido u ofensivo y, según los nuevos parámetros anunciados ayer, este sistema de alertas seguirá vigente.
"Si las personas creen que hay páginas, perfiles o piezas de contenido indidual violentan nuestra Estándares Comunitarios, pueden reportarlas a nosotros dando clic en el enlace Reporte arriba en la esquina derecha", señala el texto. Esa opción de "Reporte" aparece en páginas en español bajo el título "Informa sobre un problema".
De esta forma, la actualización de políticas cubre temas como desnudos, mensajes de odio, autolesionarse, acoso o amenazas a otros (bullying), violenciay explotación sexual y contenido gráfico. En su definición de mensajes de odio, por ejemplo, la red social afirma que serán considerados así aquellas emisiones que ataquen directamente a otras personas por su etnia, color de piel, nacionalidad, orientación sexual, religiosa, su género o identidad sexual, por limitaciones físicas o por enfermedades.
En su anuncio, los voceros Monika Bickert y Chris Sonderby, admiten que preservar una gran política global para cientos de millones de personas sobre mensajes que inciten al odio sigue siendo "particularmente desafiante y sabemos que nuestras directrices no atenderán perfectamente cada tipo de contenido; especialmente donde tenemos contexto limitado; pero vamos a evaluar seriamente conetnido reportado y haremos nuestro mejor esfuerzo por hacerlo bien".
Desnudos. En el tema de la desnudez, aunque siempre ha prohibido la pornografía y la gran mayoría de desnudos, ahora la red social aplica matices. Sostiene que retirará imágenes de personas mostrando sus genitales o aquellas donde sean mostradas como foco central de la imagen traseros expuestos.
También limitarán algunas imágenes de madres dando de mamar a sus hijos donde aparezcan pezones; aunque también aclara que sí permitirá fotografías de mujeres participando activamente de la lactancia o que muestren pechos con cicatrices luego de una masectomía. Del mismo modo, admitirán imágenes de pinturas, esculturas y otras manifestaciones de arte donde hayan figuras desnudas.
Con los cambios, la red social desfila sobre una delicada línea que divide entre una legítima prohibición de contenido violento hacia otros y una supresión de libertad de compartir información de una audiencia masiva en todo el mundo con grandes diferencias en pautas culturales, edad, valores y leyes. Hasta la fecha, nunca ha sido consistente en este tipo de directrices y sus decisiones de permitir o parar cierto contenido algunas veces se han considerado opacas.
Por ejemplo, en setiembre del 2014, Facebook tuvo inconsistencias en si permitía o no videos de decapitaciones antes de finalmente decidirse a prohibirlas. En diciembre bloqueó una página en Rusia que llamaba a manifestaciones con el Gobierno pero luego sí permitió a otros sitios similares dentro de esa red social operar sin problema.
En octubre, volvió a equivocarse (y también disculparse) por suspender las cuentas de usuarios transgénero que no utilizaban sus nombres legales para identificarse sino sus nombres artísticos. El caso condujo a una excepción de políticas pero aún así Facebook sigue desconectando cuentas de usuarios si detecta que usan nombres falsos.
Tambén el tema de la publicación de imágenes de lactancia ya había causado muchas críticas a la red social en el 2008 y de nuevo en el 2012.
Terrorismo. En momentos cuando organizaciones terroristas como el Estado Islámico están explotando el uso de redes sociales, Facebook también aclaró con más detalle su política sobre organizaciones peligrosas: prohibirá grupos que participen en actividades terroristas, actividad criminal o promuevan el odio hacia otros basado en sus cláusulas antes mencionadas sobre mensajes de odio.
Sin embargo, la compañía también aclara que si bien la blasfemia no constituye una violación a las reglas que acaba de actualizar, aún así evaluará cualquier reporte de contenido y lo restringirá en el país donde se emitió si se concluye que viola una ley local de esa zona.