En diciembre del 2018, Amnistía Internacional y la empresa especializada en software Element AI revelaron los resultados del mayor estudio realizado en línea sobre la violencia ejercida contra las mujeres.
El estudio, en sí una novedad, por hacerse mediante el mecanismo de colaboración abierta (crowdsourcing) contó con la ayuda de 6.500 voluntarios de 150 países quienes se unieron para procesar datos de larga escala sobre el abuso en línea y, más concretamente, en Twitter. Denominado como Troll Patrol, los voluntarios aportaron 2.500 horas de análisis; el equivalente al trabajo que efectuaría un investigador de tiempo completo por un año y medio.
Bajo una metodología supervisada, los voluntarios analizaron 228.000 tuits enviados a 778 políticas y periodistas en el Reino Unido y Estados Unidos; las últimas provenientes de medios tan diversos como The Daily Mail, The New York Times, The Guardian, The Sun, gal-dem, PinkNews y Breitbart. El periodo estudiado fue el 2017.
Un 7,1 % de los tuits resultaron problemáticos o abusivos, número que extrapolado al total recibido por las 778 mujeres en ese año llega a 1,1 millones de tuits recibidos de esa naturaleza, lo cual desnuda un alarmante nivel de violencia: un tuit cada 30 segundos en promedio.
El estudio reveló, además, un fuerte componente racial, pues las mujeres negras eran en un 84 % más proclives a recibir ese tipo de tuits que las mujeres blancas. En la misma línea, en la muestra, que unía a las mujeres negras con las asiáticas, latinas y de raza mixta, la relación era superior en un 34 % con relación a la población blanca.
Otra conclusión es que no hubo grandes diferencias entre la línea política y las mujeres dedicadas al periodismo, tampoco en las preferencias partidarias o ideológicas, los niveles de odio recibido eran similares independientemente de esas variables.
Lo positivo del estudio, y es precisamente el objetivo de Amnistía Internacional y de Element AI, es brindarle a Twitter valiosísima información para que eleve sus niveles de transparencia y mejore sus sistemas de algoritmos, que reditúen en el castigo mediante la eliminación de este tipo de expresiones, que no hacen sino instigar al odio y la violencia contra las mujeres. ¡Cuán interesante sería hacer un estudio similar en Costa Rica!
La autora es politóloga.