MENLO PARK, CALIFORNIA – La inquietud por la abundancia de desinformación, información falsa y propaganda llegó a tal punto que muchos gobiernos proponen legislar sobre el tema. Pero las soluciones ofrecidas reflejan una comprensión inadecuada del problema y pueden tener consecuencias negativas no deseadas.
El pasado junio, el Parlamento alemán aprobó una ley que incluye una cláusula sobre multas hasta de 50 millones de euros (59 millones de dólares) a sitios populares como Facebook y YouTube si no eliminan contenidos “obviamente ilegales” (por ejemplo, incitación al odio y la violencia) en un plazo de 24 horas. Singapur anunció planes de introducir leyes similares el año entrante, para hacer frente a las “noticias falsas”.
En julio, el Congreso de los Estados Unidos aprobó una amplia serie de sanciones contra Rusia, en parte por el presunto patrocinio del Kremlin a campañas de desinformación que buscaron influir en las elecciones estadounidenses. En las últimas semanas, los contactos del Congreso con Facebook, Twitter y Google se intensificaron, a la par que aparecían pruebas claras de que agentes rusos compraron anuncios para la campaña.
Intervenciones legislativas como estas son esenciales para cortar el círculo vicioso de desinformación y polarización política que atenta contra el funcionamiento de la democracia. Pero aunque todas ellas apuntan a las plataformas digitales, suelen omitir al menos seis aspectos que diferencian la desinformación y la propaganda modernas de las del pasado.
En primer lugar, está la democratización de la creación y distribución de información. Como señaló hace poco Rand Waltzman (exintegrante de la Agencia de Proyectos de Investigación Avanzados de Defensa, Darpa), hoy cualquier persona o grupo puede comunicarse con muchos otros a través de Internet y así ejercer influencia. Esto trajo beneficios, pero también supone serios riesgos, el primero de los cuales es la pérdida de las normas de excelencia periodística que comúnmente se respetan en los medios tradicionales. La falta de esa intermediación institucional impide un discurso político basado en un conjunto de hechos universalmente aceptados.
La segunda característica de la era de la información digital (subproducto directo de la democratización) es la socialización de la información. En vez de recibir información directamente de aquellos intermediarios institucionales (que con sus defectos en la ejecución, adhieren en principio a una serie de normas editoriales), hoy la obtenemos de nuestras redes de contactos.
Esas redes pueden dar mayor visibilidad a un material por factores como la cantidad de clics recibidos o la cercanía entre amigos, en vez de la exactitud o la importancia. Además, el filtrado de la información a través de redes de amigos puede generar una cámara de eco formada por noticias que refuerzan los sesgos propios (aunque hay bastante incertidumbre respecto de la gravedad real de este problema). También implica que personas que normalmente consumirían noticias con moderación hoy reciben una andanada de polémicas y debates políticos, que incluye falsedades y posturas extremas, lo que aumenta el riesgo de desinformación o polarización en grandes sectores de la opinión pública.
El tercer elemento del panorama informativo actual es la atomización: el divorcio entre la noticia individual y su origen. Antes, los lectores podían distinguir fácilmente entre fuentes no creíbles (por ejemplo, los tabloides coloridos y sensacionalistas que se ven en la línea de cajas del supermercado) y fuentes creíbles (periódicos locales o nacionales establecidos). Ahora, en cambio, un artículo del New York Times compartido por un amigo o familiar puede verse igual que otro sacado del blog de un promotor de teorías conspirativas. Y como determinó un estudio reciente del American Press Institute, el remitente del enlace importa más a los lectores que la fuente original del artículo.
El cuarto elemento que debe informar la lucha contra la desinformación es el anonimato en la creación y distribución de información. Es común que las noticias en Internet no solo carezcan de indicación del medio originante, sino también de la firma del autor. Esto impide ver posibles conflictos de intereses, ofrece coartadas a actores estatales que hayan manipulado la publicación de información en el extranjero y crea terreno fértil para la actividad de bots.
Un estudio del 2015 halló que alrededor del 50% del tráfico web mundial procede de bots, hasta 50 millones de usuarios de Twitter y 137 millones de usuarios de Facebook exhiben comportamientos no humanos. Es verdad que hay bots “buenos”, por ejemplo, los que ofrecen atención al cliente o actualizaciones meteorológicas en tiempo real. Pero también hay muchísimos agentes nocivos que manipulan portales informativos para promover ideas extremas e información inexacta y hacerlas pasar por posturas populares comúnmente aceptadas.
En quinto lugar, hoy el contexto informativo se caracteriza por la personalización. A diferencia de los medios impresos, la radio o incluso la televisión, los creadores de contenido para Internet pueden hacer “pruebas A/B” (mostrar distintas versiones de una página y medir la respuesta) y crear mensajes individualizados en tiempo real.
Según una denuncia reciente, mediante “manipulación emocional automatizada, enjambres de bots, dark posts (anuncios solo visibles para el destinatario) en Facebook, pruebas A/B y redes de noticias falsas”, grupos como Cambridge Analytica pueden crear propaganda personalizada, adaptativa y en última instancia adictiva. El equipo de campaña de Donald Trump llegó a medir respuestas a entre 40 y 50.000 variantes de anuncios cada día, para luego adaptar y dirigir mensajes según los resultados.
El último elemento que diferencia al ecosistema informativo actual del pasado, como observó Nate Persily, profesor de derecho en Stanford, es la soberanía. A diferencia de la televisión, la prensa y la radio, plataformas sociales como Facebook o Twitter se autorregulan (y no muy bien). Pese a la polémica que se desató estas últimas semanas en Estados Unidos por la compra de anuncios de campaña, ninguna de estas plataformas quiso consultar a expertos importantes, y ambas prefirieron tratar de resolver los problemas en forma interna. Facebook solo aceptó a mediados de setiembre revelar información sobre los anuncios, y todavía se niega a ofrecer datos sobre otras formas de desinformación.
Esta falta de datos dificulta dar respuesta a la proliferación de desinformación y propaganda (por no hablar de la polarización política y el tribalismo que impulsan). Las responsabilidades apuntan sobre todo a Facebook: con una media de 1.320 millones de usuarios activos al día, esta empresa tiene una influencia enorme, pero no permite que investigadores externos accedan a la información que necesitan para comprender las preguntas más básicas que hay en la intersección de Internet con la política. ( Twitter sí comparte datos con investigadores, pero sigue siendo la excepción.)
Vivimos en el nuevo mundo de la desinformación. Mientras solo sus proveedores tengan los datos que necesitamos para comprenderlo, seguiremos elaborando respuestas inadecuadas. Y en la medida en que estén mal dirigidas, puede hasta ocurrir que terminen haciendo más mal que bien.
Kelly Born es directora de programas para la Iniciativa Madison en la Fundación William y Flora Hewlett. © Project Syndicate 1995–2017