Puede que los últimos meses se recuerden como el momento en que la inteligencia artificial (IA) predictiva se generalizó. Aunque los algoritmos de predicción llevan décadas utilizándose, el lanzamiento de aplicaciones como ChatGPT3 de OpenAI —y su rápida integración con el motor de búsqueda Bing de Microsoft— abrieron las compuertas en lo que respecta a la IA fácil de usar.
A las pocas semanas de su lanzamiento, ChatGPT3 atrajo a 100 millones de usuarios mensuales, muchos de los cuales sin duda ya experimentaron su lado oscuro: desde insultos y amenazas hasta desinformación y una demostrada capacidad para escribir código malicioso.
Los chatbots que están generando titulares son solo la punta del iceberg. Las IA para crear texto, voz, arte y video están progresando rápidamente, con implicaciones de gran alcance para la gobernanza, el comercio y la vida cívica.
No es de extrañar que el capital esté inundando el sector, con gobiernos y empresas por igual invirtiendo en startups para desarrollar las últimas herramientas de aprendizaje automático. Estas nuevas aplicaciones combinarán datos históricos con aprendizaje automático, procesamiento del lenguaje natural y aprendizaje profundo para determinar la probabilidad de sucesos futuros.
Es crucial que la adopción del nuevo procesamiento del lenguaje natural y de las IA generativas no se limite a los países ricos y a las empresas como Google, Meta y Microsoft que encabezaron su creación. Estas tecnologías ya se están extendiendo por entornos de renta baja y media, donde el análisis predictivo para todo tipo de cuestiones, desde la reducción de la desigualdad urbana hasta la seguridad alimentaria, es muy prometedor para gobiernos, empresas y ONG con escasos recursos que buscan mejorar la eficiencia y obtener beneficios sociales y económicos.
IA y sus efectos no deseados
El problema, sin embargo, es que no se presta suficiente atención a las posibles externalidades negativas y los efectos no deseados de estas tecnologías. El riesgo más evidente es que unas herramientas de predicción de una potencia sin precedentes refuercen la capacidad de vigilancia de los regímenes autoritarios.
Un ejemplo muy citado es el “sistema de crédito social” de China, que utiliza historiales de crédito, condenas penales, comportamiento en internet y otros datos para asignar una puntuación a cada persona del país. Esas puntuaciones determinan si una persona obtendrá el préstamo, si irá a una buena escuela, si viajará en tren o en avión, etcétera. Aunque el sistema chino se presenta como una herramienta para mejorar la transparencia, también es un instrumento de control social.
Sin embargo, incluso cuando las utilizan gobiernos democráticos aparentemente bienintencionados, empresas centradas en el impacto social y organizaciones sin ánimo de lucro progresistas, las herramientas predictivas pueden generar resultados subóptimos. Los fallos de diseño en los algoritmos subyacentes y los conjuntos de datos sesgados tienen el potencial de ocasionar violaciones de la privacidad y discriminación basada en la identidad.
Esto ya se ha convertido en un problema flagrante en la justicia penal, donde el análisis predictivo perpetúa de forma rutinaria las disparidades raciales y socioeconómicas. Por ejemplo, un sistema de IA creado para ayudar a los jueces estadounidenses a evaluar la probabilidad de reincidencia determinó erróneamente que los acusados negros corren un riesgo mucho mayor de reincidir que los blancos.
También crece la preocupación sobre cómo la IA agravará las desigualdades en el lugar de trabajo. Hasta ahora, los algoritmos predictivos han estado aumentando la eficiencia y las ganancias de manera que benefician a los gerentes y accionistas a expensas de los trabajadores de base (especialmente en la economía gig).
Equilibrio es la clave
En todos estos ejemplos, los sistemas de IA están mostrando un espejo a la sociedad, reflejan y magnifican nuestros prejuicios y desigualdades. Como señala la investigadora tecnológica Nanjira Sambuli, la digitalización tiende a exacerbar, en lugar de mejorar, los problemas políticos, sociales y económicos preexistentes.
El entusiasmo por adoptar herramientas predictivas debe equilibrarse con una consideración informada y ética de sus efectos deseados y no deseados. Cuando los efectos de los potentes algoritmos son controvertidos o desconocidos, el principio de precaución desaconseja su uso.
No debemos permitir que la IA se convierta en otro ámbito en el que los responsables de la toma de decisiones pidan perdón en lugar de permiso. Por eso, el Alto Comisionado de las Naciones Unidas para los Derechos Humanos y otros organismos pidieron moratorias en la adopción de sistemas de IA hasta que se actualicen los marcos éticos y de derechos humanos para tener en cuenta sus daños potenciales.
La elaboración de los marcos adecuados requerirá forjar un consenso sobre los principios básicos que deben informar el diseño y el uso de las herramientas de IA predictiva. Afortunadamente, la carrera por la IA dio lugar a una avalancha paralela de investigaciones, iniciativas, institutos y redes sobre ética. Y aunque la sociedad civil ha tomado la iniciativa, entidades intergubernamentales como la OCDE y la Unesco también se han implicado.
La ONU lleva trabajando en la creación de normas universales para una IA ética desde el 2021. Además, la Unión Europea propuso una ley de IA —el primer esfuerzo de este tipo por parte de un regulador importante— que bloquearía ciertos usos (como los que se asemejan al sistema de crédito social de China) y sometería otras aplicaciones de alto riesgo a requisitos y supervisión específicos.
Necesidades del Sur Global
Hasta la fecha, este debate se ha concentrado mayoritariamente en Norteamérica y Europa Occidental. Pero los países de renta baja y media tienen sus propias necesidades básicas, preocupaciones y desigualdades sociales que considerar. Existen numerosas investigaciones que demuestran que las tecnologías desarrolladas por y para los mercados de las economías avanzadas son a menudo inadecuadas para las economías menos desarrolladas.
Si las nuevas herramientas de IA se importan sin más y se generaliza su uso antes de que existan las estructuras de gobernanza necesarias, podrían fácilmente hacer más mal que bien. Todas estas cuestiones deben tenerse en cuenta si queremos concebir principios verdaderamente universales para la gobernanza de la IA.
Reconociendo estas lagunas, el Instituto Igarapé y New America lanzaron recientemente un nuevo Grupo de Trabajo Global sobre Análisis Predictivo para la Seguridad y el Desarrollo. El grupo de trabajo reunirá a defensores de los derechos digitales, socios del sector público, empresarios tecnológicos y científicos sociales de América, África, Asia y Europa, con el objetivo de definir los primeros principios para el uso de tecnologías predictivas en la seguridad pública y el desarrollo sostenible en el Sur Global.
Formular estos principios y normas es solo el primer paso. El mayor reto será conseguir la colaboración y coordinación internacional, nacional y subnacional necesarias para aplicarlos en la ley y en la práctica. En la carrera mundial por desarrollar nuevas herramientas de IA predictiva, los marcos de prevención de daños son esenciales para garantizar un futuro seguro, próspero, sostenible y centrado en el ser humano.
Robert Muggah: cofundador del Instituto Igarapé y del Grupo SecDev, es miembro del Global Future Council on Cities of Tomorrow del Foro Económico Mundial y asesor del Global Risks Report.
Gabriella Seiler: consultora del Instituto Igarapé y socia y directora de Kunumi.
Gordon LaForge: analista político de New America y profesor de la Thunderbird School of Global Management de la Universidad Estatal de Arizona.