El 2023 puede resultar un año de referencia porque la inteligencia artificial (IA) transforme la vida diaria. Así se expresó Brad Smith, presidente de Microsoft en una actividad sobre la IA que organizó el Vaticano la semana pasada. Pero la declaración de Smith no fue tanto una predicción como una llamada a la acción: el acto (al que asistieron líderes de la industria y representantes de las tres religiones abrahámicas) se inscribe en el objetivo de promover un enfoque ético y antropocéntrico para el desarrollo de la IA.
Es indudable que la IA plantea tremendos desafíos operativos, éticos y regulatorios. Y darles respuesta no será en absoluto sencillo. Aunque el desarrollo de la IA comenzó en la década de los cincuenta, aún no se definen el concepto general ni su impacto probable.
Algunas facetas del inmenso potencial de la IA se han conocido por significativos avances recientes en el campo, que van de los textos escalofriantemente “humanos” de la herramienta ChatGPT (creada por OpenAI) a aplicaciones que pueden acortar por años el proceso de descubrir nuevos fármacos. Pero todavía es imposible prever todos los modos en los que la IA transformará nuestras vidas como humanidad y, más ampliamente, la civilización.
Esta incertidumbre no es nueva. Incluso después de reconocer el potencial transformador de una tecnología, frecuentemente nos sorprende la forma de esa transformación. Por ejemplo, las redes sociales, aclamadas en un primer momento como innovación que fortalecería la democracia, son mucho más eficaces en desestabilizarla, al facilitar la difusión de desinformación. Podemos predecir, casi con certeza, que habrá quien explote la IA en modos malignos.
Ni siquiera entendemos bien cómo funciona la IA. Consideremos el denominado “problema de la caja negra”: con la mayoría de las herramientas basadas en IA, sabemos qué datos entran y qué datos salen, pero no sabemos lo que sucede en medio. Allí donde la IA se use para tomar decisiones (tal vez irrevocables), esta opacidad plantea un grave riesgo, agudizado por cuestiones como la transmisión de sesgos implícitos a través del machine learning (aprendizaje automático).
Otros dos riesgos son el abuso de datos personales y la destrucción de puestos de trabajo. Y según el exsecretario de Estado estadounidense Henry A. Kissinger, la tecnología de IA puede menoscabar la creatividad y la visión humanas, si la información termina sobreponiéndose a la sabiduría. Algunos temen que la IA provoque la extinción de la especie humana.
Vacío regulatorio
Habiendo tanto en juego, no podemos dejar el futuro de la tecnología en manos de los investigadores del área, y mucho menos en manos de los ejecutivos de las tecnológicas. Aunque una regulación asfixiante no sería la respuesta correcta, hay que llenar el vacío regulatorio que existe. Y para hacerlo, precisamos diálogo internacional a gran escala, semejante al que caracteriza hoy, después de muchos tumbos, la lucha contra el cambio climático.
De hecho, el cambio climático es una buena analogía para la IA. Es mucho más útil que la comparación habitual con las armas nucleares: aunque estas pueden afectar a las personas de forma indirecta, a través de acontecimientos geopolíticos, la tecnología nuclear no está presente en nuestro día a día personal y profesional; tampoco es compartida por todo el mundo. Por el contrario, el cambio climático (al igual que la IA) afecta a todos, y las medidas que hay que tomar pueden tener costos sociales a corto plazo.
La carrera por el dominio de la IA es un aspecto clave de la rivalidad entre Estados Unidos y China. Si uno de los dos países le impone límites a su propia industria de IA, se expone a que el otro tome la delantera. Por eso, en este campo —así como en la reducción de emisiones—, la cooperación es esencial. Los gobiernos, junto con otros actores públicos pertinentes, deben colaborar para diseñar e instalar directrices para la innovación del sector privado.
Ciertamente, este aserto fácil de proclamar resulta extraordinariamente difícil de ejecutar. Entre la teoría y la práctica hay un auténtico abismo. Por ahora, el limitado consenso en torno a la respuesta a la IA da lugar a un batiburrillo de regulaciones. Y los intentos de llegar a un enfoque compartido en los foros internacionales son obstaculizados por las luchas de poder entre los principales actores y la falta de un mecanismo acordado de cumplimiento.
Europa a la vanguardia
Sin embargo, hay noticias prometedoras. La Unión Europea está diseñando un instrumento ambicioso que ancle los principios que permitan establecer normas armonizadas para la IA. La Ley sobre IA, que debería terminarse este año, busca posibilitar “el desarrollo y la adopción” de la IA en la UE, garantizando al mismo tiempo que la tecnología “funcione para las personas y sea una fuerza para el bien en la sociedad”.
La propuesta legal incluye desde adaptar las normas sobre responsabilidad civil hasta revisar el marco de la UE para la seguridad de los productos; es paradigmática de un enfoque integral a la regulación de la IA.
Este liderazgo regulatorio por parte de la UE no nos debería sorprender: históricamente, el bloque ha estado a la vanguardia en el desarrollo de regulación en áreas críticas. Puede decirse que la legislación europea sobre protección de datos ha inspirado medidas similares en otros países, desde la Ley de Privacidad del Consumidor del estado de California (EE. UU.) hasta la Ley de Protección de Información Personal en China.
Pero la regulación mundial de la IA no podrá avanzar sin los Estados Unidos. Y a pesar del compromiso compartido entre EE. UU. y la UE respecto de desarrollar e implementar una “IA fiable”, la principal preocupación de Washington es cuestión de poder: la supremacía en el campo. Para conseguirla, no solo se ha marcado como objetivo fortalecer sus propias industrias avanzadas (cosa que incluye disminuir al máximo los impedimentos burocráticos, el denominado red tape), sino también obstaculizar los avances de China.
Rivalidad perjudicial
Según un informe publicado en el 2021 por la Comisión de Seguridad Nacional sobre Inteligencia Artificial, la táctica de Estados Unidos incluye “cuellos de botella que impongan costos estratégicos derivados significativos a los competidores y costos económicos mínimos a la industria estadounidense”.
Un ejemplo de esta estrategia son los controles a las exportaciones aprobados por Estados Unidos el pasado octubre, que apuntan a las industrias chinas de la computación avanzada y de los semiconductores. Por su parte, es improbable que China renuncie a su objetivo de alcanzar la autosuficiencia (y, eventualmente, supremacía) tecnológica.
Además de generar condiciones propicias para que se materialicen los riesgos de la IA, esta rivalidad tecnológica tiene obvias implicaciones geopolíticas. Por ejemplo, aunque la importancia desproporcionada de Taiwán en la industria global de los semiconductores le confiere una ventaja estratégica, también lo expone una vez más a ser el blanco de ataques.
Tuvieron que pasar más de tres décadas para que la conciencia del cambio climático cristalizara en acciones reales; aún no estamos haciendo lo suficiente. En vista del ritmo de la innovación tecnológica, no podemos darnos el lujo de seguir una senda similar en el caso de la IA.
Si no actuamos ahora para asegurar que el desarrollo de esta tecnología se rija por principios antropocéntricos, llegaremos a lamentar nuestra inacción. Como en el caso del cambio climático, será mucho antes de lo que pensamos.
Ana Palacio fue ministra de Asuntos Exteriores de España y vicepresidenta sénior y consejera jurídica general del Grupo Banco Mundial; actualmente es profesora visitante en la Universidad de Georgetown.
© Project Syndicate 1995–2023