Regular una tecnología con amplio potencial de ayudar y también de dañar a los seres humanos no es sencillo, pero si además esta tecnología afecta a los sectores de la economía y se desarrolla tan rápido que ni los expertos son capaces de mantenerse al día, tenemos un problema muy retador.
Tal vez por eso los gobiernos han tardado tanto en regular la inteligencia artificial (IA). Si se regula muy despacio, es posible sufrir un evento muy dañino, y si se regula muy rápido, posiblemente desincentive la innovación o deje a un lado puntos importantes que se desconocían de la tecnología (la UE publicó un proyecto de ley, en el 2021, justo antes de que apareciera la IA generativa, y tuvieron que reescribir el proyecto que todavía no ha sido aprobado).
Esta semana, hubo dos noticias de sumo interés sobre el tema. El presidente Biden firmó el decreto ejecutivo para el Desarrollo y uso seguro y confiable de la inteligencia artificial y el Reino Unido (RU) celebró la primera cumbre sobre seguridad de la IA.
El decreto de Biden, que según el New York Times (NYT) se compone de más de 100 páginas y según la ABC, de más de 60 (en cualquier caso, es extenso y detallado), contiene indicaciones y restricciones para agencias gubernamentales, el sector privado, la academia y la sociedad civil.
Las empresas desarrolladoras de los grandes modelos deberán notificar al gobierno y compartir los resultados de las pruebas de seguridad realizadas antes de lanzar un producto al mercado.
Para estos deberes de divulgación se establece un umbral de tamaño y complejidad del software, que incluye a todas las grandes empresas actuales, como Google y OpenAI.
Adicionalmente, quienes alquilan capacidad de cómputo en la nube (Microsoft, Google, Amazon, etc.) deberán reportar sus clientes al gobierno. También, instruye al Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) llevar a cabo pruebas estandarizadas para medir el desempeño y seguridad de los modelos de IA.
A mí, personalmente, nunca deja de sorprenderme la confianza que la gente deposita en pruebas de software, ya que está claro que solo sirven para demostrar la presencia de errores, y nunca su ausencia.
El decreto exige a las agencias federales tomar medidas para prevenir que los algoritmos de IA sean utilizados para discriminar en diferentes ámbitos del quehacer gubernamental. Y, al Departamento de Comercio, desarrollar un sistema de marcas de agua para todo contenido generado por la IA. Esto último, presumo, para detener la difusión de desinformación.
Exigir que los contenidos elaborados por la IA estén claramente marcados es buena idea, pero no hay indicaciones de cómo lograr su acatamiento, ya que todos los gobiernos fallaron, en especial el de EE. UU., en regular las redes sociales, principal fuente de desinformación del planeta.
Mientras sea posible mantener cuentas anónimas, no veo cómo castigar a quienes difunden contenido falso generado sin las marcas obligatorias.
Según el NYT, las grandes empresas de IA están aparentemente aliviadas porque no fueron obligadas a obtener una licencia para entrenar los grandes modelos, ni a retirar los productos ya en el mercado, ni forzadas a divulgar información acerca del tamaño de los modelos y los métodos utilizados para entrenarlos.
La primera cumbre de seguridad de IA (AI Safety Summit 2023) se llevó a cabo, apropiadamente, en Bletchley Park (donde Alan Turing y un grupo de mujeres descifraron el método de encriptación de los nazis durante la Segunda Guerra Mundial).
Según la BBC, contó con la participación de más de 100 funcionarios y ejecutivos de 28 países, incluidos el viceministro de Ciencia y Tecnología de China, la vicepresidenta de EE. UU., el primer ministro Rishi Sunak y el rey Carlos III.
Sunak declaró a la BBC que los peligros de la IA son enormes como para dejárselos a los gigantes tecnológicos, y que estos no pueden “corregir su propia tarea”.
Entre los potenciales peligros que diversas naciones están empezando a tratar de mitigar, figuran la privacidad, la ciberseguridad, la desinformación y la pérdida de puestos de trabajo.
Sunak indicó también que la IA es una tecnología transformativa, con enormes beneficios potenciales para el sistema de salud y la educación. Pero agregó que quiere que el Reino Unido y otros países sean capaces de “realizar las pruebas necesarias para mantener a los ciudadanos seguros en sus casas”.
Como si haciendo pruebas de software fuera posible demostrar la ausencia de errores, porque no hay duda de que un programa informático inseguro es un software malo, y como el software ni se gasta ni se rompe, significa que siempre (desde que se vendió) estuvo malo.
También mencionó al editor de tecnología de la BBC que muchas empresas de IA ya han facilitado a los británicos acceso a los modelos antes de ponerlos en el mercado.
Al parecer, invertir en la mitigación del riesgo de la IA es sustancial, el RU ha invertido £100 millones en lo que será su Instituto de Seguridad. Cabe destacar que están atrayendo los mejores talentos a laborar en él y el decreto ejecutivo de Biden ofrece facilitar la entrada de talento extranjero, medida criticada por algunos.
La Declaración de Bletchley, firmada por 28 países y la Unión Europea, pide colaboración global con la mitigación de los riesgos y para mantener la IA “segura de tal manera que sea humano-céntrica, confiable y responsable”.
No tengo la menor duda de que tanto la cumbre como el decreto son valiosos pasos en la dirección correcta. No creo, sin embargo, que en Costa Rica debamos echarnos para atrás y esperar a ver cómo les va a los otros.
Creo que es una tecnología con mucho potencial como para no intentar explotarla lo antes posible, y con suficientes riesgos como para no dedicar a nuestras mejores mentes a aplacarlos.
En particular, se me ocurre un área de investigación que podría rendir frutos a escala global. Utilizar la IA para producir especificaciones formales de los software que a su vez sea posible demostrar, matemáticamente, que son correctos o incorrectos. Si resulta, la humanidad desistiría para siempre de basarse en pruebas para definir la calidad del software.
Roberto Sasso es ingeniero, presidente del Club de Investigación Tecnológica y organizador del TEDxPuraVida.