La huella de carbono generada por la inteligencia artificial es real. Sabemos que capacitar modelos grandes de inteligencia artificial emiten más de 626.000 toneladas de dióxido de carbono, es decir, cinco veces más de lo que un automóvil estadounidense arroja en su ciclo de vida, incluidos la etapa de fabricación y el combustible consumido.
Costo de asimilar datos. Hace pocas semanas, la Universidad de Massachusetts Amherst publicó una investigación que ilustra el consumo energético en el proceso de capacitación del modelo para el procesamiento del lenguaje natural.
Este es el mecanismo para enseñar el lenguaje humano a las máquinas: los resultados alcanzados conllevan procesos computacionalmente costosos y demandan mucha energía. ¿Por qué?
Parte de la respuesta se encuentra en la tentación de utilizar cada vez más datos y aumentar la capacidad de procesamiento de cómputo para obtener algún tipo de resultado.
Miles de dólares son invertidos y miles de toneladas de dióxido de carbono son generadas en el proceso de asimilación de datos en áreas como las redes neuronales profundas, redes neuronales profundas convulsionales y redes de creencia profunda. No todos los avances obtenidos justifican los recursos energéticos utilizados.
Los autores de la investigación concluyeron que “no es responsable lo que se está haciendo. Si se requiere toda esta huella de carbono y dinero para entrenar el modelo, lo que cabría esperar como resultado es un avance innovador que realmente resuelva un problema”. Pero reconocen que, en muchos casos, no es así.
Con estos pequeños avances, lo que en realidad estamos causando es un gran daño ambiental.
Imitar el cerebro humano. Una y otra vez, la breve historia del Homo sapiens ha demostrado cómo nuestro cerebro necesita de muy poca energía para alcanzar y efectuar cosas asombrosas y deslumbrantes.
Pero ¿cómo lograr que una máquina trabaje de la misma forma, es decir, que sobresalga por su inventiva y, al mismo tiempo, por su sobriedad en el consumo energético?
Aciertos y progresos ha habido en esa búsqueda compleja y deseada por el ser humano. En 1950, el matemático Alan Turing se hizo una pregunta: ¿Pueden las máquinas pensar? A lo que cabría agregar otra más: ¿Qué daño ambiental estamos dispuestos a asumir en ese anhelo?
Los avances tecnológicos nos sitúan ante el aprendizaje profundo (deep learning), uno de los caballos de Troya que caracterizan la crónica digital de nuestros días.
Pero, además de sus bondades, es una criatura que nos plantea varias disyuntivas: una de ellas es su huella de carbono, problema del que pocos quieren hablar porque es como tener la mosca detrás de la oreja.
El puñetazo sobre la mesa está claro: entrenar la inteligencia artificial implica un intensivo proceso energético.
Es algo que ignoramos cuando hablamos, por ejemplo, con nuestro teléfono o altavoz inteligentes. La oralidad con nuestros dispositivos electrónicos oculta que los algoritmos que alimentan el software dejan una huella de carbono que la industria digital quiere soslayar. En todo momento, los optimistas de cada avance olvidan el dilema de la paradoja de Jevons.
A ciegas. La inteligencia artificial nos enseña el camino por conquistar una superinteligencia en un contexto mundial de gran polarización y oscuridad.
Los repetidos llamados para crear un marco ético para su desarrollo se pierden al no existir claridad sobre qué queremos alcanzar como sociedad civil con ella o los distintos modelos de aprendizaje profundo.
Lo hemos delegado, simplemente, a las grandes empresas tecnológicas, cuyos avances nos deslumbran mientras desconocemos, profundamente, todo el CO2 del cual también somos responsables.
pablo.gamezcersosimo@gmail.com
El autor es periodista.