La misma semana en que la Unión Europea aprobó la primera ley sobre inteligencia artificial (IA) en el New England Journal of Medicine se publicó un artículo de opinión que compara esas regulaciones con las discusiones de la década de los setenta sobre bioética en investigación.
Expertos proponen que más que definir si se requieren controles sobre la IA, la pregunta clave sería identificar cuáles criterios deben ser empleados para regular estas tecnologías y qué se debería fomentar y fortalecer.
Es ahí donde los principios universales de protección al ser humano, como los enumerados en el Informe Belmont, cobran relevancia, al establecer parámetros objetivables, que velan además por el bienestar individual y colectivo.
Estas bases marcaron la diferencia, en su momento, para el control de los estudios que justificaban la generación del conocimiento a cualquier precio, independientemente de las graves secuelas físicas y emocionales a las que se vieron expuestos, por decisión de terceros, algunos grupos desfavorecidos.
El infame Tuskegee Study of Untreated Syphilis (conocido en español como el experimento Tuskegee), que privó a cientos de personas de un tratamiento existente y disponible para el control de la sífilis, con el pretexto de conocer su evolución natural, es el ejemplo clásico empleado en todo curso de bioética sobre el irrespeto a estos principios.
En la cuarta revolución industrial, las ventajas y, sobre todo, las necesidades de la IA son múltiples para la maximización de los recursos limitados y de la equidad en su distribución, aplicaciones diversas en medicina, uso eficiente de la energía, reservas naturales y agricultura, manejo de datos medidos en zettabytes, reducción de los errores humanos, guía en la toma de decisiones, entre numerosos escenarios posibles.
Pues bien, en el campo de la IA, más que diferencias notorias con la investigación en seres humanos, existen también amenazas reales que pujan en la dirección más peligrosa. Por ejemplo, se sabe del marcado interés comercial que suele identificar a combatientes de la regulación (a veces infiltrados en los Congresos), de la ausencia de consentimiento explícito y amigable para informar sobre los riesgos asociados o cuando los sistemas están siendo utilizados, así como de las escasas precauciones para la protección de la información (como los datos demográficos en su definición más amplia). Tampoco existen en nuestro medio entes reguladores, estatales o profesionales, que velen por su correcto desarrollo.
En su libro Atlas de IA: poder, política y costes planetarios, Kate Crawford expone en detalle los nefastos efectos ecológicos asociados con el uso del agua o la extracción de minerales para las baterías.
Habla sobre la explotación sistemática, monitorizada y acosadora sobre los trabajadores, sufrida tanto por quienes clasifican la información, o bien la brindaron durante las fases de entrenamiento de los sistemas, como por aquellos expuestos a los modelos informáticos utilizados por las empresas, lo que ella enmarca dentro del concepto de panóptica como medio de control omnipresente.
También hace mención de la arbitrariedad patente en las clasificaciones empleadas, generadoras y perpetuadoras de disparidades e injusticias sociales, los dudosos supuestos de que los estados emocionales son evaluables a través de dispositivos informáticos y las repercusiones con respecto a la empatía por su empleo desde etapas tempranas del desarrollo.
Finalmente, la autora menciona algunos de los abusos en los que incurren los gobiernos, producto precisamente del fallo en la interpretación de la información, además del manejo maquiavélico de administraciones autoritarias. Todo, en resumen, se presta para un uso desmedido del poder por quien controle estos recursos. Desgraciadamente, muchos de estos aspectos son desconocidos por gran parte de la población, a pesar de sufrir sus consecuencias.
En la ley europea se establecieron precedentes básicos para tres áreas fundamentales: salud, seguridad y democracia. Se limitó el uso de cámaras biométricas con identificadores faciales a situaciones específicas y se hizo una prohibición explícita de los mecanismos predictivos para saber quién, supuestamente, tiene una mayor probabilidad de cometer un delito.
Tampoco estará presente el uso de estas tecnologías para el reconocimiento de las emociones o conductas humanas. En lo que respecta a la esfera generativa, se tomaron medidas para no violar los derechos de autor. Además, siempre que estos algoritmos estén siendo usados, se debe informar al usuario del servicio expuesto involuntariamente.
En Costa Rica, la Ley Reguladora de la Investigación Biomédica se gestó de una manera reactiva, no proactiva, a raíz de un recurso de amparo que limitó los estudios clínicos hasta que no existieran los controles necesarios. Lo anterior implicó un estancamiento de años en el campo, rezago incluso hasta hoy. La legislación tiene la responsabilidad de llevar el pulso a los tiempos y los cambios sociales. Lo contrario implica el riesgo de oscurantismo o del abuso.
Debido a las convulsas circunstancias sociales, educativas y políticas, es indispensable que se planifique un adecuado manejo de big data. De otra forma sería imposible procesar, enlazar y potenciar toda esta información.
Procede definir, entonces, qué se desincentiva, en qué se educa y qué se fomenta. Los europeos están claros en que la iniciativa es un modelo para muchos otros países. La parte que nos toca a nosotros es cómo conciliar estos principios con nuestras propias necesidades.
ricardo.millangonzalez@ucr.ac.cr
Ricardo Millán González es médico especialista en psiquiatría y profesor asociado en la Universidad de Costa Rica.