Hace un par de décadas, el ingeniero eléctrico Geovanni Martínez Castillo comenzó un proyecto de visión por computador, una disciplina de estudio de la robótica que utiliza algoritmos matemáticos para decodificar imágenes reales y reconocer en ellas formas, figuras y patrones que luego pueden usarse en diferentes aplicaciones. Su investigación la enfocó principalmente hacia la robótica de exploración espacial.
Ese proyecto lo hizo en un laboratorio de la Universidad de Costa Rica (UCR) que él mismo fundó: el Laboratorio de Investigación en Procesamiento Digital de Imágenes y Visión por Computador (IPCV-LAB). Hoy los años de trabajo lo tienen poniéndolo a prueba en el Laboratorio de Propulsión a Chorro de la NASA (NASA-JPL Robotics), en Pasadena, California, donde permanecerá 3,5 meses, en el lugar donde se han puesto a prueba robots como Perseverance, Spirit y Opportunity, que hoy recorren la superficie de Marte.
“Este proyecto se desarrolló en un pequeño laboratorio, pero cuando se trabaja, las cosas pueden tomar rumbos muy amplios”, destacó en conversación con La Nación días antes de emprender viaje a tierras estadounidenses.
Los robots en la exploración espacial
¿En qué consiste el proyecto? Para entender lo novedoso de la tecnología propuesta por Martínez, es necesario conocer cómo funcionan los robots de exploración espacial, los cuales han tenido mucho éxito en las últimas décadas porque se mueven de forma autónoma.
“La comunicación entre la Tierra y Marte no se puede dar en tiempo real porque hay una gran distancia, por lo tanto, las señales tardan su tiempo en llegar a Marte y regresar a la Tierra; entonces se crean robots autónomos. De tal modo que, en la mañana, la gente del JPL de la NASA le envía instrucciones al robot para que siga cierta trayectoria hacia un objetivo científico para que haga algún tipo de experimento científico con una roca u otro punto de interés, y luego mande los resultados durante la noche”, explicó.
De esta forma, el robot recibe una trayectoria para llegar al objetivo científico. Él arranca y debe mantenerse en esa trayectoria, pues si se desvía podría “invadir” algún sitio del cual no pudiera salir sin dañar su propia estructura.
“Es fundamental, especialmente para robots tan caros, que se mantengan en esa trayectoria para llegar al objetivo con el que debe hacer experimentos”, destacó Martínez.
Y justo aquí viene su participación. Para que el robot autónomo pueda mantenerse sobre esa trayectoria predefinida, debe conocer su posición y su orientación. Si al avanzar se desvía de la trayectoria, pero conoce su posición y orientación, puede corregir el rumbo.
“En los robots, no conocer estas variables es como si nosotros cerráramos los ojos e intentáramos ir del escritorio al baño. Probablemente, chocaríamos contra las paredes o llegaríamos a otro lado”, explicó.
En robótica autónoma eso normalmente se calcula con odometría de ruedas, es decir, se cuenta el número de veces que las ruedas dan vueltas para saber su distancia de una coordenada determinada. El problema es que como las ruedas se resbalan en un suelo arenoso no son tan exactas y son necesarios otro tipo de sensores, como cámaras. La cámara ve hacia el suelo y con señales de video se determina la posición y orientación del robot. Esto se conoce como odometría visual.
¿En qué consiste la tecnología para robots desarrollada en la UCR?
La tecnología está en las cámaras que se utilizan para determinar la posición y orientación del robot. En lugar de las cámaras estéreo, comúnmente empleadas por la NASA, él usa una cámara de tiempo de vuelo pulsado que trabaja en el espectro infrarrojo cercano.
“Hay una gran diferencia entre ambas cámaras”, precisó Martínez. “Con una cámara estéreo se rastrean puntos característicos a lo largo de la secuencia de imágenes y de ahí se extrae el movimiento del robot. Pero yo no hago eso, al usar una cámara de tiempo de vuelo pulsado, el movimiento lo estimo haciendo un análisis de las diferencias de intensidad entre imágenes cruzadas”.
Para ello utiliza un algoritmo que ha resultado ser muy preciso para determinar ubicación y orientación. Pero el método de estimación, afirmó, es muy diferente al usado por la NASA, y por eso estuvieron dispuestos a probarlo en sus laboratorios.
Otra ventaja de la tecnología de Martínez es que, al trabajar con infrarrojo, puede operar de noche o en ausencia de luz, algo que no pueden hacer las cámaras estéreo.
“Se podrían combinar o fusionar los dos algoritmos para tener una estimación del robot más robusta”, aseguró.
El trabajo del científico costarricense con robots en la NASA
Durante estos 3,5 meses, el científico costarricense probará su algoritmo en diferentes robots en el laboratorio en California. Esto comprobará si es funcional para ser incluido en una nueva generación de robots de exploración planetaria.
Los científicos del JPL ya han visto la tecnología funcionando. Las videollamadas han hecho eso posible. Pero no es lo mismo verlo en vivo y en directo, y eso es lo que quieren los científicos de JPL.
Además, los laboratorios de la NASA tienen ambientes denominados Mars yards (jardines o patios de Marte) que simulan la superficie marciana con sus relieves y condiciones. En estos lugares se probó el Perseverance antes de ser enviado a Marte.
“La idea es también colaborar. Mejorar la precisión, robustez de la orientación de los robots”, expresó.
El científico también guarda la esperanza de que de esta colaboración surja algún proyecto de investigación conjunto, con financiamiento por parte de algún ente internacional, que permita desarrollar más tecnología y que también puedan participar estudiantes de doctorado en el laboratorio de la UCR.
Para su regreso, a inicios de 2025, espera tener más conocimiento para generar nuevas investigaciones y para transmitirlo a sus estudiantes.
Otras aplicaciones de la tecnología
El algoritmo con el que Martínez trabaja lleva décadas de utilizarlo y perfeccionarlo. En el pasado le dio otros usos, como la compresión de video y para estimar el movimiento tridimensional de cabeza, cuello, tronco y extremidades de una persona que opera un robot humanoide. Por esos trabajos, Martínez ganó el Premio Nacional de Tecnología Clodomiro Picado Twight en 2003.
En 2012, comenzó a usarlo para la orientación y posición de robots, también para el perfeccionamiento que hoy lo lleva a la NASA.
“Lo bonito de la visión por computadora es que lo que uno hace, puede utilizarse en un montón de operaciones: compresión de video, teleoperaciones, robótica autónoma, juegos electrónicos, ingeniería biomédica... hay muchas aplicaciones”, resumió.
Incluso, este uso en robots o vehículos autónomos también puede utilizarse en la superficie terrestre.
“Es apta para cuando el robot está en un lugar donde no hay GPS. Por ejemplo, dentro de un edificio o en una ciudad donde la señal de GPS es muy débil porque los edificios son muy altos. Si el vehículo autónomo no sabe dónde está, si no conoce la posición y orientación, no va a poder movilizarse. Esta tecnología es vital para vehículos autónomos aquí en la Tierra, especialmente cuando no hay señales GPS”, aseguró el científico.