La inteligencia artificial (IA) está presente a diario en muchos campos, y la salud no es la excepción. El uso de la IA en este ámbito fue tema central de dos congresos realizados en los últimos días en el país; ambos, con enfoques muy distintos en torno a cómo esta tecnología puede impactar a los pacientes y a quienes prestan los servicios.
Uno de ellos fue el evento IngenIEEEría, que se enfocó en las nuevas aplicaciones de IA, especialmente en psiquiatría. El segundo fue el Congreso de la Seguridad del Paciente, que abordó cómo estos sistemas pueden apoyar los procesos de salud y enfermedad, pero con regulaciones.
En ambas actividades, los expositores fueron enfáticos en que las alianzas pueden ser muchas para mejorar la comprensión de múltiples condiciones de salud y dar mejores tratamientos, pero que nunca se llegaría a los niveles que algunos imaginan.
“Escuchamos ‘inteligencia artificial’ en psiquiatría y se nos pueden venir a la mente escenarios de chatbots dando consejería. No es así, para eso existe el profesional”, aclaró en entrevista con La Nación Justin Dauwels, investigador en la Universidad de Tecnología de Delft, en Países Bajos.
Su área de investigación está relacionada con el uso de grandes bases de datos y el machine learning (tecnología que permite que las computadoras “aprendan” automáticamente identificando patrones complejos en la información). Sin embargo, ha hecho equipo con profesionales en psiquiatría y en psicología.
No obstante, hay algunos ejemplos, como Woebot o Earkik, en los que el usuario puede recibir mensajes sobre salud mental, tener interacción, pero el sistema le pedirá ir con profesionales calificados.
Por este tipo de usos es que deben tenerse las regulaciones claras. Ricardo de Lorenzo Aparici, abogado español especialista en transformación digital y protección de datos, expuso en el Congreso de Seguridad del Paciente sobre el Reglamento Europeo de Inteligencia Artificial y sus implicaciones en el ámbito sanitario.
“El principal reto es conocer en profundidad el sistema de inteligencia artificial. En términos de salud, con los datos sensibles, debe haber documentación técnica, cláusulas normativas, alguien que se haga responsable de los resultados arrojados por la IA, que haya transparencia. Además, es muy importante un sistema que dé soporte a los datos generados por IA”, detalló en entrevista con este medio luego de su presentación.
Inteligencia artificial en psiquiatría y cómo puede aplicarse
Durante su ponencia, Dauwels habló de un estudio publicado en el 2022 en la revista Schizophrenia. La investigación fue desarrollada por científicos y profesionales de salud mental en Singapur.
Ellos buscaron explorar la correlación entre lo que se dice y el lenguaje no verbal, y el déficit cognitivo y social, tanto en la esquizofrenia como en la depresión.
La idea fue crear una línea de acción basada en el análisis del lenguaje verbal y no verbal para monitorear a los pacientes con estos trastornos, ver cómo evolucionan y si hacen falta cambios en sus tratamientos o intervenciones.
“La idea es que la IA les dé a los psiquiatras ojos y oídos extra para monitorear a los pacientes. Es usual que los pacientes solo logren visitar a los psiquiatras una o dos veces al año. Entonces, los psiquiatras tienen que tomar decisiones difíciles con base en muy poca información. El poder de la IA es recolectar esa información y extraer lo que realmente es importante”, destacó.
“Mucha de la información está oculta en la forma en que las personas se comunican. No solo lo que dicen, sino cómo lo comunican. A veces hay silencios incómodos que pueden denotar algo más”, añadió.
Para dar resultados, se necesita gran cantidad de información, para que la IA pueda “aprender” y luego analizar.
El estudio tomó en cuenta a 228 personas. Los participantes primero fueron sometidos a una entrevista presencial en la que se tomó video para analizar lo que decían, su entonación, volumen de voz, expresiones faciales, contacto visual, entre otros detalles.
A medida que pasaba el tiempo, con el uso de una aplicación en su celular, se fue alimentando una base de datos personal basada en sus conversaciones telefónicas, videollamadas, audios y textos enviados.
“Es importante ver los cambios del paciente a largo plazo y ver sus cambios en el comportamiento. Esto no puede hacerse en una sola medición o entrevista; se requieren varias mediciones en un periodo de tiempo de varios meses o un año, por lo menos”, destacó.
El estudio concluyó que las personas con algún trastorno (o que estén en un momento de crisis que puede pasar inadvertido) normalmente tienen diferencias sutiles en su comunicación verbal y no verbal, y que las señales de audio y video de sus interacciones cotidianas sí pueden detectar dichas variables. No obstante, todavía se requiere mayor investigación.
Regular la inteligencia artificial
Ante un auge cada vez mayor de aplicaciones de IA, De Lorenzo advirtió de que son muchos los campos de acción en los que este tipo de tecnologías pueden ayudar a mejorar la salud, pero por eso mismo es necesaria una regulación.
Un ejemplo es la gran cantidad de información que tienen los sistemas de seguridad social. Ahí, herramientas de big data pueden procesar los datos en tiempo real y detectar patrones. Es un buen aliado en análisis de la situación de salud de un país o región, puede determinar factores de riesgo y, con base en eso, tener investigaciones que ayuden en la toma de decisiones.
Eso sí, el especialista subrayó la importancia de que esos datos sean de calidad y tengan la menor cantidad de vacíos posibles, para que puedan ser útiles.
“La supervisión humana es vital, la revisión de los datos, de los usos que puedan darse, revisar si hay patrones que resulten extraños; incluso, debe tenerse la posibilidad de un botón de apagado o reseteo si hay errores”, agregó.
Para el especialista, es normal que algunas personas tengan miedo o reservas del uso que se le pueda dar a la inteligencia artificial. Sin embargo, recordó que las malas intenciones de las personas han estado siempre, con o sin tecnología; por eso es necesaria la regulación.
El Reglamento Europeo de Inteligencia Artificial prevé sanciones y multas para quienes hagan mal uso de esta tecnología. Esto debe verse a nivel de cada país, también, y de cada institución, especialmente cuando se manejan datos tan sensibles o de tanta trascendencia para la toma de decisiones en las políticas públicas de salud o en la salud de los pacientes.