“Doctor, buenos días. Necesito que me haga un favor; dígame dónde están vendiendo ese producto tan bueno que usted promociona en Internet, porque tengo todos los síntomas que usted explica ahí y la verdad, ya quiero curarme”.
Con esa llamada, el médico internista, especialista en cuidados intensivos y con una maestría en salud pública, Marco Vinicio Boza, quedó sorprendido. Era su propio contador quien le hablaba, y tuvo que mencionarle que él nunca hizo ningún video promocionando un medicamento.
Esa fue la primera señal de alerta. La segunda llegó con las llamadas posteriores, ya que varios colegas y amigos llamaron al doctor Boza para informarle que circula un video en redes sociales donde él, con su cara y su voz, recomienda un producto casi “milagroso” que limpia los coágulos de las arterias del cerebro.
El doctor Boza activó todas sus alertas al recibir múltiples llamadas. Ingresó a redes sociales y encontró el video, el Cardinol. De inmediato, buscó el medicamento en Google, pero no encontró nada y nunca lo había escuchado. Solo halló un nombre parecido, pero correspondía a un medicamento para animales.
“Me quedé impresionado”, comentó el doctor Boza. El video empieza con la periodista y expresentadora de Noticias Repretel Jennifer Segura anunciando el producto “milagroso”, y después entra el doctor Boza. Sin embargo ella tampoco grabó ningún video de medicamentos. A la comunicadora le montaron una voz encima, es decir, utilizaron un video donde Jennifer presenta una nota del noticiero, pero el resto es montaje.
Uso de inteligencia artificial en videos falsos
Sobre el uso de la inteligencia artificial en video para poner a la gente a decir lo que no dijo, conversamos con el vicepresidente del Colegio de Profesionales en Informática, el ingeniero Francisco Vargas-Navarro, quien advierte que siempre hay que sospechar.
“Ahora las personas que usan redes sociales deben sospechar siempre de todos los videos, comprobar, siempre buscar una segunda opinión. Deben fijarse muy bien. En el caso del video del doctor Boza se nota que cuando supuestamente está hablando la periodista, la voz va atrasada del movimiento de la boca de la imagen. Esas son pequeñas diferencias que nos advierten”.
El ingeniero destaca que no se debe creer de buenas a primeras todo lo que se ve o lee en redes sociales. Si solo se encuentra un video con esa información, es recomendable dudar totalmente y buscar confirmación con otros medios.
Un problema creciente
Tomas De Camino Beck, director de la Escuela de Sistemas Inteligentes de la Universidad Cenfotec, experto en inteligencia artificial, advierte que este tipo de videos falsos está y seguirá estando a la orden del día en redes sociales.
“Es un problema que cada día se hace más grande, ya que no se necesita mucho dinero para hacer estos videos con inteligencia artificial. Recomiendo una doble e incluso triple revisión de un video para confirmar que una noticia es cierta. En el caso de medicamentos, lo que se debe hacer es consultar al médico, no irse a la primera opción y confiar”.
Debería buscarse una manera de detener este tipo de videos. Facebook debería utilizar también inteligencia artificial para detectar cuando se da un uso indebido de la propia inteligencia, sugiere De Camino Beck.
Suplantación de identidad
El abogado especialista en Derecho Informático, José Medrano, aclaró que este tipo de montaje, donde se simulan declaraciones de un profesional de la salud para promover un producto de nula reputación, es una forma de suplantación de identidad que forma parte del engaño de la estafa tradicional.
La periodista Jennifer Segura mencionó que es bastante preocupante ver este tipo de contenidos replicados sin ningún tipo de control, incluso valiéndose de la credibilidad de médicos. “Si bien la inteligencia artificial, utilizada para fines correctos, nos da muchas facilidades, por ahora la desprotección y desinformación que existe sobre el tema es enorme”.