Los agentes de inteligencia artificial generativa con capacidad de voz pueden ser usados para realizar estafas telefónicas de manera autónoma, según una investigación de la Universidad de Illinois en Urbana-Champaign. Los expertos explicaron que, aunque las tasas de éxito actuales varían entre un 20 % y un 60 %, esta tecnología podría volverse más efectiva y peligrosa con los avances.
Las estafas telefónicas tradicionales requieren que un estafador convenza a una víctima de revelar datos confidenciales, como credenciales de servicios digitales o información bancaria, para luego robar su dinero. Este proceso implica múltiples acciones: navegar en un sitio web de un banco, introducir credenciales y códigos de autenticación de dos factores, gestionar transferencias y responder a dificultades, como datos incorrectos proporcionados por la víctima.
LEA MÁS: ChatGPT estrena modo de voz avanzado en Windows y macOS para una experiencia más interactiva
El estudio, publicado en Arxiv.org, muestra cómo un agente de IA, utilizando modelos como GPT-4 de OpenAI, puede realizar estas tareas y adaptarse a cambios durante una llamada. “Las llamadas de estafa autónomas son posibles gracias a los avances en IA”, señalan los investigadores. Subrayan que, aunque la manipulación mediante deepfakes ya se usa, las estafas con voz autónoma todavía no se han desplegado ampliamente debido a limitaciones técnicas.
En el experimento, el agente necesitó realizar 26 acciones para completar una transferencia bancaria y tardó hasta tres minutos en casos más complejos. Los autores esperan que compañías como OpenAI refuercen la seguridad de sus modelos para evitar el uso indebido y decidieron no publicar el código de sus agentes para prevenir abusos.
LEA MÁS: Reos siguen estafando con señales de wifi que llegan a las cárceles
*La creación de este contenido contó con la asistencia de inteligencia artificial. La información fue proporcionada y revisada por un periodista para asegurar su precisión. El contenido no se generó automáticamente.