El nuevo sistema de ChatGPT no solo ha captado la atención de millones de curiosos quienes ahora aprovechan la herramienta para resolver o responder prácticamente cualquier cosa, sino que también está siendo utilizado de forma maliciosa por ciberdelincuentes que se aprovechan de la inteligencia artificial para estafar, robar datos, dañar equipos electrónicos e incluso generar fake news (noticias falsas) en la web.
La popular tecnología que está abierta al público desde finales del año anterior permite interactuar a través de texto con un chatbot que se asemeja a una persona real. El sistema fue entrenado con gran cantidad de datos para responder preguntas o proporcionar información y, aunque aún presenta errores, a través del proceso de entrenamiento va mejorando su capacidad para interactuar de forma automática ante todo tipo de consultas.
En un ejercicio en plataformas gratuitas, el ChatGPT redactó para La Nación una noticia falsa sobre la final de fútbol entre Francia y Costa Rica en el Estadio Nacional y un poema al gallo pinto. Así de fácil, un delincuente podría recurrir a esta inteligencia artificial y crear correos maliciosos para robarle a usted sus datos personales o su información bancaria.
Esta herramienta vino a revolucionar y automatizar diversos procesos, ya que está cambiando la forma en que las personas interactúan con las computadoras y representa un avance de la democratización y accesibilidad del conocimiento. Sin embargo, investigaciones han demostrado que los cibercriminales ya comenzaron a utilizarla como herramienta para desarrollar código malicioso y concretar diversas acciones fraudulentas.
La tecnología es disruptiva porque se comunica de una manera amigable y emplea un lenguaje accesible, lo que permite que sea utilizada por cualquier tipo de usuario. Además, tiene infinidades de usos, por ejemplo, para la automatización de procesos en distintas industrias, como educación, finanzas, salud y atención al cliente. Precisamente, por esto ha levantado alertas sobre sus riesgos de ciberseguridad.
De acuerdo con la firma de seguridad informática ESET, ya se han identificado seis maneras con las que los delincuentes se benefician del nuevo sistema. De momento, en Costa Rica no se conocen casos, todavía.
1. Generación de fake news: El primer uso y uno de los más sencillos, es generar una noticia falsa para distribuirla en Internet. Solo se debe apelar a la creatividad e ingresar los parámetros correspondientes en torno a lo que se quiere. Por ejemplo, desde ESET se le pidió a ChatGPT que redacte un artículo en donde Elon Musk sorpresivamente compra la empresa Meta. Lo hizo en cuestión de minutos.
2. Ataques de phishing: Aunque cada vez resulta más difícil identificar los correos de phishing, por ser más dirigidos y, por ende, mucho más persuasivos, hace unos años la redacción de los correos maliciosos era muchas veces absurda, hasta incluso con errores ortográficos. Sin embargo, con ChatGPT se pueden redactar estos correos de manera automatizada con la intención de engañar a las personas y que entreguen sus datos.
3. Robo de identidad: Los ciberdelincuentes también pueden utilizar la herramienta para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso, pueden escribir en redes sociales como si fueran celebridades y asemejar la forma en que se comportan estas figuras en el mundo digital.
4. Desarrollo de malware: La plataforma también puede ayudar para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación, como el malware, que es un software con fines maliciosos. Por ejemplo, el equipo de investigación de ESET logró que el chat escribiera un programa en .NET que ejecute una tarea y genere el malware.
Aunque la tecnología de inteligencia artificial advirtió los riesgos de la solicitud y señaló que se podría estar violando la política de contenido del servicio, el código se generó de todas formas, hasta con una descripción detallada sobre cómo funciona.
5. Automatización de procesos ofensivos: Con ChatGPT una persona puede simular ser un atacante que quiere ingresar a un servidor para ver qué usuarios hay en una empresa y la herramienta puede automatizar este proceso.
6. Chats maliciosos: Por último, el chatbot cuenta con una API (interfase de programación de aplicaciones) que permite alimentar a otros chats y debido a su interfaz amigable, podría ser utilizada para usos maliciosos como engañar y realizar estafas muy persuasivas.
LEA MÁS: Las 5 estafas electrónicas más comunes de 2022
Manipulación
La especialista en ciberseguridad Martina López explicó a La Nación que la herramienta cuenta con filtros que se manejan por palabras claves o interpretaciones que bloquean el sistema si la inteligencia artificial comprende que lo que se le está solicitando es dañino. Por ejemplo, si se solicitan instrucciones para robar un banco o armar una bomba, es probable que la herramienta conteste que no va a dar el paso a paso.
Sin embargo, reconoció que los cibercriminales han encontrado formas de burlar y manipular el algoritmo del chat, al hacer preguntas más camufladas. Eso es lo que sucede con los correos de phishing, ya que igual a como se le pide que escriba cuentos o canciones, apelando a la inventiva y la creatividad, se le puede pedir que redacte un texto con el que se pueda engañar.
López señaló que como el chatbot aún está en pañales, es muy probable que los desarrolladores mejoren sus filtros de contenido ofensivo o malicioso, pero como ninguna herramienta informática es perfecta, es difícil saber si podrán evitar estos insumos para actos delictivos. Por ejemplo, destacó que los algoritmos que eliminan cuentas falsas o dañinas en las redes sociales fallan en algunos casos o no logran erradicar todo.
“Es algo que si bien se puede perfeccionar o mejorar, la realidad es que siempre va a ser un peligro latente y algo con lo que vamos a tener que aprender a convivir, no solo con esta herramienta, sino con cualquiera que tenga algún tipo de interacción humana y devuelva información visual”, subrayó la experta.
Finalmente, López apuntó que —en la otra cara de la moneda— ChatGPT también puede ayudar a las personas a evitar ser víctimas de delitos informáticos. Cuando una persona busca cualquier término relacionado a la ciberseguridad, la herramienta suele devolver consejos para evitar ataques o detectar estafas. De hecho, puede explicar cómo denunciar algún delito en cualquier parte del mundo, de acuerdo a la legislación.
Sobre esto, el abogado Esteban Alfaro indicó que, aunque esto sea beneficioso, no se puede olvidar una premisa básica desde la perspectiva estrictamente jurídica: una respuesta de ChatGPT no es fuente de derecho. De acuerdo con el profesional, esto siempre se debe tener en cuenta porque ya se han dado casos de funcionarios públicos que han utilizado la herramienta para intentar sustentar o dar respuesta a varios trámites.
Alfaro reseñó que un acto administrativo es, principalmente, un ejercicio de cognición humana, y es producto de un análisis de fuentes válidamente existentes en el derecho, aplicadas al caso concreto, por parte de un funcionario público con competencia legalmente establecida para ello.
“Las fuentes que un funcionario puede utilizar a efectos de sustentar una respuesta, resolución de recurso o un acto en general, dentro de un procedimiento administrativo, se encuentran claramente definidas en el ordenamiento a saber: normas, principios, jurisprudencia, criterios oficiales vinculantes, antecedentes administrativos o doctrina calificada, entre otros, no siendo dable la utilización de este tipo de herramientas, de las cuales no se puede tener certeza plena de su contenido, origen y, en especial, razón de ser”, concluyó.
LEA MÁS: Banda robó ¢150 millones en un año con estafas desde La Reforma