Los cibercriminales están utilizando el modelo de lenguaje grande (GPT) de OpenAI para crear software malicioso, apoyados por la inteligencia artificial (IA). A pesar de las restricciones implementadas por la empresa tecnológica, estos actores maliciosos también generan y difunden contenidos engañosos en redes sociales.
OpenAI informó que interrumpió más de 20 operaciones cibernéticas y redes de engaño que buscaban explotar sus modelos. Estas acciones abarcan desde la creación de publicaciones en redes hasta la depuración de malware, según un informe reciente llamado Influencia y operaciones cibernéticas.
Este estudio tiene como objetivo entender cómo los delincuentes usan la IA con fines perjudiciales, permitiendo a la empresa anticipar y planear medidas más eficaces de aplicación de la ley.
LEA MÁS: OpenAI lanza Canvas, una herramienta colaborativa para redacción y programación con ChatGPT
En octubre de 2024, OpenAI identificó que los cibercriminales emplean estos modelos en fases intermedias de sus actividades. Específicamente, después de adquirir herramientas como cuentas de correo o redes sociales, pero antes de distribuir contenido final, como publicaciones o programas maliciosos.
A pesar del uso de estos modelos, la compañía asegura que no se detectó un incremento significativo en la capacidad de los cibercriminales para explotar vulnerabilidades reales. No se ha evidenciado la creación sustancial de nuevo malware ni la formación de audiencias virales mediante la IA.
En cambio, se observó campañas de engaño en redes sociales que logran grandes audiencias, aunque aclaran que el interés generado estuvo más enfocado en el supuesto uso de la IA, y no en su implementación real.
Un caso destacado es el de SweetSpect, un grupo de origen chino que empleó los modelos de OpenAI para sus operaciones ofensivas y lanzó ataques de phishing haciéndose pasar por un usuario que requería soporte técnico de ChatGPT. Con ello, lograron infectar y controlar dispositivos.
Por otro lado, el grupo iraní STORM-0817 utilizó los modelos de IA para depurar código y programar malware para Android. Este programa, aún en fase de desarrollo, tiene funciones básicas de vigilancia. Además, emplearon ChatGPT para construir su infraestructura de comando y control.
En un año con más de 2.000 millones de personas llamadas a participar en procesos electorales en 50 países, OpenAI no detectó ninguna operación de influencia electoral que haya utilizado su IA para atraer una participación viral o crear audiencias sostenidas.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La información fue proporcionada y revisada por un periodista para asegurar su precisión. El contenido no se generó automáticamente.