París. Los usuarios del robot conversacional estadounidense Replika buscaban compañía, algunos un vínculo romántico o incluso intercambios con un tinte sexual. Sin embargo, en el último año, abundan las quejas de personas que recibieron imágenes demasiado explícitas o que se sintieron acosados sexualmente.
El viernes pasado, la Agencia Italiana de Protección de Datos expresó su inquietud por el impacto en las personas más frágiles y prohibió que Replika use los datos personales de los italianos, afirmando que va en contra del Reglamento General de Protección de Datos (RGPD).
Replika fue contactado por la AFP, pero no respondió a la una solicitud de comentario. Este caso muestra que el reglamento europeo —que es un quebradero de cabeza para los gigantes de la tecnología que han sido multados con miles de millones de dólares por infringirlo— podría convertirse en un enemigo de la inteligencia artificial que genera contenido.
LEA MÁS: ChatGPT, el robot de inteligencia artificial que puede estafarlo y robarle sus datos
El robot Replika fue entrenado basándose en una versión del modelo conversacional GPT-3 de la empresa OpenAI, que fue la creadora de chatGPT. Este sistema de Inteligencia Artificial (IA) utiliza información de Internet para generar respuestas coherentes a las preguntas de los usuarios.
Esta tecnología promete una revolución de las búsquedas en internet y de otros dominios en los que pueda ser utilizada. No obstante, los expertos advierten que también representa riesgos que hacen necesaria su regulación, que es difícil de implementar.
Alta tensión
Actualmente, la Unión Europea (UE) es uno de las instituciones donde se debate cómo regular esta nueva herramienta tecnológica. El proyecto de norma “AI Act” podría estar terminado para finales del 2023 o inicios del 2024.
“Estamos descubriendo los problemas que la IA puede plantear. Hemos visto que chatGPT puede ser usado para crear mensajes de phishing (fraude online) muy convincentes o para tratar una base de datos para trazar la identidad de una persona concreta”, explicó a la AFP Bertrand Pailhès, que dirige una nueva división de IA de la autoridad francesa regulatoria CNIL.
Los juristas destacan la dificultad que hay para comprender y regular la “caja negra” en la que se funda el razonamiento de la IA. “Vamos a asistir a una fuerte tensión entre el RGPD y los modelos de IA que generan contenido”, dijo a la AFP el abogado alemán Dennis Hillemann, que es un experto del sector.
“Ni el proyecto de regulación AI Act ni la normativa actual RGPD pueden resolver los problemas que estos modelos de IA van a traer”, afirmó. Va a ser necesario replantear la regulación “en términos de lo que los modelos generadores de IA pueden hacer realmente”, adelantó.
LEA MÁS: ¿Qué es ChatGPT y cómo funciona?
Cambio profundo
El último modelo de OpenAI, GPT-4, va a salir próximamente con un modo de funcionar que puede acercarse aún más a la capacidad de un ser humano. Pero todavía este tipo de IA comete muchos errores cuando analiza los hechos, a veces muestra que es parcial o puede producir afirmaciones que resulten difamatorias, por lo que muchos afirman que debe ser regulado.
Jacob Mchangama, experto en libertad de expresión, no comparte este enfoque. “Incluso si los chatbots no tienen derecho a la libertad de expresión, debemos permanecer vigilantes frente a la posibilidad de que los gobiernos supriman sin trabas la inteligencia artificial”, declaró.
Dennis Hillemann indicó que es vital que haya transparencia. “Si no regulamos esto, vamos a entrar en un mundo donde ya no se puede diferenciar entre lo que haya sido hecho por personas o por IA”, explicó. “Y eso nos cambiaría profundamente como sociedad”.