El ChatGPT está ganando popularidad en el mundo con rapidez por la sensación que tienen sus usuarios de estar conversando con otra persona. Sin embargo, conforme pasa el tiempo, esta herramienta de inteligencia artificial (IA) genera cada vez más dudas sobre su fiabilidad en áreas como la educación y el aprendizaje.
Desde que la empresa OpenAl dio acceso gratuito a esta plataforma, el pasado 30 de noviembre, ha ganado adeptos en forma vertiginosa. Solo cinco días después del lanzamiento de su versión de prueba ya tenía un millón de usuarios y, al finalizar enero, ya contaba con 100 millones.
Se llama GPT porque son las siglas en inglés de Transformador Generativo Preentrenado.
Se trata de un modelo de lenguaje entrenado para “dialogar” a partir de un vasto universo de información que, según sus creadores, incluyó miles de Gigabytes de libros, toda la enciclopedia Wikipedia y todos los intercambios en Twitter; entre otras fuentes.
Procura predecir sobre lo que se le consulta y puede unir palabras de manera significativa. Gracias a esa capacidad, que ha despertado mucho asombro, imita patrones de diálogo como si fuera un ser humano mientras transmite su conocimiento enciclopédico a su interlocutor.
No obstante, las limitaciones de este sistema de aprendizaje automático representan un riesgo en ámbitos como la enseñanza académica formal. Por ejemplo, Roberto Sasso, ingeniero y presidente del Club de Investigación Tecnológica, asegura que peligra quien suponga que las respuestas del ChatGPT son verdaderas.
“Hay que tomarlo con extremo cuidado. ¿Por qué crees que lo ofrecen gratis para prueba? ¡Diay! porque no está listo y quieren que la gente les ayude a terminarlo; por algo no lo tienen al tanto de hechos actuales (la herramienta tiene información hasta 2021), pues podría propagar noticias falsas de forma efectiva”, advierte.
De hecho, en la sección de Limitaciones del programa, OpenAI lo aclara casi como si se tratara de una liberación de responsabilidades.
“ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido”, “Si bien nos hemos esforzado para que el modelo rechace solicitudes inapropiadas, a veces responderá a instrucciones dañinas o exhibirá un comportamiento sesgado”, declaró la compañía.
Gabriel Macaya, académico y exrector de la Universidad de Costa Rica (UCR), le preguntó en forma reciente al ChatGPT si Costa Rica es una democracia.
LEA MÁS: Inteligencia artificial ¿amenaza u oportunidad para trabajadores en Costa Rica?
Macaya cuenta que recibió una respuesta sin un error formal pero que, insatisfecho, le pidió una ampliación. Entonces, la herramienta volvió a repetirle toda la información inicial suministrada pero, esta vez, le incluyó algunas críticas.
Con base en el resultado del ejercicio, el exrector considera que la plataforma tiene limitaciones como incentivo al pensamiento crítico. “Es una manera de ampliar la inteligencia humana, no sustituirla y eso es lo fundamental que toda persona, estudiante, educador e institución educativa debe tener claro”, señala.
Riesgos de plagio
Uno de los riesgos es que los estudiantes puedan sentirse tentados a acudir a la IA para pedirle que les haga una tarea o que les escriba sus ensayos. Sin embargo, especialistas consultados y el propio creador del ChatGPT señalan que apostar por ese tipo de engaño es arriesgado.
La Nación le preguntó a ChatpGPT: ¿cuál es su responsabilidad por perjudicar el aprendizaje de alguien que le pide escribirle la tarea en vez de ejercitar su propio intelecto?
“Si bien puedo ser una herramienta útil para investigadores, escritores y estudiantes que buscan ahorrar tiempo y optimizar su trabajo, es importante tener en cuenta que el uso de una herramienta como yo no debe verse como un sustituto del aprendizaje genuino y el crecimiento intelectual”, soltó la máquina.
Rolando Pérez Sánchez, catedrático de la UCR y miembro del Instituto de Investigaciones Sociales (IIS), asegura que habrá problema si las personas humanizan las máquinas por creer que razonan. “Esto es un grave error. Hay que conocer sus alcances y sus límites. Esto es una base de datos que responde, nada más”, aclara.
Para él, docentes y estudiantes deben alfabetizarse digitalmente tanto para no atribuirle a la IA beneficios inexistentes (escribir como usted) y apaciguar falsos temores (que piensan o sienten).
LEA MÁS: Tecnología de moda
Según pruebas realizadas por Pérez, ChatGPT nunca podría redactar un estudio cuantitativo o cualitativo porque le brindó respuestas cortas, superficiales e inexactas. En ese sentido, estimó que un estudiante que se atreva a pedirle que escriba una asignación en su lugar sería fácilmente detectado por cualquier examinador.
Carlos Faerrón Guzmán, de la empresa Ahead.cr, dedicada a enseñanza y consultorías en tecnología, aconseja utilizar la herramienta como un apoyo, pues insiste en que esta no puede pensar. Señala que aunque la plataforma parece poseer capacidad crítica o de pensamiento, en realidad solo es un modelo estadístico.
“No sabe nada pero sí nos puede ayudar con el trabajo aun y cuando es claro que no puede pensar por nosotros. Puede mejorar capacidades de aprendizaje y la curiosidad, pero es todo”, asegura el también profesor asociado en la Escuela de Posgrado de la Universidad de Maryland, Estados Unidos.
Todos los analistas coinciden en que invenciones como esta seguirán en uso y que prohibirlas carece de sentido. Más bien, considera que el sistema educativo debe hallar nuevas formas de examinar al estudiante distintas a exámenes y composiciones escritas, a la usanza de estilos de enseñanza memorísticos.
Lo ideal en la actualidad, consideran, sería algún estilo de evaluación que mezcle creatividad y aplicación del conocimiento adquirido en clase.
Amoral
El mundo educativo y los usuarios en general tienen más motivos para inquietarse por ChatGPT, ya que esta herramienta no puede sacar conclusiones básicas a partir de su incalculable acervo de datos.
Su funcionamiento difiere profundamente respecto a cómo aprenden, razonan y utilizan el lenguaje los seres humanos y, por eso, tiene limitaciones perjudiciales, advirtió Noam Chomsky, profesor de lingüística en la Universidad de Arizona y profesor emérito en el Instituto Tecnológico de Massachusetts.
Chomsky hizo su señalamiento en el artículo La falsa promesa de ChatGPT, publicado en el diario The New York Times junto con Ian Roberts, profesor de lingüística en la Universidad de Cambridge, y Jeffrey Watumull, filósofo y director de inteligencia artificial en Oceanit; una firma de ciencia y tecnología.
Su defecto más profundo, comentaron los autores, es que carece de la capacidad más importante que tiene cualquier tipo de inteligencia: crear explicaciones. “La marca de la verdadera inteligencia”, dijeron.
LEA MÁS: Experto alemán en Inteligencia Artificial: “Los robots no sustituirán a las personas”
Ser inteligente, añaden, es más que hacer conjeturas creativas pues implica capacidad crítica al recordar que el pensamiento del ser humano se basa en explicaciones posibles y en ajustar los errores. Eso limita gradualmente las posibilidades que sí pueden considerarse de forma racional.
A pesar del pensamiento y lenguaje aparentemente sofisticados de ChatGPT, los escritores le atribuyen también una indiferencia moral por su falta de inteligencia (capacidad de explicar y ser crítico). “Aquí, ChatGPT exhibe algo parecido a la banalidad del mal: plagio, apatía y obviedad”, alertaron.
Para ellos, la plataforma solo resume argumentos porque se niega a tomar partido. Muestra no solo ignorancia sino también falta de inteligencia y, en última instancia, ofrece una liberación de responsabilidad en la línea de “solo cumplía órdenes”, trasladando esa carga al usuario.
”Dada la amoralidad, falsa ciencia e incompetencia lingüística de estos sistemas, solo podemos reír o llorar ante su popularidad”, concluyeron.