Un profesor de décimo año de colegio asigna a sus estudiantes una redacción de 300 palabras sobre la Segunda Guerra Mundial. Otro, del mismo nivel, asigna la misma cantidad de palabras, pero el tema cambia y es sobre los feminicidios en Costa Rica entre 2022 y 2023.
¿Podría la inteligencia artificial hacer la tarea por ellos? En el primer caso, sí, y muy bien ejecutada, incluso adaptaría su lenguaje al de un muchacho de 16 años. La herramienta ChatGPT podría hacerlo. En el segundo no serían tan afortunados; tendrían datos generales, pero no actualidad, porque el programa no tiene información más allá de 2021.
Volvamos al primer caso. El estudiante podría tener esta opción, ¿pero la usaría y la presentaría como si fuera suya? ¿O simplemente sería una herramienta para entender mejor la situación y con base en eso redactar? ¿O ni siquiera consideraría la opción y simplemente se sentaría a redactar?
Este fue precisamente el tema que convocó a especialistas en educación, inteligencia artificial y empresas informáticas en la universidad Texas Tech, en Escazú. Al evento fueron invitadas autoridades del Ministerio de Educación Pública (MEP), pero no asistieron.
LEA MÁS: ChatGPT: Los vacíos que esta inteligencia artificial -todavía- no suple
Juan Carlos Rojas, profesor de computación en la Universidad Texas Tech e investigador en inteligencia artificial, definió al ChatGPT como un agente virtual con el que podemos interactuar en una consola de texto. Se le hace una pregunta o solicitud y el sistema responderá. Esto es posible gracias a que ha sido “alimentado” con una gran cantidad de información de gran cantidad de sitios en Internet.
“Lo sorprendente no es solo la respuesta, sino el contexto y la complejidad del desarrollo de las ideas. Nos da un poco más de lo que esperábamos, no es una simple búsqueda”, manifestó durante su exposición.
No solo puede ejecutar sobre cuestiones sencillas. Puede elaborar ensayos, artículos, poesía con un nivel de complejidad muy competente. Rojas le dio incluso la tarea de desarrollar un código de programación y ChatGPT no solo desarrolló el código, también lo explicó.
“Sería una respuesta muy completa para un estudiante en un curso de programación”, resumió.
Sin embargo, a Rojas no le preocupa que los estudiantes utilicen esta inteligencia artificial en sus cursos o tareas.
”En mis clases abiertamente me han preguntado si pueden usar ChatGPT para una tarea y yo por supuesto les digo que sí. Siempre y cuando entiendan lo que hacen, lo puedan explicar y sean responsables de lo que ponen. Yo personalmente no lo veo diferente de pedirle ayuda a un hermano, a un amigo o compañero”, manifestó.
“No hay manera de pararlo. Los estudiantes van a usarlo, pero debemos volverlo a favor, puede ser una buena herramienta”.
Carlos Faerrón, profesor universitario en Estados Unidos y que desde noviembre sigue de cerca el desarrollo de ChatGPT, es de la misma opinión: “Esto llegó para quedarse, y son grandes las herramientas, con todo y posibles preocupaciones”.
“No es la primera vez, ni será la última que nos peguen un ‘socollón’ en la educación. Pasó con las calculadoras cuando llegaron y comenzaron a usarse en los centros educativos, pero también pasó cuando salió Google, o cuando salió Wikipedia. Las mismas preocupaciones que tenemos hoy, o unas muy similares, se tuvieron cuando surgieron estas tecnologías. Y ya nos hemos adaptado a todos estos contextos”, añadió.
Faerrón admitió que, en este momento, hay más preguntas que respuestas, que esta tecnología va muy rápido y que la educación no se caracteriza por adaptarse a cambios rápidos ni a ser flexible. Sin embargo, sí podría ayudar a una formación crítica del estudiantado.
LEA MÁS: ChatGPT plantea grave desafío a la educación y el aprendizaje
Las preocupaciones
Faerrón sostuvo que esta nueva tecnología ha despertado miedos.
“¿Esto viene a reemplazar al profesor? ¿Esto viene a reemplazar al estudiante? ¿Esto viene a reemplazar al aprendizaje? ¿Hará falta tener aulas? Lo cierto es que no va a reemplazar a nadie. Hay habilidades que son útiles para la humanidad que esta plataforma no puede sustituir”, ejemplificó durante su exposición.
ChatGPT sí puede realizar exámenes complejos, pero Faerrón lo compara con hacer exámenes a libro abierto, en donde el estudiante podría copiar el contenido del libro, pero debe saber dónde buscar. Con ChatGPT hay que saber qué preguntar y qué datos darle. Cuanto más elaborado sea el enunciado de la petición, mejor será la respuesta, pero se debe tener cierto nivel de conocimiento para desarrollar el enunciado.
Otro de los miedos: ¿cómo sé si mi estudiante realmente hizo la tarea o si no se la hizo ChatGPT? “Cuando hay desconocimiento, es cuando nace el miedo”, puntualizó Faerrón.
“Para eso necesitamos hablar de esto en el aula. No podemos nada más barrerlo debajo del tapete. También debemos hablarlo a nivel de instituciones y a nivel de políticas públicas. Ministerio de Educación, si me estás escuchando, por favor, por favor, comiencen a tener estas conversaciones”, agregó.
Las herramientas para detectar plagio no detectarán algo generado por ChatGPT (porque no es plagio), pero ya hay plataformas, incluso de la propia compañía, que ponen a prueba un texto para ver si es creado por esta tecnología. Por ahora solo dicen “muy probable, poco probable o no probable”, no dan certeza.
Y ahí viene el otro problema, la autoría ¿quién es dueño del texto? ¿Hasta qué punto se hace responsable el estudiante por lo puesto en el papel?
Rojas cuestionó: “¿Cuál es el miedo? ¿El miedo es que nosotros no nos demos cuenta de si el trabajo fue generado por ChatGPT? Entonces ahí debemos aumentar nuestra exigencia de otras formas de evaluar también. ¿Éramos muy mecánicos?”.
Las herramientas
Faerrón indicó algunas formas en las que, tanto educadores como educandos usan esta tecnología. En ninguno de los casos sustituye las responsabilidades de cada uno.
Una forma en la que la utilizan los profesores es a través de lluvia de ideas. Si, por ejemplo, tuvieran que dar un taller de biología, se le pide a la herramienta una lluvia de ideas de actividades que pueda implementar.
Otra forma es pedir guía de cómo adaptar conceptos muy complejos para explicarlos a preescolares y escolares. También, podría tomarse un texto escrito por esta plataforma y que los estudiantes lo critiquen.
Asimismo, podría ayudar a personas con discapacidad a describir y llenar vacíos de su discapacidad.
Priscilla Guzmán, de la empresa IBM, dijo que esta sería una oportunidad para quienes requieren de más apoyos para el aprendizaje, una forma de generar nuevas formas de explicar, o nuevas prácticas para entender mejor la materia. O ayudar a las personas con discapacidad.
La habilidad humana siempre será necesaria. Faerrón dio un supuesto de que un profesor quisiera meter todos los ensayos de sus alumnos y decir “con base en estos parámetros, ‘dígame si está bien o mal escrito’”.
“Quienes pretendan ahorrarse trabajo con eso deben tener cuidado; ChatGPT no puede comparar un ensayo con otro repetidamente. Las calificaciones que ponemos en un ensayo son comparaciones y ChatGPT no está en capacidad de hacerlo”, afirmó Faerrón.
Dio otro ejemplo que él usa en aulas universitarias: pide ayuda para crear un quiz. Para ello, detalla el tipo de curso, el tipo de estudiantes y la materia y se le dan los parámetros de lo que se evaluará. Una vez con las preguntas y sus respuestas, las revisa, las adapta y las mejora. Siempre ha tenido que hacer mejoras, pero le ahorra tiempo.
Faerrón dice que también él pone métodos de evaluación que ChatGPT no puede hacer por los alumnos, como dibujar, escribir a mano o hacer presentaciones orales en donde la conversación verá el nivel de comprensión.
Andrea Álvarez, de la empresa Microsoft, señaló que ChatGPT puede dar elementos para que las personas construyan y, a la larga, más bien potencia la creatividad. “Cerrar las puertas nos cierra a la innovación”.
Rojas dijo que los estudiantes utilizan esta herramienta en el aula. Si tienen una duda o no saben cómo expresarlo, lo ven entre todos con el ChatGPT.
“Los fabricantes tienen responsabilidad, pero también nosotros, como usuarios. No solo es usarla porque es muy bonito, también ser conscientes en términos de inclusión, transparencia, acceso, entre otros. Somos responsables del uso que le demos”, manifestó.
Los retos
Uno de los principales retos está con las referencias y la autoría de los textos. ChatGPT no especifica de dónde obtuvo la información. Faerrón hizo un experimento, tanto con la versión disponible para el público como con el GPT4, versión más avanzada disponible para unos pocos. Les extendió una pregunta y les pidió dos referencias bibliográficas.
La versión pública dio dos que, a simple vista, estaban muy bien hechas, con el formato requerido y con todos los componentes necesarios.
“¡Pero eso no existe! ¡Se lo inventó! Me puse a buscar ¡no existe! Los autores existen, trabajan ese campo, pero la revista no existe, el documento tampoco. La versión 4 ya me daba un documento que sí era, bien referenciado y bien hecho, pero no sustituiría mi trabajo, es solo un copiloto”, aseguró.