El sistema de inteligencia artificial ChatGPT se ha mostrado como una facilidad para obtener información detallada, de manera sencilla de un sinfín de temas.
Juan Carlos Rojas, profesor de computación en la Universidad Texas Tech e investigador en inteligencia artificial, definió al ChatGPT como un agente virtual con el que podemos interactuar mediante texto. Se le hace una pregunta o solicitud y el sistema dará un texto de vuelta que elabora de una manera “semioriginal”.
LEA MÁS: Chat GPT: Los estudiantes van a usarlo de todas formas, debemos sacarle provecho
Sin embargo, esto no escapa de todavía tener muchos vacíos que todavía deben resolverse. Rojas expresó que el sistema fue entrenado con el total de lo que han escrito los seres humanos y que está disponible en Internet. Y produce combinaciones similares a lo que la humanidad ha escrito, con todos sus sesgos, con todos sus errores y con toda la desinformación que está en la red.
“Va a ser un reflejo de la humanidad, y eso no siempre es bueno”, destacó, al tiempo que recalcó que la herramienta sí tiene muchísimas ventajas para mejorar el aprendizaje.
Esto son los principales vacíos que esta herramienta no logra llenar:
Actualidad. La información disponible en la versión pública del ChatGPT (la 3.5, disponible desde noviembre) tiene su corte a 2021. Esta inteligencia artificial “desconoce” todo lo sucedido en 2022 y lo que llevamos de 2023. Rojas hizo un ejercicio, y le preguntó “¿Cómo es la vida en Ucrania?”. La respuesta describía a un país tranquilo, dio información de la comida, el clima, la cultura, el baile. Apenas mencionó, en el último párrafo, como algo menor, los retos con Rusia.
“No es de ‘entrenarlo más’, porque este proceso cuesta millones de dólares, pero además, toma un mes en hacerlo. Nunca podríamos tener la información de la semana pasada”, especificó Rojas.
Limitaciones. Esto no es una “máquina de sabiduría infinita”, también tiene limitaciones. Carlos Faerrón, profesor universitario en Estados Unidos, recalcó que hay un grupo de personas que sigue de cerca los errores que puede cometer esta inteligencia artificial. Se ven incluso en cuestiones muy básicas.
Por ejemplo, Faerrón le preguntó a la herramienta el récord mundial de cruzar el Canal de La Mancha a pie. El investigador sabe de antemano que este es un canal de agua que no permite ser cruzado a pie. Chat GPT le respondió que este había sido el inglés Damian Browne, que había demorado 18 horas con 55 minutos en agosto de 2012. Sin embargo, Browne lo recorrió a remo con su kayak, no a pie.
“El programa responde con una confianza que uno cree que sí es verdad, y no necesariamente son ciertas. Puede confundirnos”, señaló el especialista.
Precisión y veracidad. Como en Internet hay desinformación esta puede verse reflejada a la hora de redactar un texto con inteligencia artificial; por ello, de todas formas serán necesarios los chequeos de datos.
LEA MÁS: ChatGPT plantea grave desafío a la educación y el aprendizaje
Autoría. ¿Quién es el dueño de esta información redactada? ChatGPT no dice de dónde proviene la información, entonces no hay cómo dar crédito de la información. A esto se le une la empresa de revistas científicas Nature, que pide a los investigadores citar a ChatGPT como autor si este fue utilizado. La compañía editorial Elsevier pide reconocer cuando se echó mano de esta inteligencia artificial, pero no citarlo como autor. El asunto aquí también tiene que ver con la rendición de cuentas.
“Uno, como persona, es responsable de lo que pone en el papel. Y la gente le puede tocar a uno la puerta y decirle ‘ey, esto está mal’ o ‘esto no se sostiene’, pero eso no se le puede hacer a Open AI (la empresa creadora de ChatGPT) porque ella estipula que se lava las manos de eso”, enfatizó Faerrón.
Sesgos. Faerrón dio el ejemplo de cuando le pidió al sistema nombrar 10 filósofos. En el primer intento le dio solo hombres. Pidió entonces mujeres, dio 10 mujeres, pero todas occidentales. Entonces, pidió personas no occidentales, lo hizo, pero nuevamente dio solo hombres. Al pedir mujeres no occidentales dio 5. Con esto como base volvió a pedir 10 filósofos... y volvió a obtener la primera lista.
Brechas digitales. Aunque este no es un problema de la plataforma, las personas que no tienen acceso a Internet tendrían barreras de acceso a las facilidades.
Ambos especialistas indicaron que, aunque ChatGPT irá puliéndose y cerrando estos vacíos, habrá tareas que solo los humanos pueden realizar, por lo mismo es necesario seguir trabajando en los desarrollos profesionales y académicos y tener ese contacto humano con otras personas como solo los seres humanos pueden hacerlo.
“Yo estoy en contra de llamarle ‘inteligencia artificial’. Eso no es inteligente en sí mismo. La inteligencia la tenemos los seres humanos. Siempre habrá espacios para los seres humanos que son expertos en cada tema”, concluyó Rojas.
Faerrón acotó: “ChatGPT nunca podrá sustituir al ser humano, pero los seres humanos que usan inteligencia artificial sí podrían sustituir en el mercado laboral a quienes no la utilizan”.