La comisión interinstitucional creada por académicos de la Universidad de Costa Rica para velar por la calidad de las pruebas estandarizadas para evaluar el aprendizaje en escuelas y colegios se unió a una multitud de voces para cuestionar los exámenes recién aplicados por el Ministerio de Educación Pública (MEP). Las críticas precedieron a la jornada de evaluación y los resultados, presentados en la conferencia de prensa del 19 de julio, confirmaron los temores iniciales.
La información proporcionada por el MEP impide sacar conclusiones inequívocas y confiables sobre el aprendizaje de los estudiantes, sus fortalezas y debilidades. Lejos de ser útiles para orientar la tarea educativa, dice la comisión, pueden conducir a conclusiones erróneas.
Con base en las pruebas, el MEP clasificó a los alumnos en tres niveles —básico, intermedio y avanzado— sin ofrecer definiciones claras del significado de cada categoría. Según los académicos, la interpretación queda en manos de cada lector del informe. Es perfectamente posible llegar a conclusiones diversas y hasta contradictorias. La analogía del semáforo utilizada por las autoridades para explicar los resultados fue calificada por la comisión de “pueril y simplista” y en nada contribuye a remediar la confusión.
La presentación de los resultados convenció al Sindicato de Trabajadores de la Educación Costarricense (SEC) de pedir la suspensión de las pruebas nacionales estandarizadas previstas para octubre y noviembre. Los exámenes, dice el SEC, carecen de base técnica y validez. La primera ronda de pruebas confirma el divorcio entre los instrumentos empleados y los criterios técnico-científicos de evaluación de los aprendizajes.
En consonancia con los señalamientos de la comisión, los sindicalistas advierten sobre el peligro de caer en confusión. “El MEP llega a conclusiones sin base técnica alguna, ubicando al estudiantado en tres grupos (básico, intermedio y avanzado), lo que generará una grave confusión para estudiantes, docentes y padres de familia, pues el ejemplo de esos tres niveles con colores del semáforo se presta para todo tipo de interpretaciones sin fundamento, y mucho menos permite retroalimentar a los estudiantes y docentes para mejorar”, afirma Gilberth Díaz, presidente del sindicato.
Las críticas surgieron desde el interior del Ministerio mucho antes de la aplicación de las pruebas a 160.000 alumnos de centros públicos y privados. Trece asesores nacionales de la entidad produjeron un documento para señalar que los cuestionarios no respondían a ningún modelo de evaluación existente. En consecuencia, dudaban de la validez y confiabilidad de los resultados.
Los funcionarios se sintieron obligados a salvar su responsabilidad y explicar que su participación en el proceso responde al principio de obediencia. El señalamiento, manifestaron, era necesario en consideración a los recursos públicos invertidos en aplicar pruebas carentes de rigurosidad técnica. Las críticas formuladas después de la presentación de los resultados reivindican los reclamos de los trece asesores.
Como ellos, la comisión y el sindicato, expertos de diversos centros académicos señalaron las falencias de las pruebas. El común denominador de los reproches es la escasa información y la falta de apertura a otros criterios a lo largo del proceso de preparación de las evaluaciones y, en general, en la toma de decisiones. El Ministerio ya está muy comprometido con el proceso iniciado después de la intempestiva eliminación de las pruebas FARO, pero hay mucho en juego después de los recientes tropiezos del sistema educativo, descritos como un “apagón”. Tanto hay en juego como para justificar un momento de humildad y reflexión.