martes, 2 de octubre de 2018

Las pruebas ESCALA y su relación con el currículo.

En Andalucía, lugar donde yo ejerzo mi labor, están institucionalizadas unas pruebas denominadas pruebas "Escala".  El organismo que las elabora y saca los datos (ojo, este organismo no las corrige) es la Agencia Andaluza de Evaluación Educativa,  la AGAEVE.

Todos los años, elabora esas pruebas, cuya realización corresponde al alumnado de segundo de primaria, y cuya finalidad es "obtener información objetiva y rigurosa sobre las destrezas de escritura, cálculo y lectura, que se adquieren en los primeros años de la escolaridad obligatoria y son básicas, ya que determinarán en buena medida la evolución escolar del alumnado".

Quisiera hacer algunas matizaciones. Las pruebas son elaboradas por la AGAEVE, cosa que ya he dicho, pero son aplicadas y corregidas por el profesorado del centro, es decir, considero que no son unas pruebas externas en el más estricto sentido de la palabra.  Se centran en Lengua y Matemáticas.

Si os apetece mirar la prueba que se realizó el curso pasado, las podéis encontrar en el siguiente enlace:

Prueba ESCALA 2018

Prueba de lectura

Pautas de corrección.


La prueba está dividida en preguntas, no son de tipo test, y cada pregunta se compone de diversos apartados que son los que se van a tener en cuenta para la puntuación.  Sí, digo bien, al final todo se reduce a una puntuación. Cada pregunta está valorada sobre 4 puntos, y dependiendo de los errores que comete el alumnado va bajando la puntuación (es una forma de verlo, otras personas dirán que todos comienzan con un 1, que es el mínimo, y a medida que van respondiendo mejor, van subiendo puntuación).

Os muestro un par de ejemplos de las pautas de corrección:



Las pruebas están previstas para que sean corregidas de forma anónima, y que durante la misma no se  deje influir el corrector o correctora por el conocimiento del alumnado, aunque me temo que eso no es real, ya que el profesorado tiene acceso a la lista de asignación de códigos a los nombres de los mismos. ¿A quién no le ha pasado que cuando está corrigiendo algo, y se extraña de una respuesta, lo primero que hace es mirar el nombre de la persona que ha hecho dicha prueba? Pues eso.

Hay un aspecto que me parece muy positivo (todo no va a ser meterme con la prueba), y es la adaptación que podemos hacer para el alumno que lo necesite. La misma agencia tiene los cuadernos en Braille para que el alumnado con deficiencia visual, pueda realizarlo. Igualmente permite ciertas adaptaciones en cuanto al tiempo que se tiene para contestar, o incluso, para el alumnado que lo necesite, permite que individualmente se le explique oralmente aquella pregunta que no sea capaz de entender. Eso es un punto a favor, lo reconozco,

Pero bien, todo esto está previsto para un estudio estadístico, aunque, ¿realmente nos da una visión del nivel competencial del alumnado?

Ahí lo dejo.

Aunque pensándolo mejor, no lo voy a dejar.

La aplicación y corrección que se hace de las pruebas se realiza por el profesorado, que ya sabe que va a ser un instrumento de fiscalización y comparación (aunque no sea ése su propósito).

El alumnado de segundo de primaria cambia totalmente todos los años, y cada grupo tiene unas características muy especiales que lo hacen ser diferente de todos los demás. Incluso, dentro del grupo hay individualidades que habría que tener en cuenta a la hora de aplicar y corregir.

Al centro le llega un informe sobre los resultados que han introducido en el programa de gestión.  Este informe compara el curso actual con los dos anteriores, y lo hacen tanto a nivel del propio centro, como con las medias de centros que tienen un ISC similar (Índice Socio Cultural),  las medias de centros de la misma zona y la media de centros de Andalucía. Quizás una imagen aclare un poco más esto.


Para aquellas personas que no conozcan esto, comento que el apartado tendencia contiene un triángulo que puede ser de tres colores: rojo (tendencia a la baja y preocupante), amarillo, (tendencia irregular y que hay que tener en cuenta) o verde (tendencia positiva). Igual ocurre con la relevancia.

A partir de estos datos el centro tendrá que analizar y hacer propuestas de mejora, en su caso, para que los triangulitos se conviertan en verdes.  Si bien esto es perfecto, y me refiero al análisis y posterior planteamiento de mejoras, las actuaciones que se tomen deben incidir en el grupo/clase que ha realizado la prueba, pero comparar los datos de grupos anteriores con los datos obtenidos del grupo actual,... me parece que hay muchas cosas que cambian de un alumnado de segundo al que hemos tenido o vamos a tener en otros cursos escolares.

Al fin y al cabo, esto no deja de ser un "examen" que, con otro tipo de preguntas (menos mal que no son memorísticas) no corresponden al desarrollo "normal" de los hábitos de trabajo o de la metodología que llevemos en nuestras clases.

Variando un poco el tema, y dejando aparte el valor estadístico, hay otro aspecto que me gustaría resaltar, y es la poca  unión que hay entre lo que se pretende evaluar y el currículo establecido por normativa.

No quiero quedarme sólo en la crítica, no es mi estilo, y por ello hago una propuesta aunque supongo que no llegará lejos.

La propuesta en concreto es que en la próxima versión de las pruebas, en lugar de escoger y/o evaluar dimensiones y elementos de competencia, se tomen como referentes las criterios de evaluación que actualmente están fijados en la normativa. Pienso que así evitaríamos una dicotomía entre lo que "evalúa" la prueba y lo que se realiza en los centros desarrollando el actual currículo. Sería una cosa más real, tanto para el profesorado que tiene que corregir las pruebas, como para el alumnado. Es más, esta prueba puede tener un gran valor de evaluación si se traspasan los datos obtenidos a la evaluación continua que hace el profesorado, ya que reflejaría en estado real de consecución de su propia programación que realmente está basada en los criterios y/o indicadores y no en las dimensiones y elementos de competencia. En algunos casos (por ejemplo en plantear y resolver problemas) lo único que habría que hacer es asociar la dimensión/elemento al criterio, cosa que no sería tan difícil.

¿Cuál sería el problema? Pues seguramente el "no" estaría basado en que ya no se pueden comparar estadísticamente las pruebas de años anteriores con las que se desarrollen si se sigue este nuevo modelo. Es decir, ya no podemos comparar.

Por otro lado, si consideramos que esto debería ser una herramienta más del profesorado, faltaría un análisis detallado de las causas por las cuales el alumnado no saca ese "cuatro", pero no a nivel de grupo, ni de centro, sino a nivel individual.  Sí, ya sé, esto es materialmente imposible de realizar con la gran carga de trabajo que el docente tiene.

Pero yo, por intentarlo,...







No hay comentarios:

Publicar un comentario