Matemáticas en PISA 2012: luces, sombras y esperanzas (II)

INEE

En el post anterior veíamos la situación general del rendimiento en Matemáticas en PISA 2012. Vamos ahora a profundizar un poco más, tratando de desentrañar lo que está alrededor de la media.

Estudiemos las escalas de rendimiento que son las que nos dan la pista real de lo que significan los resultados: ¿cuántos alumnos hay en cada tramo de la escala?, ¿qué saben hacer?, ¿qué ignoran?

Es importante, para los que no estén familiarizados, leer las entradas sobre las escalas de rendimiento y su interpretación a las que puede accederse desde aquí y desde aquí. Son de construcción compleja, pero de interpretación relativamente fácil.

En esta figura se puede ver cómo se distribuyen los alumnos de cada país y Comunidad española, con muestra ampliada, en cada nivel de la escala. Los números representan el porcentaje de alumnos en cada tramo. Los niveles en verde son los de rendimiento alto y los marrones los de rendimiento deficiente, representando los tonos azules una zona de rendimiento medio.


Es destacable el rendimiento de algunas comunidades autónomas como Navarra, Castilla-León, País Vasco, etc. En la figura podemos observar que España, con una media baja (484), tiene en los niveles superiores de la escala de rendimiento un 8% de sus alumnos, que se eleva hasta el 15% en Navarra. Por contra, el 24% de nuestros alumnos (considerando el país en su conjunto) tienen niveles muy bajos, que descienden en Navarra al 14%. En el gráfico siguiente (ojo a la leyenda pues los colores no tienen el mismo significado que en el gráfico de países) se puede ver la situación de todas las comunidades autónomas respecto a la escala de rendimiento que estamos estudiando.



Luz y sombra. Al mismo tiempo se ve que lograr que los alumnos más capaces o implicados (o parte de ellos) rindan mejor, no supone que otros rindan peor. Bien al contrario, en el caso de Navarra mejoran los de mejor rendimiento, pero disminuyen los de peor rendimiento. ¿Recordáis aquello que ya mencioné aquí respecto al aforismo inglés de que "a rising tide lifts all boats"? Pues más claro el agua. Esto debería hacer pensar a los del igualitarismo a ultranza que, ya se ve, perjudica a todos. Y es que una atención personalizada optimiza el rendimiento de cada uno de acuerdo a sus propias capacidades, pretender que todos logren lo mismo es absurdo. No permitir que algunos lo hagan, una tragedia.

Pero ¿qué dominan los que dominan y qué no dominan los que no lo hacen? Es decir, respecto a lo que la prueba mide, ¿cuántos alumnos tenemos en cada punto? Como ya hice con los resultados de TIMSS y PIRLS, en la figura siguiente he realizado una composición de los resultados con relación a la escala de rendimiento. Podría hacerse lo mismo para cualquier otro país o Comunidad. Aquí  está realizado para el conjunto nacional.

De acuerdo con la figura y teniendo en cuenta que cada puntuación de la escala tiene asociada una referencia cualitativa, es decir, indica lo que los alumnos saben y saben hacer, o como aquí he señalado dominan o no dominan, la interpretación es directa.


Empezando por los alumnos de nivel más alto (el 6) en la distribución de frecuencias vemos que son el 1%. Éstos dominan lo que se señala para su nivel (si no podéis leer bien el texto acudid al informe nacional en la página 42) más todo lo que se señala para el resto de la escala que, como ya debemos saber, es acumulativa, lo que significa que estar en el peldaño 6 supone haber subido los 5 anteriores. Del mismo modo, el 7% de nuestros alumnos dominan lo que corresponde al nivel 5 y los inferiores. Y así sucesivamente hasta llegar al 25% de alumnos en el nivel 1, que solo dominan lo que se señala para su nivel y otro que está por debajo que no aparece en la figura (<1) (16+8).

Por el otro lado, vemos que el 25% no dominan lo que está por encima del nivel 1, el 50% lo que está por encima del nivel 2, el 76% lo que está por encima del nivel 3, el 94% lo que está por encima del nivel 4 y el 99% lo que está por encima del nivel 5 (es decir, el nivel 6).

Ahora, si fuésemos profesores de Matemáticas o expertos en la materia o dispusiésemos en nuestro país de una expectativa de rendimiento o estándar previamente establecidos, estaríamos en condiciones de decir si lo que dominan es lo que deberían dominar, o si lo que no dominan deberían dominarlo. Esto es ir más allá de la media y es el tipo de análisis de los resultados que debemos hacer. ¿Por qué? Pues porque los datos lo permiten y porque las escalas de rendimiento son una herramienta valiosísima para analizar, con detalle, lo que ocurre en nuestro sistema educativo con el aprendizaje de nuestros alumnos y así poder compararlos con lo deseable. Por eso, no podemos esperar más a determinar qué es lo deseable: los estándares de rendimiento. Pero decidir cuáles son los estándares deseables debe ser definido por los expertos, no por los evaluadores.

Cada Comunidad podrá realizar el mismo análisis con sus datos y tomar las decisiones que les parezcan oportunas. Lo que no se puede es ignorar los resultados o achacarlos a causas espúreas, simplemente porque eso ni suele ser cierto, ni contribuye a la mejora del sistema, que es para lo que la evaluación se lleva a cabo.

Lo que no es permisible es que, mientras unos y otros discuten de lo que no es relevante, nuestro sistema educativo se siga desangrando, con un nivel de alumnos en niveles de rendimiento que no asegurarán una inserción laboral, que supera los límites de lo aceptable (por no hablar de las tasas de abandono)

Y es que, aunque nuestro problema no es único, seguimos insistentemente por encima de los niveles medios de la OCDE en cuanto al número de alumnos en los niveles inferiores de rendimiento.

Esto no es ya una sombra, se está convirtiendo en una tormenta, pero no tiene por qué ser un resultado al que estemos condenados. Se puede dar la vuelta, como acabamos de ver en el caso de algunas comunidades autónomas.

Otro dato que merece toda atención es el de los alumnos en los niveles más altos, pero esto lo dejaremos para la siguiente entrada.

No hay comentarios:

Publicar un comentario en la entrada