Evaluación para el aprendizaje

Actualidad y

Tendencia

Dilemas en evaluación que abren posibilidades

Uno de los desafíos actuales en el ámbito de la evaluación es poner en diálogo la teoría con la experiencia cotidiana de los profesores e instituciones. Podría decirse que en Chile esto es urgente, pues existe una separación entre académicos y expertos en evaluación, y profesores que evalúan cotidianamente en el aula.

Uno de los desafíos actuales en el ámbito de la evaluación es poner en diálogo la teoría con la experiencia cotidiana de los profesores e instituciones. Podría decirse que en Chile esto es urgente, pues existe una separación entre académicos y expertos en evaluación, y profesores que evalúan cotidianamente en el aula.

Uno de los desafíos actuales en el ámbito de la evaluación es poner en diálogo la teoría con la experiencia cotidiana de los profesores e instituciones. Podría decirse que en Chile esto es urgente, pues existe una separación entre académicos y expertos en evaluación, y profesores que evalúan cotidianamente en el aula.

Uno de los desafíos actuales en el ámbito de la evaluación es poner en diálogo la teoría con la experiencia cotidiana de los profesores e instituciones. Podría decirse que en Chile esto es urgente, pues existe una separación entre académicos y expertos en evaluación, y profesores que evalúan cotidianamente en el aula. Esto implica que profesores e instituciones, al verse enfrentados a la necesidad de evaluar y calificar, casi no disponen de referentes teórico-prácticos que orienten o faciliten su labor. En este contexto se inscriben algunas relaciones entre teoría y práctica, que desarrollaremos a continuación.

Uno de los enfoques dominantes hoy en evaluación es la “Evaluación para el Aprendizaje”, cuya inspiración fundamental es el aprovechamiento pedagógico de la evaluación, entendiendo a esta como parte del proceso de aprender, y no como un momento aislado de medición para poder calificar. Este enfoque ha generado, entre otras consecuencias valiosas, una expansión del concepto de validez, pues, si lo que interesa es aprender, ya no basta con que el instrumento esté bien construido, es decir que tenga validez de contenido (evalúa lo que pretende evaluar), sino que también debe tener validez instruccional y validez consecuencial. La validez instruccional alude a la relación que debe haber entre la evaluación y las clases que la preceden, es decir, evaluar lo que efectivamente se trabajó en clases. La validez consecuencial refiere a los efectos de la evaluación; por ejemplo, entregar valiosa información que oriente las planificaciones, motivar a los estudiantes, etc. Puede verse claramente la perspectiva temporal que reúne a estas dimensiones de la validez, pues al momento de evaluar debo tener en cuenta lo que ya hice en clases y lo que haré con los resultados y efectos de mi evaluación.

A continuación describiremos algunas propuestas sobre cómo enfrentar algunos dilemas que se producen al intentar aplicar estos tres tipos de validez. En particular, nos enfocaremos en decisiones que a diario debemos tomar al momento de construir una prueba que, además de evaluar, califica.

Un dilema que enfrentan muchos profesores es el siguiente: la teoría les dice que se debe procurar evaluar diferentes habilidades, algunas más cercanas a los procesos sicológicos de la memoria y la atención, y otras más cercanas al proceso sicológico del pensamiento, y que además se debe velar por la validez instruccional y consecuencial. La práctica les dice que todas las preguntas en las que el estudiante requiere pensar, no tienen validez instruccional, pues precisamente, al pensar, el estudiante ejecuta acciones mentales que no ejecutó en clases. Dicho en un lenguaje más simple, ¿por qué complicar a los estudiantes con algo nuevo, que no tendrían por qué saber? ¿Acaso no es legítimo objetar que “eso no lo vieron en clases, por tanto, no tendrían por qué saberlo”?[1]

Una primera respuesta que puede darse, es que en evaluación frecuentemente nos sentimos enfrentados a dilemas insolubles cuando las ideas y principios los asumimos como leyes inamovibles y no como criterios que nos sirven para orientarnos. Justamente, en este caso pareciera que algo debemos sacrificar. Un modo de resolver el dilema es observar críticamente nuestras clases, juzgando en qué medida hemos hecho pensar a nuestros estudiantes.

Si pensar es una actividad[2]frecuente en el proceso de “instrucción”, es decir, si acostumbramos resolver problemas no rutinarios, hacer interpretaciones no sugeridas en los textos, generar hipótesis científicas que expliquen un hecho, etc., entonces podríamos decir que “tenemos derecho” a evaluar habilidades complejas y podemos “responder” que, si bien efectivamente esas preguntas son “nuevas”, ha sido parte del proceso de aprendizaje enfrentar lo nuevo, aquello para lo cual no basta con la aplicación mecánica de conocimientos, o con el establecimiento de relaciones sencillas. Evidentemente, si no hacemos eso en clases, la crítica es válida, y efectivamente al momento de evaluar la capacidad de pensar, no se manifestarán aprendizajes logrados en clases, sino más bien el grado de talento que se reparte desigualmente entre los estudiantes.

Cabe comentar que construir instrumentos que cubran distintas habilidades (sobre todo las asociadas al pensamiento) es un gran desafío a todo nivel. Prueba de esto son los procesos de construcción de pruebas internacionales como PISA, TIMSS y NAEP. Para elaborar estos instrumentos, por un lado se definen ejes de habilidades o dominios cognitivos (esto puede verse en sus Marcos de Evaluación) y, por otro se construyen preguntas que son clasificadas de acuerdo a esos ejes de habilidades. Esta relación entre idea y materia permite observar el modo concreto en que se evalúan las habilidades definidas para cada asignatura. Es interesante acotar que, tras 20 años de experiencia, los constructores de estas pruebas han arribado a un relativo consenso al distinguir 3 grandes ejes de actividad cognitiva: uno básico (donde prima la memoria y la atención), uno superior (donde prima el pensamiento), y uno intermedio caracterizado por una actividad cognitiva donde se aplica de manera simple lo que recordamos, usando un tipo de pensamiento rudimentario. Este consenso muestra que definir habilidades, y modos de evaluarlas a través de preguntas, no es un asunto sencillo ni objetivable, y cobra sentido cuando facilita el diálogo en una comunidad.

Sugerimos aprovechar la información desarrollada por mediciones internacionales para el trabajo en aula, pues son un punto de referencia que puede orientar la construcción de nuestros instrumentos, sobre todo respecto a cómo relacionar definiciones de habilidades con preguntas. La relación es en ambos sentidos: cómo evaluar determinadas habilidades, y cómo definir cuál es la habilidad central que evalúa cada pregunta (es esencial la coherencia en el conjunto de definiciones, pues definir adecuadamente la habilidad de cada pregunta depende de si somos coherentes con cómo definimos las habilidades en las otras preguntas).

El material de estas pruebas está disponible[3]en los siguientes sitios web:

PISA

http://www.simce.cl/index.php?id=103&no_cache=1

http://www.oecd.org/pisa/pisaproducts/

http://www.oecd.org/pisa/39732603.pdf

http://www.mecd.gob.es/inee/Recursos.html

TIMSS

http://www.simce.cl/index.php?id=100&no_cache=1

http://timss.bc.edu (Por ejemplo TIMSS 2007 Matemáticas)

http://timss.bc.edu/TIMSS2007/frameworks.html

http://timss.bc.edu/TIMSS2007/items.html

NAEP

http://nces.ed.gov/nationsreportcard/itmrlsx/landing.aspx(seleccionar asignatura)

Nota: para buscar más material en internet considere que Marcos de Evaluación se ha traducido tradicionalmente como Assessment Framework y a las Preguntas se les llama Items. Con navegador google chrome es posible hacer una traducción básica de los contenidos de las páginas.

Un segundo dilema que suelen enfrentar los profesores es el siguiente; la palabra evaluar proviene de la raíz “dar valor” a ciertos elementos por sobre otros, y la teoría nos dice que debemos evaluar lo trabajado recientemente en clases (validez instruccional). La práctica dice que muchos estudiantes arrastran vacíos por años, los cuales además de representar un déficit en sí mismo y generan severas limitaciones para aprender nuevos temas. Esto provoca una suerte de círculo vicioso, en el cual el “mal” estudiante carga con vacíos que se alimentan entre sí . Pues bien, si quiero que esos vacíos se superen, sería ideal darles valor incluyéndolos dentro de mis evaluaciones, pero para eso debo trabajarlos en clases, y en la práctica hacer eso es casi imposible. Si sigo adelante y me desentiendo de los vacíos en las evaluaciones que realizo, estos se seguirán reproduciendo y el estudiante aprenderá cada vez menos. ¿Qué hacer?

Obviamente el problema es complejo. Una forma de enfrentarlo es construir pruebas (u otros instrumentos de evaluación) en las que existan algunas preguntas optativas que, si no se responden, no afectan la nota, y solo benefician en caso que se respondan correctamente. De esta forma, el estudiante es incentivado a desarrollar ciertos aprendizajes que no pudieron ser tratados en clases, pero si él los desarrolla recibirá un beneficio en su calificación. El profesor transmite así que es importante que cubra esos vacíos y no transgrede la validez instruccional. En suma, tenemos una prueba que evalúa lo trabajado en el último período, y eso basta para alcanzar la nota máxima, y además tenemos preguntas que aumentan la nota, o bien generan décimas para pruebas posteriores o el promedio final.

El recurso de incluir preguntas optativas no solo es útil para fomentar el aprendizaje de conocimientos básicos, sino que también podría apuntar a aprendizajes de la unidad anterior, o desafíos que demandan pensar con mucha profundidad, o aprendizajes transversales que interesa enfatizar.

Parece deseable transmitir estos 4 mensajes de lo que es valioso, abriendo así oportunidades para el espectro de estudiantes: desde el que se está quedando atrás, hasta el que puede ir muy lejos solo. La prueba presenta así desafíos alcanzables para todos, y según sabemos, eso motiva a los humanos. Otro mensaje que está implícito es que la asignatura es un conjunto de aprendizajes interrelacionados y que lo “pasado” sigue siendo valioso, al punto que se evalúa.

Para cerrar, cabe señalar que estas respuestas son fruto del cruce de varios puntos de vista, tanto de trabajadores dedicados a la teoría, como de otros dedicados a la práctica. Tal como ocurre hoy en otros países, llegará el día en que quiénes hacen teoría estarán inmersos en la práctica, y los profesores de aula estarán haciendo teoría, dentro de la cual ocupará un espacio la teoría que no se agota en las soluciones a los problemas prácticos.



[1]Obviamente que este cuestionamiento proviene normalmente del mismo profesor, pues el evaluado rara vez tiene elementos para mirar críticamente cómo está siendo evaluado.

[2] Realizar actividades de clases centradas en el pensar no consiste solo en plantear desafíos, sino también en analizar los modos en que enfrentamos dicho desafíos. Esta actividad meta-cognitiva considera tanto el proceso cognitivo como el afectivo (más globalmente el proceso subjetivo), pues pensar supone un espacio de exploración en medio de la confusión o desorientación que provoca lo nuevo.

[3] Cabe notar que estas pruebas internacionales, al hacer público lo que pretenden evaluar y las preguntas aplicadas, se exponen a la crítica respecto a su validez de contenido, pero nadie podría cuestionar que esa exposición tiene efectos muy provechosos (validez consecuencial) para comunidades educativas, profesores, etc. También ha habido acuerdo internacional en asumir que un mínimo de transparencia al evaluar obliga a mostrarle al evaluado qué y cómo lo estoy evaluando. De manera análoga a un juicio penal, no parece honesto hacer juicios sin transparentar las pruebas.

[4] Esto ocurre sobre todo en disciplinas como matemáticas, cuyo aprendizaje se asemeja a la construcción de un edificio en el cual la solidez de las bases determinan la cualidad de los pisos posteriores.