En Octubre del 2011 compartí en este espacio una entrada titulada Por mi culpa, por mi culpa, por mi gran culpa, en donde daba cuenta del crecimiento de una corriente de reflexión orientada a brindar un mayor espacio al reconocimiento de los errores que se cometen en las acciones de desarrollo, cooperación y ayuda humanitaria. También señalaba como expresión relevante de dicha tendencia lo que se mostraba en el sitio Admiting Failure, el cual ahora tiene en su portada una síntesis muy directa de sus propósitos: la comunidad del desarrollo está fallando… en aprender del fracaso. En lugar de reconocer dichas experiencias como oportunidades de aprendizaje, las escondemos por miedo y vergüenza.
En el mundo de la evaluación esta tendencia no ha resultado ajena. Mientras que en América Latina el enfoque de la Sistematización de experiencias ha venido planteando con claridad que hay un desafío no sólo metodológico o técnico en aprender de nuestras prácticas, sino fundamentalmente político, desde otros contextos también se ha acentuado la pertinencia y relevancia de aprender de los errores como componente clave de una evaluación genuina.
Más recientemente, y fruto del incansable trabajo como editora de Marie Gervais, el Canadian Journal of Program Evaluation publicó un número especial para conmemorar su 25º aniversario. El foco del mismo estuvo puesto en cómo aprovechar y aprender de evaluaciones que no resultaron «exitosas», vale decir, no alcanzaron los resultados esperados. En la introducción del número se desarrolla la discusión sobre cómo entender la noción de «evaluación exitosa» , dando cuenta con cierto detalle de la razón del lema del número especial: How to Take Advantage of Less-Than-Successful Evaluation Experiences. La motivación por este foco temático parte de reconocer la poca reflexión que los evaluadores suelen dar a su práctica (con la excepción de los aspectos metodológicos), y -peor aún- el poco aprendizaje realizado como colectivo sobre dichos errores. ¡Tremenda paradoja para la trans-disciplina!
Es interesante analizar cómo apenas un cuarto de los convocados para este número finalmente completaron la tarea, aceptando la invitación y presentando un artículo. Las razones para ello no obedecieron tanto a dificultades de tiempo o demandas laborales, sino a lo incómodo que resultaba para distintos evaluadores el escribir sobre sus experiencias más problemáticas y menos «exitosas» en su quehacer evaluativo. Esto es señalado y repensado también por los dos comentaristas de lujo con que contó el número especial, Ross Conner (ex-presidente de la American Evaluation Asociation y de la IOCE) y Michael Q. Patton (de quién hablamos antes aquí).
Pues bien, junto al colega y amigo Rafel Monterde-Díaz (bloguero de Evaluateca) preparamos un artículo que forma parte de este número, reflexionando sobre la cultura de la evaluación a partir de un caso que sin duda fue «poco «exitoso». Valga este espacio para compartir tanto la versión publicada en inglés, como así también su versión original en castellano. Queda abierta la sección comentarios para los ídem, mientras aprovechamos la visita de Rafael por estas australes comarcas (si bien la foto ilustra mi visita a su tierra, Valencia, momentos antes que nos invitaran a subir al patrullero que se asoma detrás… 😉 )
Me queda resonando en la cabeza…»el inmenso desafió de ver AL FRACASO COMO OPORTUNIDAD para aprender de la práctica».
Desde mi humilde opinión, creo que para lograrlo es primordial el tema de desarrollar una actitud crítica y reflexiva con relación a la práctica y de esta manera extraer de ella y de nosotros mismos/as los aprendizajes, que obtuvimos viviéndolas. Al mismo tiempo, considerar a la evaluación como la base y el medio para construir y mejorar nuestras prácticas y no como una mera instancia de valoración.
Me gustaMe gusta
Pablo y Rafael, interesante planteamientos, la verdad creo que muchas personas en algún momento nos hemos enfrentado a este tipo de situaciones. Así que reflexionar sobre estas experiencias son importantes para mejorar y para personas que recien vamos dando los pasos en esto de evaluar lo tengamos de ejemplo. Sin embargo, creo que también hay que tener claro que a veces el problema no rádica en la elección metodológica, los argumentos basados en evidencias, aveces quien encarga la evaluación simplemente quieren escuchar lo que quieren escuchar. No ven el programa de una forma holistica, así tenes que decirles si hay resultados o no, si se cumplierons los objetivos o no. Muchos entidades comanditarias casi te dicen lo que quieren que el documento diga. entonces, qué hacer?
Por ello, cada vez más, creo que hay que revisar de manera crítica la evaluación desde los marcos que se manejan en la academia. Desde la pretendida objetividad, de eso de menos «pasión». Ahí como dice la Dona Haraway, habrá que pensar en una «objetividad parcializada». Como mi campo es la evaluación con perspectiva de género y mi marco es la teoría feminista, cada vez más me cuesta asumir ese tipo de posturas y éste tipo de ejercicios cuya episteme se basan en una forma de contrsucción del conocimiento no solo masculina sino eurocentrada.
Con esto no quiero decir que hay que renunciar a desarrollar procesos evaluativos, pero hay que darle una vuelta, no solo crear listas estandarizadas que son creadas por expertos o las bases élites de los programas o proyectos.
Abz
Eveling C
Me gustaMe gusta
Gracias Eveling por tu comentario. Es cierto que muchas de las dificultades que uno se enfrenta al evaluar pasan por donde vos dices, y seguramente desde los estudios del género tendrás un «oído» u «olfato» particularmente crítico para las cuestiones del poder y sus disfraces. En cuanto a revisar de manera crítica la evaluación desde los marcos de la academia, no puedo estar más de acuerdo, si con ello queremos decir que además del saber técnico y específico de hacer evaluación, estamos sumando una mirada que reconocer que lo técnico es necesario pero nunca suficiente para estructurar un producto relevante y de impacto, en este caso, una evaluación. Las cuestiones del poder necesitan ser develadas, como primer paso, para encontrarle la vuelta a su resolución. Los componentes participativos, seriamente encarados, son una forma de sumar voces y perspectivas a los procesos evaluativos.
Gracias, y nos seguimos leyendo…
Me gustaMe gusta