Evaluaciones que marcan la diferencia: se busca narrador

.

En entradas anteriores hice referencia al proyecto “Evaluaciones que marcan la diferencia: historias de todo el mundo”, el cual apunta a rescatar la perspectiva de los usuarios de evaluación (gerentes de programa, funcionarios, técnicos, donantes, etc.) sobre usos de la misma que hayan resultado en una mejora de algún tipo en la situación de los actores que son parte interesada.  Para ello, se ha elegido la opción de presentar historias de evaluación, como forma de llegar a diversos públicos y audiencias. 

 
Featured imageYa se ha realizado la elección de las diez historias que conformarán el compendio de historias de evaluación, una de ellas por la región de América Latina y el Caribe.  En la instancia actual, nos encontramos en la búsqueda de un narrador para escribir dicha historia de evaluación. Se cuenta con un pequeño estipendio para ello, si bien se reconoce que el trabajo será mayormente voluntario. 
 
El trabajo del narrador consistirá en indagar sobre la evaluación desde la perspectiva de aquellos que resultaron finalmente afectados por el acto de ser evaluado. El narrador tendrá que ser capaz de extraer historias humanas que muestren el impacto de la evaluación tanto en los usuarios de la evaluación como en la comunidad en general.
.
Algunas características deseables del narrador buscado son las siguientes: 
  • ser capaz de pensar y comunicar con un estilo periodístico.
  • contar con habilidades para realizar entrevistas
  • habilidades de escritura flexible y creativa
  • ser capaz de comunicarse con distintas audiencias
  • trabajar en coordinación con un consejo editorial que orientará el trabajo de narración
.
Les agradeceré enormemente puedan difundir esta búsqueda entre potenciales candidatos. Aquellos interesados, por favor escribirme directamente a pablo@albordedelcaos.com
 

VOPEs, asociacionismo, y evaluación… una #eval conversación

Leía este fin de semana un post del colega Carlos Rodríguez-Ariza sobre Asociacionismo en Evaluación (palabra que me suena extraña a mí, y que ni el diccionario de la computadora me la reconoce, pero si un castizo como el aquí referido la utiliza, pues habrá que incorporarla :-) ). Carlos comenta algunas de sus contradictorias vivencias  en la reciente conferencia de la Sociedad Europea de Evaluación en Dublín, a la vez que sostiene que ser crítico de cómo funcionan algunas cosas, no quiere decir que las cosas no sirvan ni que no puedan funcionar mejor.

Concretamente, “la cosa” en cuestión es el asociacionismo expresado en las redes, sociedades, comunidades de práctica, y asociaciones de Evaluación. He comentado antes cómo desde la iniciativa EvalPartners se está usando crecientemente la sigla VOPEs para englobar a todas esas distintas formas de aglutinamiento, a las que refiere como Organizaciones Voluntarias para la Evaluación Profesional.

Si no lo he interpretado mal, Carlos sostiene lo siguiente:
1) el tema del asociacionismo en evaluación está de moda (y cita ejemplos de España para ello);
2) sin embargo, es una deuda que las VOPEs cumplan su importante función social: carrera profesional, superación de la fragmentación y aislamiento del colectivo de evaluadores, desconexión entre “bases” y “elites” de las VOPEs;
3) problemas que podrían superarse si, al menos e inicialmente, tomaran de su propia medicina, esto es, la evaluación de las VOPEs mismas

Más fácil decir que hacer, más fácil sintetizar que producir, no?  Veamos algunas reacciones que este planteo me genera:

Featured image1) Confieso que me cae antipática la idea de “moda” para dar cuenta del boom de las VOPEs y su crecimiento. ¿Será que el
hablar de moda me remite a algo superficial o frívolo? No lo sé, ni importa mucho, pues el hecho de fondo es completamente cierto. El crecimiento en número de las VOPEs es innegable, tal cual lo muestra este cuadro armado por Jim Rugh hace poco tiempo.
También es cierto que, mientras las primeras VOPEs nacieron en América del Norte y Europa, ahora el fenómeno expansivo toma al “resto del mundo”: Europa del este, África, América Latina, Sud-este asiático, etc.  La misma iniciativa EvalPartners nace no sólo con un foco en las VOPEs, sino que considera que las mismas son la masa crítica que se ha generado y que permite avanzar en direcciones de articulación y vinculación diversas.  Si nos remitimos solamente a su mera existencia, el número creciente de VOPEs marcaría un fenómeno de “moda” estadística ;-) : ¿habrá otras asociaciones profesionales que hayan crecido tanto en la última década como en el campo de la evaluación? seremos entonces el valor con una mayor frecuencia en una distribución de datos?). Pero esto no termina de decir mucho sobre el punto siguiente: la calidad de las VOPEs

Featured image2) La función social de las VOPEs… Es interesante la adjetivación del rol de estas asociaciones, que puede ir un poco más allá (o no tan poco) de la mera función gremial. Por lo que uno ve, conoce y conversa, hay déficits compartidos allende los mares y los puntos cardinales a los que refiere Carlos en su post. En tal sentido, me parece clave la mención a la mutua y  pobre rendición de cuentas entre “bases” y “no-bases” (vamos, hombre, que elites me suena a S.W.A.T.…).  Y dado que me ha tocado estar de ambos lados del mostrador, me parece central e importante este punto, máxime cuando esta pobre rendición de cuentas es sentida por ambos lados, pero pocas veces pedido claramente.

3) Evaluando las asociaciones de evaluación…  Suena como ¿quién le pone el cascabel al gato, no?.  A decir verdad, la única experiencia que se me ocurre es muy reciente -en curso, para ser exactos- y tiene que ver con la evaluación de medio término que ha encargado EvalPartners sobre su mismo accionar. En este caso, no es precisamente una VOPE -quizás la evaluación ayude a entender mejor qué creemos que es quienes en ella participamos-, pero es tomar (con gusto, diría yo) nuestra propia medicina.

Recapitulando… y abierto a sus comentarios:
i) La “moda” de las VOPEs… vale la pena indagar, creo yo, motivaciones y fuerzas subyacentes a este florecimiento.

ii) Función social de las VOPEs… ¿compartimos el diagnóstico sobre sus déficits mayores? ante eso, ¿cómo actuar?

iii) ¿Alguna experiencia conocida de evaluación de una VOPE?

Veamos…

Dos años de Better Evaluation… o @bettereval para los amigos ;-)

En ocasión del Blog Action Day 2012, cuyo lema fue “El poder del nosotros” publiqué una entrada aquí saludando el nacimiento de Better Evaluation. Luego, en el 2013 festejé con alegría su primer añito de vida ;-), y como el tiempo pasa para tod@s, ya estamos en su segundo aniversario. Creo que vale la pena leer el recuento y planes a futuro que hace una de sus alma matter, Patricia Rogers.  Feliz Cumpleaños, Better Evaluation!! (y que cumplas muchos más…) 

Celebrando dos años desde que salimos al aire!

Captura de pantalla 2014-10-17 a la(s) 11.38.59Por Patricia Rogers
Publicado originalmente en Week 41: Celebrating two years since going alive!

Hace dos años, durante la conferencia de la Sociedad Europea de Evaluación en Helsinki, el sitio BetterEvaluation.org se puso en marcha para el acceso público. Habíamos estado trabajando con un grupo internacional de beta-socios para desarrollar el sitio antes de este tiempo.

El proyecto BetterEvaluation surgió de una comprensión de la necesidad de:

  • conectar los diversos esfuerzos para orientar sobre los diversos métodos de evaluación y facilitar el acceso a materiales de alta calidad
  • identificar dónde había lagunas en la guía  y ejemplos de métodos, y trabajar para crear estos
  • brindar un marco conceptual para pensar acerca de los métodos de evaluación que impliquen buenas prácticas en el diseño de la evaluación – en particular, a través de los propósitos y la intención de uso de la evaluación antes de decidir los métodos de recopilación de datos
  • proporcionar una plataforma para conectar la práctica , la investigación, y el desarrollo de evaluación, así como el desarrollo de capacidades.

Ahora, gracias a los esfuerzos de muchas personas y colaboradores de todo el mundo, el sitio BetterEvaluation ha crecido considerablemente.

Tenemos un creciente número de páginas que han sido escritas por  expertos, las que proporcionan una visión general clara de métodos, procesos, enfoques o temas, consejos  y recursos recomendados. Contamos con un número creciente de ejemplos que muestran los métodos de evaluación y los procesos en la práctica. Y tenemos un número cada vez mayor de recursos y otros materiales en una variedad de idiomas.

Captura de pantalla 2014-10-17 a la(s) 11.51.00Además del sitio, también ha habido una serie de eventos en todo el mundo y de manera virtual, incluyendo talleres de redacción, una serie de seminarios online, en colaboración con la Asociación Americana de Evaluación, y cursos cortos y presentaciones. También hemos estado trabajando con UNICEF y 3IE para producir una serie de informes y videos sobre la evaluación de impacto que estarán disponibles pronto.

La infografía celebra lo que hemos logrado juntos en los últimos dos años. En el próximo año, estamos apuntando a construir sobre esto, incluyendo lo siguiente:

 

Ampliación de la cobertura de material en otros idiomas además del Inglés.

Es importante ser capaz de aprender de la evaluación en diferentes idiomas. BetterEvaluation ofrece un espacio para la publicación de materiales en diferentes idiomas, traducción de material de uno a otro idioma, y proporciona enlaces a eventos y debates en diferentes idiomas.

El Marco del arco iris (que describe las diferentes tareas involucradas en la evaluación, cada una de las cuales tiene diferentes métodos y procesos) está ahora disponible en francés y portugués -próximamente en árabe y alemán , y otras lenguas se sumarán luego.

Hemos añadido “landing pages” en albanés, francés y portugués – con Bahasa Indonesia próximamente.

 

Abordando la complejidad en la evaluación

A través de talleres, práctica documentada, y pruebas de campo, vamos a seguir explorando maneras en que la evaluación puede abordar los distintos aspectos de la complejidad en las organizaciones, los programas y las políticas.

 

Las teorías de cambio y los modelos lógicos

Vamos a explorar los diferentes procesos que pueden ser utilizados para desarrollar, representar y utilizar teorías del cambio en la evaluación, incluyendo el desarrollo de una galería de diagramas que muestran no sólo diferentes formas de representar las teorías del cambio, sino también documentan la forma en que se han utilizado.

 

Puesta en marcha y gestión de las evaluaciones externas

Trabajando con el Centro Internacional de Investigaciones para el Desarrollo (Canadá), el Departamento de Asuntos Exteriores y Comercio (Australia), y la Fundación MasterCard, estaremos desarrollando y realizando pruebas de campo para los administradores de programas para planificar, comisionar y gestionar evaluaciones externas. Esto se basa en la labor realizada previamente con el New South Wales Department of Premier and Cabinet and the NSW Treasury para desarrollar el kit de herramientas de evaluación de NSW.

 

Evaluación de impacto no-experimental

Aunque ahora existe considerable información acerca de cómo administrar y llevar a cabo evaluaciones de impacto experimentales y no experimentales efectivamente, todavía sigue siendo insuficiente el asesoramiento y la orientación sobre el uso de enfoques no experimentales como el trazado de proceso (process tracing), análisis comparativo cualitativo, y los estudios de casos comparativos. Nos basaremos en el desarrollo de una guía para el Reporte Colaborativo de Alcances y en pruebas de campo documentadas.

 

Las innovaciones en la evaluación

Sobre la base de nuestro trabajo con la Asociación Africana de Evaluación y el  IPDET 2014 (Programa Internacional de Formación en Evaluación del Desarrollo), vamos a seguir poniendo de relieve ejemplos de innovación en evaluación, y explorar cómo estos pueden ser adoptadas y adaptadas por otras organizaciones con éxito.

 

Si te gustaría ser parte de alguno de estos proyectos, por favor ponte en contacto – y suscríbete al boletín, donde te mantendremos informado de las novedades y oportunidades para contribuir.

Y para celebrar nuestro segundo cumpleaños, echa un vistazo a la infografía – y descarga tus propias copias del marco del arco iris.

Captura de pantalla 2014-10-17 a la(s) 11.35.20

Evaluación, equidad e igualdad. #BAD2014 & #Eval

evaluacion_santosguerra
Las buenas noticias sobre desigualdad parecen venir ahora de América Latina, si bien hay que mirar todos los datos con mucha atención, a fin de no tener una visión engañosa del asunto.  Como fuere, el tema de la desigualdad se está colocando en el centro de la escena del desarrollo internacional, y más allá. Otra muestra de ello resulta cuando el actual Blog Action Day 2014 nos invita a conversar sobre la desigualdad.

En el campo de la evaluación, por ejemplo, resulta creciente el impacto de la vecina (aunque no idéntica) noción de equidad.  Muestra de ello son algunas de las recientes conferencias internacionales de evaluación y el espacio dado a este tema.  La Sociedad Europea de Evaluación tuvo a principios de este Octubre su 11º conferencia bianual con el tema Evaluación para una Sociedad Equitativa. En esta misma semana tiene lugar la (mega) conferencia de la Asociación Americana de Evaluación, con su tema Evaluación visionaria para un futuro sustentable y equitativo, mientras que la ReLAC -Red de Seguimiento, Evaluación, y Sistematización de América Latina y el Caribe- tendrá su IV Conferencia en Lima, Perú, en Marzo del 2015, con el tema El futuro de la Evaluación en América Latina y el Caribe: desarrollo, equidad y cultura.

Entonces, prestemos atención a algunas diferencias semánticas para presentar el tema de la equidad, y su creciente importancia en las discusiones en el campo de la evaluación.  Mientras que las dificultades en el logro de resultados de igualdad -siendo éste un claro objetivo estratégico- se presentan como enormes y de una escala que excede las capacidades de programas y proyectos (¿y políticas también?), el asunto de la equidad parece ser una dimensión que está mucho más a la mano de intervenciones de desarrollo y su evaluación.  La consideración de la equidad remite a tener presente las necesidades y requisitos particulares de grupos humanos determinados.

John Donnelly reflexiona que la equidad en general (y en particular en la evaluación) es portadora de una dimensión ética, que implica reconocer que tratar a las personas de igual modo -igualitariamente- en algunos casos puede resultar poco ético. Él considera que en el campo de la evaluación hay tres áreas que deberían tener a la equidad como objetivo:

a) la recolección de información: los informantes deben haber vivenciado la equidad en primer lugar en la intervención objeto de evaluación, así como ser capaces de tomar parte en la evaluación vía el uso de instrumentos apropiados para todos ellos (por ejemplo, no usar cuestionarios a auto-completar si parte de los informantes no leen o escriben)

b) los hallazgos o conclusiones: si las personas no han podido realizar una contribución informada a la evaluación, ello impactará directamente en la calidad de  los resultados de la misma, así como muy posiblemente afectará a grupos particulares.

c) en las recomendaciones fruto de la evaluación: derivado de lo anterior, sin un foco explícito en el logro de equidad en esta dimensión, los resultados para la misma intervención evaluada (u otras similares y/o futuras) será inequitativo. Particularmente fuerte es la idea que la ausencia de un foco en equidad, puede convertir al proceso de evaluación en uno que termine alienando a los actores partícipes de la evaluación (ver el artículo completo de John Donnelly aquí)

La equidad en evaluación se ve reforzada por la participación de hombres y mujeres que deseen tomar parte en ella, en el examen de los hallazgos (análisis) para determinar las conclusiones (lo que se logró) y las recomendaciones (qué podríamos hacer mejor la próxima vez). Este nivel de participación no sólo es equitativo y ético, sino que a la vez mejora la equidad en futuros proyectos / actividades / intervenciones. John Donnelly

Para los interesados en la evaluación y este foco en la equidad, pueden consultar este ya clásico material, Cómo diseñar y gestionar evaluaciones centradas en la equidad, editado por Michael Bamberger y Marco Segone. Y para los que quieran tener una visión rápida e ilustrativa, pueden inspirar sus pensamientos con algunos de los dibujos… (y es intencional lo de “inspirar pensamientos”… le preguntaré a Patricia Rogers  si tiene escrito por ahí algunas reflexiones bien desafiantes que le escuché hace poco sobre el siguiente  cartoon… )

.
igualdad equidad

Herramienta para Medir el Nivel de Participación en una #Evaluación. #eval

bouton_evalJunto a las colegas Rosa Parés Canela y Julia Brandiarán tuvimos recientemente la oportunidad de colaborar en la traducción al Español de la Herramienta para Medir el Nivel de Participación en una Evaluación (ya existía versión en Inglés y Francés de la misma) . Esta herramienta fue desarrollada y validada empíricamente por  Pierre-Marc  Daigneault y Steve Jacob a fin de medir el nivel de participación de distintos stakeholders en una evaluación dada.

participaciones En sus trabajos analíticos, los autores sostienen que la ontología de la evaluación participativa no ha sido lo suficientemente analizada, por lo que el concepto resulta ambiguo y pobremente teorizado, por lo que se explica la ausencia de instrumentos para su valoración. Por tanto, esta herramienta de medición del nivel de participación surge como respuesta a ese vacío, y como expresión de una interesante discusión conceptual. 

Me ha parecido un acercamiento valioso y profundo, el cual procuraré integrar en un nuevo curso sobre Seguimiento y Evaluación Participativa, como el que preparamos con la colega Gloria Vela en el marco de la iniciativa EvalPartners

La herramienta ya está disponible para su consulta y uso en la página de PerƒEval, laboratorio de investigación de l´Université Laval acerca del desempeño y evaluación de la acción pública. 

Quedan tod@s invitados a visitarla y utilizarla…

Gestión del Conocimiento para el Desarrollo – #KM4dev & #Eval

(fragmento del EDITORIAL  del Número especial 2014 en castellano y portugués de la revista KM4Dev)

La revista KM4Dev es una revista sobre gestión del conocimiento para el desarrollo, de acceso abierto y revisada por pares. Es un producto de KM4Dev, una comunidad de práctica de profesionales que trabajan en el campo de la gestión del conocimiento para el desarrollo, en todo el mundo.

gestion conocimientoDesde 2013 la revista vuelve a publicarse de manera abierta y en línea para facilitar el acceso y la publicación de materiales inéditos a quienes trabajan en temas de desarrollo. Como parte de este esfuerzo, y considerando el crecimiento en la comunidad de miembros de países de habla hispana y portuguesa, la comunidad ha propuesto que este Número 1 del Volumen 10 de la revista sea una edición especial en estas lenguas, para favorecer la difusión, el intercambio y la reflexión de experiencias en estos dos idiomas, de manera abierta y participativa.

Por ello, y través de diversas redes, se hizo un llamado a profesionales en gestión del conocimiento (GC) para el desarrollo a contribuir con artículos, en español y portugués, que aporten al debate en esta disciplina. De 16 propuestas recibidas, este número especial de la revista presenta 10 contribuciones entre las que se incluyen dos artículos, seis estudios de caso y una historia personal. Nueve de las contribuciones son en castellano y una en
portugués.

Dada la riqueza, el dinamismo y la diversidad del continente, estas son cifras muy  modestas. Así es que estos 9 artículos son apenas una aproximación a lo que sucede en la región de Latinoamérica y el Caribe en este campo, pero es a la vez un llamado a promover más estudios y más análisis de lo que se viene realizando por diversos actores públicos y privados.

A partir de la breve reseña de cada uno de los elementos que conforman este ejemplar de la  revista KM4DEV, el lector y la lectora puede identificar la riqueza y diversidad de la discusión que se está generando en la región sobre el tema de la gestión de conocimiento.

——————————   —————- —————-

Pues bien, hasta aquí una parte del Editorial de esta revista, en la cual tuvimos junto a Esteban Tapella la oportunidad de participar con nuestro artículo Evaluación y Aprendizaje desde la práctica: la sistematización de experiencias.  En dicho trabajo,  “además de destacar brevemente las raíces de la sistematización de experiencias en América Latina, así como sus similitudes con ciertas tendencias en el campo de la gestión del conocimiento (KM) y la evaluación, el artículo presenta conceptos básicos y consideraciones metodológicas sobre la sistematización de experiencias de desarrollo. Reconociendo la existencia de  diversos enfoques metodológicos de la misma, el artículo presenta el método de  base que se ha aplicado en diferentes proyectos, basado tanto en la experiencia  de los autores como en el trabajo de otros practicantes.”

Quedan pues invitados e invitadas a leer en este número la diversidad de propuestas presentes.  Más allá de preferencias personales por un tema u otro, resulta sin dudas un número muy valioso que da cuenta del esfuerzo de trabajo en la Gestión de Conocimiento en la región de América Latina. 

Vaya también, y por supuesto, un agradecimiento especial para el equipo editorial, varios de ellos muy estimados colegas y amigos: Denise Senmartin, Sophie Alvarez, Viviana Palmieri, Dora Arévalo, Margarita Baena, Kemly Camacho, Caridad Camacho, Teobaldo Pinzás y Camilo Vila.

 

Entonces, finalmente, ¿qué es “#evaluación”?

La invitación hecha por el colega y amigo Fidel Arévalo para dictar un curso sobre “Principios epistemológicos de la Evaluación”, en el marco del Diplomado en  Monitoreo y Evaluación de Políticas Públicas (SEGEPLAN y Universidad de San Carlos de Guatemala) me permitió volver a la cuestión fundamental de la conceptualización de la evaluación.  Y el término fundamental no es caprichoso, sino que apunta al corazón de la disciplina (o transdiciplina, al decir de Michael Scriven).

En el muy recomendable libro Fundamentals issues on Evaluation, sus editores comentan que en el campo de la evaluación existen temas recurrentes, problemas y asuntos que periódicamente emergen de nuevas maneras para llamar nuestra atención.  Estos asuntos fundamentales son las preocupaciones subyacentes, los problemas o las elecciones que continuamente re-aparecen bajo distintas apariencias a lo largo de los trabajos de evaluación. Por su misma naturaleza, son cuestiones que nunca terminan de ser resueltas completamente, sólo son “cerradas” de modo temporal.

Algunas de las preguntas que estructuran el libro, y que ejemplifican esta cuestión de los asuntos fundamentales de la evaluación, son las siguientes:

  • ¿Para qué se debe realizar la evaluación? ¿Para mejorar los programas? ¿Para influir en la toma de decisiones? ¿Para proteger al público? ¿Para resolver problemas sociales? ¿Para promover la diversidad social?
  • ¿Cuál es el rol social (o los roles sociales) adecuado(s) para el evaluador? ¿Cómo profesional? ¿Cómo investigador? ¿Cómo profesor? ¿Cómo defensor? ¿Cómo facilitador? ¿Cómo juez?
  • ¿Cómo pueden los actores que son parte interesada (los stakeholders) involucrarse  en los estudios de evaluación? ¿Cómo clientes, participantes, colaboradores, como ciudadanos empoderados?
  • ¿Qué debemos considerar como pruebas aceptable para elaborar decisiones evaluativas?
  • ¿Cómo se llega a la comprensión más válidas de calidad en la evaluación? ¿Vía los experimentos controlados? ¿Vía la deliberación moral? ¿Vía interpretaciones fenomenológicas?
  • ¿Cuál es la forma más efectiva para garantizar la calidad de la práctica de la evaluación?

Interrogantes que, como tales, merecieron su indagación en un volumen extenso y profundo.

Evaluacion vs Investigacion

Para el curso “Principios epistemológicos en evaluación” me detuve particularmente en el capítulo de @SandraMathison “¿Cuál es la diferencia entre Evaluación e Investigación -Y porqué nos importa?” No pretendo reproducir el desarrollo que hace Sandra en su capítulo, pero sí marcar una idea-fuerza que ella trabaja muy bien: muchas veces, para señalar las diferencias entre investigación y evaluación, apelamos a caricaturas de las mismas.  Esto sucede del mismo modo que aquel personaje de la empleada pública que hacía el cómico argentino Antonio Gasalla, que antes las críticas por el perfil extremo en mal humor, irresponsabilidad y vagancia que había dado a la misma, se defendía diciendo: Es que exagero para fijar la idea ;-)

Pues bien, algo de eso existe también en nuestros acercamientos para diferenciar investigación y evaluación. Con el riesgo de que no siempre somos conscientes del factor “exageración”, lo cual puede ser entendido como polarización e incluso como caricaturización. En tal sentido, uno puede preguntarse hasta qué punto nos sirve simplemente (o nos alcanza con) recitar la  clásica definición de evaluación del maestro Scriven:

Scriven definition EVAL La puerta de entrada que tomé para abordar la conceptualización de la evaluación fue, justamente, su contraste con la investigación social. Para ello le dedicamos un buen tiempo a discutir las siguientes proposiciones:

  • La evaluación particulariza, la investigación generaliza.
  • La evaluación está diseñada para mejorar algo, mientras que la investigación está diseñada para demostrar algo.
  • La evaluación proporciona las bases para la toma de decisiones, la investigación proporciona la base para elaborar conclusiones.
  • La evaluación:-¿y qué?; La investigación:-¿qué es eso?
  • La evaluación-¿qué tan bien funciona?; La investigación- ¿cómo funciona?
  • La evaluación es acerca de lo que es valioso, la investigación es sobre lo que es.

La discusión fue sumamente enriquecedora, y sobre el final la conclusión fue… que así son las cosas, nomás :-) Volvimos al punto inicial de entender la conceptualización de la evaluación como uno de esos asuntos fundamentales (recurrentes, polémicos, sólo temporalmente resueltos) de la disciplina. Apoyando esta “fragilidad?”, comenté el reciente trabajo liderado por Michael Quinn Patton referido a la definición de evaluación, encargado por la Asociación Americana de Evaluación. Dice Patton que han arribado “a un documento vivo, en constante revisión y actualización, pero nunca convertido en un dogma o en una declaración oficial de toma de posición”. Además, comenta que el trabajo de la comisión se vio constantemente tensionado por comentaristas diversos que consideraban que había elementos de más, o de menos, en los avances de la definición de evaluación. Y la discusión de algún modo continúa, por supuesto. La misma  @SandraMathison en su blog E-Valuation  hace su descargo de aspectos que a su ver no deberían estar ausentes.

Entonces, ¿en qué quedamos sobre QUÉ es (y no es) finalmente la evaluación? Pues que lo seguimos pensando, reflexionando, y debatiendo. Y esto no atenta, sino que consolida, la seriedad de la práctica evaluativa. Es posible que refleje su juventud (¿mi edad, justamente? :-) ), pero con seguridad es muestra de su vitalidad. Brinda de algún modo un ímpetu especial a los involucrados en el campo de la evaluación para reflexionar teórica y empíricamente sobre qué hacemos y porqué.

Para pensarlo desde otro lugar, sumo en esta entrada los geniales aportes de @ChrisLysy, quien desde su blog FreshSpectrum nos hace reír y pensar (y viceversa) sobre el mundo de la evaluación. Chris es el generador (también!) de EvalCentral  una plataforma que captura y canaliza todo blog sobre evaluación que ande dando vueltas por ahí. Y como Chris gentilmente me permitió usar sus dibujos y textos, vaya desde aquí mi público agradecimiento ;-)

Yo sé que nuestro proyecto funciona Un millon de views en Youtube

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 1.599 seguidores