-->
Falls dieser Newsletter nicht korrekt angezeigt wird, klicken Sie bitte hier. |
No 07, August 11 |
Editorial - Profession : évaluateur... Quelle profession mentionnez-vous sur votre déclaration fiscale et sur les nombreux formulaires administratifs qu’on vous demande de remplir ? Personnellement, j’indique « évaluateur ». C’est en effet le métier que je pratique tous les jours. En posant cette question à des collègues, je me rends compte que leur pratique est variable : politologue, sociologue, économiste, historienne, juriste, mais rarement « évaluatrice »… La professionnalisation est au centre des priorités qui ont été fixées par notre comité. Le débat des avantages et des inconvénients liés à la professionnalisation est indispensable. Cependant, au-delà du débat, il convient d’identifier et de définir concrètement les étapes nécessaires dans ce processus de professionnalisation. La sociologie des professions montre que tout métier doit suivre une série d’étapes avant de devenir véritablement reconnu. En vue de mettre en place les priorités qu’il s’est fixé, notre comité travaille actuellement sur le long terme et essaie de préciser les étapes nécessaires en s’inspirant d’autres professions et d’associations d’évaluation d’autres pays. Cela concerne nos compétences et notre formation, la qualité des travaux que nous livrons, ainsi que les mandats qui nous sont octroyés. Vous serez bien entendu consultés sur les résultats de notre réflexion. Vos feed-back, ainsi que la participation à des groupes de travail seront essentiels ces prochaines années. Bonne nouvelle : notre comité vient de finaliser le règlement pour le prix SEVAL. Le prix cherche à promouvoir la réalisation de travaux scientifiques (mémoires, dissertations, articles etc.) favorisant en Suisse l'avancement de la théorie et de la pratique de l'évaluation, ainsi que l'utilisation des évaluations. Un prix sera décerné à partir de l’année prochaine, une fois le jury constitué. Au plaisir de vous retrouver à Lucerne le 9 septembre pour notre congrès et notre assemblée générale. Bonne lecture ! |
|
||||||||
Aktivitäten und Mitteilungen der SEVAL / Activités et communications de la SEVALAusblick auf die Mitgliederversammlung vom 9. September 2011 Aperçu de l'assemblée générale du 9 septembre 2011 Ordre du jour de l'assemblée générale *** Wahlvorschlag als VorstandsmitgliedDiesen Frühling hat Katia Horber-Papazian ihre Demission als Mitglied des SEVAL-Vorstandes per 9.9.2011 mitgeteilt. Wir danken Katia Horber für ihr langjähriges Engagement im Vorstand und werden sie an der kommenden Mitgliederversammlung gebührend verabschieden. Für die Nachfolge von Katia Horber schlägt der Vorstand der Mitgliederversammlung Simone Ledermann zur Wahl vor: Simone Ledermann (lic. rer. soc) hat an der Universität Bern Politologie und Volkswirtschaft studiert. Nach einem Praktikum bei Interface Politikstudien in Luzern arbeitete sie von 2004 bis 2006 als wissenschaftliche Mitarbeiterin beim Büro Vatter, Politikforschung & -beratung in Bern. Von 2006 bis 2008 war sie Forschungsassistentin am Centre d'étude, de technique et d'évaluation législatives (CETEL) an der Universität Genf. Seither ist sie Projektleiterin und Evaluatorin bei der Parlamentarischen Verwaltungskontrolle (PVK). An der Universität Bern macht Simone Ledermann gegenwärtig ein Doktorat in Verwaltungswissenschaft und ist als Dozentin im Weiterbildungsprogramm „Evaluation“ tätig. Proposition de candidature pour le comitéCe printemps, Katia Horber-Papazian a annoncé sa démission du comité SEVAL pour le 9 septembre 2011. Nous remercions Katia pour son engagement de longue date au comité et nous prendrons officiellement congé lors de la prochaine assemblée générale. Pour la succession, le comité propose à l’assemblée générale la candidature de Simone Ledermann: Simone Ledermann (lic. rer. Soc) a étudié les sciences politiques et l’économie politique à l’Université de Berne. Après un stage chez Interface Politikstudien à Lucerne, elle rejoint le Büro Vatter, Politikforschung &-beratung à Berne où elle travaille comme collaboratrice scientifique entre 2004 et 2006. De 2006 à 2008 elle est assistante de recherche au Centre d’étude, de technique et d’évaluation législative (CETEL) à l’Université de Genève. Depuis, elle est responsable de projets et évaluatrice au Contrôle parlementaire de l'administration (CPA). Parallèlement Simone Ledermann est doctorante à l’Université de Berne en sciences de l’administration et est active en tant qu’enseignante au programme de formation continue « Evaluation ». *** Rückblick auf Anlässe SEVAL-Workshop: Contribution analysis - A tool for ensuring more rigour in evaluation cause-effect and the impact of many interventions Ce workshop de la SEVAL s’est tenu à Berne les 19 et 20 mai 2011. Il a été donné exclusivement par le Canadien John Mayne, consultant coté qui a travaillé avec l’ONU, l’UE, le secrétariat des Nations Unies, etc. Parmi les distinctions reçues par cet orateur, retenons celle, en 1995, de la société canadienne d’évaluation pour une contribution d’exception dans les sciences de l’évaluation. L’analyse de contribution, un des instruments créé par Mayne, s’attache à définir plus finement les relations de cause à effet dans l’évaluation de programmes et à répondre à la question : en quoi les résultats observés après la mise en œuvre d’un programme sont bien provoqués par le programme lui-même et non pas par des causes externes, sur lesquelles les gestionnaires du programme n’ont eu en général aucune prise ? Cette approche permet aussi de vérifier la théorie du changement (appelée encore program theory) associée au programme en y associant d’éventuels facteurs externes Pour Mayne, la chaîne de causalité comporte les éléments suivants:
Pour procéder à l’analyse de contribution, Mayne préconise de suivre les étapes suivantes :
Quelques références en ligne peuvent être utilement consultées pour plus de détails : Kotvojs, F. (2006), Contribution analysis : A new approach to evaluation in international development (2006) http://www.aes.asn.au/conferences/2006/papers/022%20Fiona%20Kotvojs.pdf Pour tout renseignement, contacter michel.jaccard@epfl.ch *** Evaluation in Public Health - lessons learned and future directionsCe séminaire d’une journée (17 juin 2011) était organisé par l’office fédéral de la santé publique et présentait un hommage discret à Thomas Zeltner, ex directeur de l’office et à Marlène Läubli, précédente responsable de l’unité d’évaluation du département. Les sessions de la matinée furent modérées par Emmanuel Sangra, président de la SEVAL. Kerralie Oeuvray, de l’UNIFR, présenta les résultats d’une analyse de 25 ans d’évaluations des programmes de l’office de la santé publique. Quels enseignements pouvait-on en tirer, malgré l’hétérogénéité de l’échantillon sous la loupe ? Quelques facteurs critiques sont listés ci-dessous :
Par ailleurs, le succès d’un programme est très dépendante de parties prenantes externes de l’office : leur identification et les relations que l’office noue avec elles sont un facteur clé. Le succès d’un programme est aussi très lié à la sensibilité culturelle et à la subtilité politique de ses acteurs principaux. Thomas Zeltner, quant à lui, insista sur l’importance des évaluations comme facteur de succès dans les programmes de l’office, dont un des bénéfices collatéraux fut l’augmentation de confiance du public ; ces évaluations ont aussi ouvert la porte à l’élaboration de nouvelles lois sur la prévention. Sans revenir à l’approche black box de l’évaluation des programmes, il attira l’attention de l’auditoire sur le fait que la complexité du domaine de la santé rend parfois difficile la prévision des effets des programmes et que l’approche selon la program theory doit être prise avec prudence et humilité. Un cumul des expériences devrait permettre dans le futur de définir de nouveaux archétypes de programmes, permettant ainsi d’y associer les instruments les plus adaptés. Michel Caraël, de l’Université de Bruxelles, fit le point sur les résultats des évaluations des programmes de lutte contre le Sida. Il présenta le résultat de 40 interventions, dont les résultats apparaissent mitigés. Il insista sur la combinaison de l’évaluation et de la prévention et la conjonction de 5 facteurs pour assurer le succès de tels programmes : changement de comportement, stratégies biomédicales, traitements spécifiques contre le SIDA, amélioration de la justice sociale et des droits de l’homme, activité élevée la prévention. Marlène Läubli exposa les acquis d’expérience d’environ 10 ans à la tête de l’unité d’évaluation de l’office, qui disposa dès le départ d’un budget propre, et dont les perspectives et le développement furent inclus dans la planification stratégique de l’office. L’importance de la proximité de l’unité d’évaluation près de la direction de l’office fut souligné. La capacité de disposer de valeurs et buts communs, l’orientation de la politique de l’office vers les besoins, la discussion systématique en interne et la valorisation des résultats allant bien au-delà du rapport d’évaluation apparaissent comme les éléments très positifs. Parmi les éléments disposant d’une marge d’amélioration figurent le manque de curiosité des personnes en charge de l’évaluation qui tendre à se concentrer uniquement sur les résultats attendus et l’implication parfois lacunaire des parties prenantes externes dans l’évaluation. Erica Wimbush présenta les enseignements d’une analyse des évaluations conduites l’unité de la NHS Scotland, qui œuvre dans un milieu social parfois délicat. Parmi les difficultés rencontrées par l’unité figurait la formation des collaborateurs, la conservation de la neutralité des évaluateurs face aux attentes des parties prenantes, le courage d’identifier ce qui ne peut être évalué, et l’institutionnalisation de l’évaluation. Parmi les succès, l’oratrice mit l’accent sur l’obtention de standards de qualité et de compétences explicites, le développement de pratiques d’évaluations basés sur des modèles (program theory), et la formulation d’une stratégie adaptée à la taille de l’unité. En fin de journée, Stefan Spycher donna les grandes lignes des évaluations futures de l’office et mit l’accent sur quatre points : l’implication des partenaires et parties prenantes dans les évaluations, conduite impartiale des processus d’évaluation, assurance qualité des produits d’évaluation et valorisation des résultats des recherches et des évaluations conduites. Pour tout renseignement, contacter : michel.jaccard@epfl.ch ou emmanuel.sangra@efk.admin.ch *** Un outil pour les évaluations de programmes d’enseignement L’évaluation des programmes d’enseignement, tout particulièrement dans les hautes Ecoles et universités, nécessite une métrique appropriée, notamment dans l’énoncé des compétences acquises par l’étudiant, que ce soit au niveau du programme lui-même, que de ses modules, cours ou autres unités d’enseignement. Or, l’écriture des buts, objectifs et surtout compétences acquises par l’apprenant — et testées généralement en partie seulement par le contrôle des études — est une des pierres d’achoppement des évaluations de programmes, évaluations conduites aussi bien dans le cadre des audits qualité découlant du processus de Bologne, que des évaluations de faculté et de collèges organisées selon le modèle de la peer review. La description écrite des programmes ou unités est variable, disparate, souvent floue, très orientée sur l’enseignant (input) et très peu sur l’étudiant (output et outcomes). Comment dès lors formaliser l’écriture des contenus des unités d’enseignement pour faciliter le travail d’évaluation des experts, mais aussi la comparaison du contenu des cursus d’une université à l’autre de l’EHEA (European Higher Education Area) ? Un tel outil a été formalisé par le Tuning group du processus de Bologne et présenté au séminaire des experts de Bologne qui s’est tenu à Oslo, les 6 et 7 juin 2011. Le Tuning group préconise de se concentrer désormais sur les acquis d’apprentissage en anglais learning outcomes), qui sont des observables de ce que l’étudiant est en mesure de faire à l’issue d’un programme, module, ou unité d’enseignement. Les acquis d’apprentissage, dont les pionniers dans leur utilisation sont les Hautes Ecoles des pays membres du Commonwealth, et dont la mise en œuvre a été préconisée et rappelée plusieurs fois dans les communiqués des ministres européens de l’enseignement supérieur, se distinguent des compétences par leur caractère objectif et le formalisme de leur écriture. Celui-ci utilise la taxonomie de Blum, un pédagogue américain de l’Université de Chicago, qui a constaté que toute connaissance, intellectuelle, émotionnelle ou psychomotrice, est acquise par étapes de complexité croissante, dont la progression peut être représentée sous forme de pyramide ; ce modèle n’est pas sans faire penser, à une autre pyramide, tout aussi célèbre, celle de Maslow. Cette taxonomie n’est pas à proprement parler une innovation puisque le travail de Blum a été publié depuis la fin des années 50 jusqu’aux années 70, mais les résultats de recherche de Blum sont longtemps restés confinés au sein du cercle des chercheurs en pédagogie. Le Tuning group préconise que tout programme, module ou unité d’enseignement ne devrait pas disposer de plus de quinze acquis d’apprentissage. Ceux-ci doivent être écrits sous forme d’une phrase à l’infinitif utilisant un verbe appartenant à la taxonomie de Blum, suivi de quatre expressions simples permettant de décrire, préciser et cadrer l’acquis d’apprentissage visé. L’écriture des compétences de programmes, modules, ou unités d’enseignement est certainement la prochaine étape de la réforme pédagogique du processus de Bologne. Pour tout renseignement, contacter, michel.jaccard@epfl.ch *** Evaluation des programmes d’enseignement par ABET ABET (Accrediting Board of Engineering and Technology) est l’agence américaine qui délivre l’accréditation des programmes de formation d’ingénieur ; cette accréditation joue un rôle clé dans l’exercice de la profession sur le marché du travail US. Fondée en 1932, l’agence accrédite environ 3100 programmes dans plus de 600 Hautes Ecoles, tout particulièrement des bachelors en 4 ans aux USA et dans le reste du monde. Même les programmes des universités technologiques top notch des USA comme le MIT, UC Berkeley, Northwestern University, etc., se plient à cette contrainte. ABET figure en tête de liste en matière d’influence mondiale des bonnes pratiques d’évaluation de programmes de formation d’ingénieur. Basée jusqu’en 1997 sur l’analyse détaillée des programmes de cours, ABET a orienté depuis son évaluation sur la gestion de la Qualité de ceux-ci. Examinant la définition des compétences exigées sur le marché du travail, la démarche se poursuit par l’analyse de leur transcription en acquis d’apprentissages, ces derniers étant déclinés plus avant dans les unités d’enseignement du cursus. Bien entendu, les acquis d’apprentissages doivent être contrôlés à l’échelon individuel pour s’assurer de leur atteinte, mais aussi sur une cohorte d’étudiants afin de jauger la performance de l’enseignement. Pour cela, ABET préconise l’introduction de 4 à 5 indicateurs de performance par acquis d’apprentissage, qui doivent être mesurés à choix par des méthodes directes ou indirectes, au nombre de 12. La valeur des indicateurs et sa comparaison avec la consigne permet ‘amélioration continue selon la Roue de Deming. L’Assurance Qualité du Processus de Bologne, à laquelle font référence les agences européennes (UK exclu) d’accréditation des programmes de formation d’ingénieur, fait plutôt pâle figure à côté de la démarche logique, cohérente, complète et éprouvée d’ABET. L’EHEA devra encore évoluer dans ses exigences pour prétendre atteindre le même niveau (les Indiens sont encore loin…). ABET dispense une formation IDEAL d’une semaine sur les points forts de son système de management de la Qualité, à Baltimore (USA). Pour tout renseignement, s’adresser à michel.jaccard@epfl.ch et pour plus d’information sur ABET, consulter www.abet.org .
|
||||||||
Aus- und Weiterbildung / Formations et formations continuesKursangebot Zentrum für universitäre Weiterbildung Bern Kurstitel: Politikanalyse und Politikevaluation Weitere Informationen: http://kwb.unibe.net/kurse/einzelkurs.php?sid=&thid=8&kid=1216 *** Integrating communications in evaluation Le domaine Sociologie, politiques sociales et travail social de l’Université de Fribourg en collaboration avec Marlène Läubli Loud et la société suisse d’évaluation (SEVAL), organisent un Workshop de 2 jours « Integrating communications in evaluation » à Berne les 10 et 11 novembre 2011. Voici l’adresse internet où vous pourrez vous inscrire en ligne (attention : places limitées) : www.unifr.ch/travsoc/fr *** Integrating communications in evaluation Die PH FHNW und die Universität Bern bieten ab März 2012 den gemeinsamen CAS-Studiengang „Bildungsevaluation“ an. Der Studiengang richtet sich an Fachpersonen, die sich für Datenerhebungen in der Bildungsevaluation qualifizieren wollen und vermittelt die Kompetenz, fokussierte und praxisnahe Datenerhebungsinstrumente für Evaluationen in Bildungseinrichtungen und für den eigenen Bildungsalltag zu erstellen. Wolfgang Beywl, Fachhochschule Nordwestschweiz, Pädagogische Hochschule, wolfgang.beywl@fhnw.ch |
||||||||
Agenda / AgendaInformationsveranstaltung: Wirken und Bewirken - Wirkungsmessung in der Entwicklungszusammenarbeit Co-organisiert von der Stiftung ZEWO, der DEZA, der SEVAL und dem NADEL/ETHZ Spenden und Beiträge der öffentlichen Hand sollen dazu beitragen, die Situation von Menschen in Not zu verbessern. Sie sollen etwas bewirken. Das wollen Hilfswerke ebenso wie Spenderinnen und Spender oder die Direktion für Entwicklung und Zusammenarbeit. Bei der Planung, Umsetzung und Evaluation von Projekten und Programmen ist wirkungsorientiertes Denken und Handeln eine Notwendigkeit. Wer die erzielte Wirkung misst, kann daraus lernen und sich ständig verbessern. Hilfswerke können ihre Kräfte dort einsetzen, wo sie am nötigsten sind und am meisten bewirken. Mit dem neuen Leitfaden zur Wirkungsmessung unterstützt die Zewo Hilfswerke beim wirkungsorientierten Vorgehen. Die ETH Zürich bietet mit dem Nachdiplomstudium für Entwicklungsländer entsprechende Ausbildungs- und Beratungsmöglichkeiten an, und die Schweizerische Evaluationsgesellschaft (SEVAL) fördert den Informations- und Erfahrungsaustausch. Programm und mehr Information, siehe: http://www.zewo.ch/ Datum: 13. September 2011, 13:30-16:30
|
||||||||
Publikationen / PublicationsDemnächst erhältlich: Wolfgang Beywl, Hanne Bestvater, Verena Friedrich (2011). Selbstevaluation in der Lehre. Ein Wegweiser für sichtbares Lernen und besseres Lehren. Waxmann Verlag. 208 Seiten, broschiert, 29,90 € *** Die Rubrik Publikationen bietet eine Plattform, um auf Neuerscheinungen zum Thema Evaluation oder auf Publikationen von Seval-Mitgliedern (Evaluationsberichte, Bücher, Artikel in Büchern oder Fachzeitschriften etc.) aufmerksam zu machen. Entsprechende Hinweise nimmt die Redaktion jederzeit gerne entgegen: ruefli@buerovatter.ch |
||||||||
Sie erhalten diesen Newsletter, weil Sie sich mit Ihrer E-Mail Adresse für diesen Service angemeldet haben oder weil Sie Seval-Mitglied sind.
Wenn Sie diesen Newsletter von einer Drittperson erhalten haben, können Sie sich jetzt hier anmelden oder eine E-Mail mit dem Betreff „Newsletter-Anmeldung“ an newsletter@seval.ch senden. Ihre Daten werden nicht an Dritte weitergegeben. Wenn Sie den Newsletter künftig nicht mehr erhalten wollen, schreiben Sie eine E-Mail mit dem Betreff „Newsletter-Abmeldung“ an newsletter@seval.ch. ___ SEVAL c/o Universität Freiburg Diensstelle für Evaluation und Qualitätsmanagement Av. de Beauregard 11 (1.217) CH-1700 Freiburg Tel +41 (0)26 300 82 81 Fax +41 (0)26 300 96 55 E-Mail: secretariat@seval.ch Website: www.seval.ch Impressum: www.seval.ch/de/impressum.cfm ___ Disclaimer: Es wird keinerlei Haftung für Übermittlungsfehler, Richtigkeit oder Vollständigkeit der Angaben übernommen. Die Nennung von Produkten anderer Hersteller oder Anbieter dient ausschliesslich zur Information und stellt keinen Warenzeichenmissbrauch dar. Hinsichtlich der Auswahl, Leistung oder Anwendung dieser Produkte oder Dienstleistungen wird keinerlei Gewähr übernommen. ___ © 2002 - Schweizerische Evaluationsgesellschaft, SEVAL |