Résumé de la vidéo [00:00:00][^1^][1] - [00:24:00][^2^][2]:
La vidéo présente une conférence de Yves Gingras, sociologue et historien des sciences, sur l'évaluation dans les sciences, les arts et les organisations. Il aborde l'histoire de l'évaluation scientifique, l'importance de l'expertise et la montée de la bibliométrie dans l'évaluation de la recherche.
Points forts: + [00:00:22][^3^][3] Introduction d'Yves Gingras * Présentation de son parcours et de ses spécialités * Discussion sur la biométrie et l'histoire des sciences + [00:01:51][^4^][4] L'évaluation de la recherche * Importance croissante de l'évaluation dans les dernières décennies * Lien entre l'évaluation et la valeur du travail scientifique + [00:03:03][^5^][5] Histoire de l'évaluation scientifique * Évaluation comme pratique ancienne remontant au XVIIe siècle * Expertise et évaluation intrinsèques à l'institutionnalisation de la science + [00:09:01][^6^][6] Évaluation par les pairs et exemples historiques * Exemples de Newton et Einstein pour illustrer l'évaluation par les pairs * Impact de l'évaluation sur la qualité et la validation des travaux scientifiques + [00:16:04][^7^][7] Évaluation institutionnelle et financement de la recherche * Évolution des mécanismes d'évaluation et leur importance pour le financement * Rôle des organismes de recherche et des comités de sélection + [00:19:00][^8^][8] Évaluation des structures et programmes universitaires * Évaluation des départements, centres de recherche et programmes de doctorat * Reconnaissance de la priorité et citations comme mécanisme institutionnel Résumé de la vidéo [00:24:01][^1^][1] - [00:46:48][^2^][2]:
Cette partie de la vidéo discute de l'évaluation dans les sciences, les arts et les organisations, en se concentrant sur l'importance des citations et des indicateurs bibliométriques dans la recherche scientifique. Elle explique comment ces outils ont évolué pour devenir des instruments de politique scientifique et d'évaluation institutionnelle.
Points forts: + [00:24:01][^3^][3] L'origine des citations bibliométriques * L'utilisation des citations pour trouver des publications pertinentes * La création d'une base de données par Eugene Garfield + [00:26:04][^4^][4] L'impact des indicateurs bibliométriques * L'influence sur les politiques scientifiques et les décisions de financement * L'introduction du facteur d'impact et son utilisation dans la gestion des bibliothèques + [00:30:03][^5^][5] La massification de la science * La croissance du nombre de chercheurs et la nécessité de nouveaux mécanismes d'évaluation * L'utilisation des données quantitatives pour contester les pratiques subjectives + [00:34:05][^6^][6] La transition de l'évaluation par les pairs aux experts * La quantification des évaluations permet un contrôle plus large de l'expertise * Les chiffres remplacent le jugement des pairs dans les comités d'évaluation + [00:36:13][^7^][7] Les conséquences des indicateurs quantitatifs * Modification des comportements des chercheurs en réponse aux métriques * L'effet sur le choix des objets de recherche et les pratiques institutionnelles + [00:41:53][^8^][8] Le passage de l'évaluation au classement * La prolifération des classements universitaires et leurs effets pervers * La critique des méthodologies de classement et l'appel à des indicateurs valides Résumé de la vidéo [00:46:51][^1^][1] - [01:06:53][^2^][2]:
Cette vidéo présente une conférence de Pierre-Michel Menger sur l'évaluation dans les sciences, les arts et les organisations. Il discute des indicateurs utilisés pour évaluer les performances des universités et des institutions, soulignant les défis et les pièges potentiels de ces méthodes d'évaluation.
Points forts: + [00:46:51][^3^][3] Les indicateurs d'évaluation * Définition et utilisation des indicateurs * Exemple de la température comme indicateur physique * Critique des classements universitaires fluctuants + [00:51:01][^4^][4] Les classements universitaires * L'absurdité de certains indicateurs * L'importance de la relation entre le concept mesuré et l'indicateur * Les effets pervers des classements sur les politiques universitaires + [00:53:00][^5^][5] Évaluer les évaluations * Nécessité de critiquer et d'améliorer les méthodes d'évaluation * Application des principes du management public à l'évaluation * Contrôle des dérives potentielles de l'évaluation + [00:55:01][^6^][6] L'usage des données chiffrées * Limites et manipulation des données chiffrées * Les données comme aides au jugement, pas comme décisions * La politique indépendante des chiffres et l'importance de la critique + [00:59:00][^7^][7] Les conséquences des évaluations * Impact sur les politiques et les missions académiques * Dérives liées à l'accent mis sur la recherche au détriment de l'enseignement * Nécessité d'une prise de conscience et d'une évaluation équilibrée