S'abonner

  • Flux RSS des articles

Recherche

Je suis Professeur des Universités en Aménagement de l'Espace et Urbanisme à la Faculté de Sciences Economiques de l'Université de Poitiers et chargé d'enseignement à Sciences Po Paris (premier cycle ibéro-américain). Le but de ce blog est de commenter l'actualité économique et politique, pour montrer que les économistes peuvent parfois produire des analyses utiles.

Pour être informé de la parution d'un nouveau billet, abonnez-vous à un flux ou entrez votre mail dans la rubrique Newsletter.

Recherche

Dimanche 26 février 7 26 /02 /Fév 09:55
Par OBO - Publié dans : Recherche
Ecrire un commentaire - Voir les 1 commentaires
Mercredi 22 février 3 22 /02 /Fév 09:48
Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 1 commentaires
Dimanche 19 février 7 19 /02 /Fév 09:12
Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 0 commentaires
Jeudi 16 février 4 16 /02 /Fév 19:33
Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 0 commentaires
Mercredi 21 décembre 3 21 /12 /Déc 18:59

* l’AERES décide de ne plus accorder de note globale aux laboratoires : « Principale évolution : la note globale d’une unité de recherche (ou d’une équipe de recherche) est remplacée par une appréciation textuelle courte bâtie sur les notes multicritères. »

Les non initiés se demanderont sans doute quelle est l’importance d’une telle évolution, les initiés sûrement pas. Toute personne normalement constituée ne peut que considérer ce système de note globale comme absurde.

Le problème est que la plupart des personnes normalement constituées répondent aux incitations : si on leur dit que tout dépend d’une note globale, ils feront tout pour obtenir la "bonne" note globale. En prenant le cas échéant des décisions absurdes.

* Le Ministère vient d'annoncer officiellement le report à une date non encore déterminée de la campagne d'évaluation des enseignants - chercheurs. Evaluer, individuellement, sur la base d’un dossier, de manière centralisée, l’ensemble des enseignants-chercheurs des Universités françaises… Staline, réveille-toi, ils sont devenus fous (musique).

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 5 commentaires
Vendredi 9 septembre 5 09 /09 /Sep 15:22

L'Association Française d'Economie Politique vient de publier un document intitulé "Pour une nouvelle démarche d’évaluation des laboratoires de recherche, des enseignants-chercheurs et des chercheurs en économie", coordonné par Gabriel Colletis et Thomas Lamarche.

Le document complet est ici.

En voici la présentation reprise du site de l'AFEP :

La Commission évaluation de l’AFEP a regroupé une trentaine d’enseignants-chercheurs et de chercheurs qui se sont organisés en trois sous-groupes : l’un consacré à la question de l’évaluation des laboratoires de recherche, l’autre à celle de l’évaluation des enseignants chercheurs, le troisième à la question des publications.

 Ces trois sous-groupes ont travaillé en parallèle et de façon concertée pour produire le présent document. La méthode de travail a donc été itérative et a favorisé le débat. Au final, les contributeurs ont convergé sur l’essentiel et ont maintenu certaines différences d’appréciation sur tel ou tel aspect de l’analyse et des préconisations (en particulier sur l’AERES).

 Le présent document se compose de cinq parties :

La première partie (I) pose la question générale de l’évaluation dans le contexte actuel en examinant les différents aspects des pratiques actuelles, et que l’AFEP entend contester. Au final, apparaît clairement la nécessité d’une clarification de l’intention de l’évaluation. À l’opposé de l’actuelle évaluation sanction, que l’on peut suspecter d’introduire de sérieux biais, l’AFEP propose une évaluation professionnelle visant à promouvoir la qualité et le pluralisme des approches, des méthodes et des objets de recherche.

 La deuxième partie (II) analyse les conditions d’évaluation des laboratoires de recherche. La question fondamentale est celle de leur cohérence avec les missions que la société assigne à ces laboratoires, missions parmi lesquelles l’élaboration de questions de recherche ayant une finalité d’avancée des connaissances et/ou de production de savoirs utiles est essentielle. Le corollaire de cette question est la façon dont on se représente ce qu’est un laboratoire. Dominent actuellement la représentation d’un laboratoire comme somme de chercheurs produisants et des modalités d’évaluation reflétant cette conception. L’AFEP entend rappeler que les missions fondamentales des laboratoires ne peuvent être réalisées qu’à la condition de considérer qu’un laboratoire est un collectif de chercheurs rassemblés autour d’un projet scientifique porté par des valeurs partagées. Les modalités d’évaluation des laboratoires que l’AFEP entend promouvoir sont en cohérence avec la dimension collective, le rôle social et la qualité scientifique attestée par un projet des laboratoires concernés.

 La troisième partie du présent document (III) concerne l’évaluation des enseignants-chercheurs. Dans l’actuelle pratique d’évaluation, les enseignants chercheurs (EC) sont pour l’essentiel évalués en fonction de leur activité de publication. Si ce n’est pas le rang des publications mais leur nombre qui détermine la qualité de chercheur « publiant » ou « produisant »2 (2 pour un EC, 4 pour un chercheur), l’appréciation de la « qualité » de l’EC dépend en revanche du rang des publications issu de la liste de la section 37 du Cnrs. Les conséquences néfastes de cette façon d’évaluer l’activité des enseignants-chercheurs sont nombreuses et considérables, notamment pour ce qui est de l’innovation scientifique. L’AFEP propose de reconsidérer profondément le mode d’évaluation des enseignants-chercheurs en reconnaissant la diversité de leurs missions et celle de leurs pratiques. Plutôt que de les considérer comme des individus isolés et calculateurs, intéressés de façon principale par l’optimisation de leur carrière et leur accès aux primes, l’AFEP entend promouvoir la liberté du chercheur et son autonomie dans le cadre de collectifs orientés par le souci d’une progression de chacun et de tous, au service de la société.

 La quatrième partie (IV) rassemble les préconisations de l’AFEP dans la perspective d’une refonte très profonde de la démarche d’évaluation. Cette partie propose tout d’abord des préconisations à caractère général puis des préconisations aux deux niveaux appréhendés dans ce document : celui des laboratoires, celui des enseignants chercheurs. L’ensemble de ces préconisations résulte des débats que la commission a eus pendant le temps de son existence, des analyses qui ont été produites, de l’examen aussi de travaux disponibles portés à la connaissance de la commission par ses membres. Un espace spécifique a été créé sur le site de l’AFEP afin de déposer certains de ces travaux ou documents.

La cinquième et dernière partie du présent document (V) rassemble sous la forme d’annexes des extraits de documents qui ont été utilisés pour la production de ce travail.

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 1 commentaires
Vendredi 8 avril 5 08 /04 /Avr 08:27

 

Thierry Coulhon, directeur au Commissariat Général à l’Investissement, en charge des dossiers Idex, Labex et Equipex, a été interviewé  par Educpros suite à la publication des Labex. Petit extrait en lien avec la question de la masse critique :

Question : l’excellence est partout, indiquait Valérie Pécresse. La concentration des labels d’excellence sur un nombre de sites restreints ne contredit-elle pas cette assurance de la ministre ?

Réponse : la concentration est relativement importante, ce qui n’a rien de surprenant. A noter tout de même un grand nombre de projets en réseau. La variable "aménagement du territoire" ne fait en effet pas partie des critères de choix a priori : ce n’est pas le but de l’opération. La carte de l’excellence est ce qu’elle est, mais elle ne se réduit pas aux zones de concentration : il existe des sites à visibilité internationale mais aussi des pépites.

C’est comme si on dévoilait des résultats qui statistiquement, sont des évidences. Evidemment, l’Ile-de-France ou la région Rhône-Alpes sont très représentées, mais il y a aussi Amiens, Limoges, Clermont-Ferrand, Brest, Lille... L’objectif est de reconnaître la valeur là où elle se trouve, grâce justement à cette variété d’appels d’offres. Notre but n’est pas de changer le profil du pays, c’est de donner les moyens, à toutes les échelles, d’aller plus loin.

Thierry Coulhon confond (volontairement ou involontairement, je ne sais pas...) deux choses :

* que l’Ile de France concentre plus de Labex que les autres régions est tout sauf anormal : la région Capitale concentre une part importante des ressources scientifiques, de l’ordre de 40% des chercheurs publics en 2006 selon les données de l’OST,

* la question n’est donc pas de savoir s’il est normal que l’Ile de France concentre plus de Labex que les autres régions, mais s’il est normal qu’elle concentre un nombre de Labex plus que proportionnel à sa taille. Or, c’est ce que l’on observe : l’Ile de France concentre 55% des Labex pour environ 40% des chercheurs, soit un ratio de 1.25.

Cette sur-dotation est-elle « normale » ? Tout dépend en fait des hypothèses que l’on peut faire en matière de « performance » des régions. Si l’on considère que l’Ile de France est 1.25 fois plus performante que les autres régions, alors cette dotation est normale. Si elle est aussi performante que les autres, elle est moins normale, a fortiori si elle est inférieure à 1…

Comme expliqué dans notre texte, les études empiriques disponibles montrent plutôt l’existence d’une relation linéaire entre taille des villes ou des régions (mesurée par le nombre de chercheurs par exemple) et leur production scientifique (nombre de publications par exemple). Bref, des indices de performance autour de 1. S’agissant de la France, l’indice pour la région Capitale est un peu inférieur à 1, quelque soit les indicateurs que l’on mobilise.

Il ne s’agit bien sûr pas de dire que pour tout dispositif la dotation de chaque région doive être égale à son poids en termes de ressource, on peut tout à fait concevoir que pour un dispositif précis il soit bien supérieur ou bien inférieur, sur la base d’autres considérations. Mais en agrégeant l’ensemble des dispositifs, il serait bon que les dotations ne conduisent pas systématiquement à des sur-dotations des plus grosses régions.

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 3 commentaires
Samedi 2 avril 6 02 /04 /Avr 08:28

Dans la continuité de la publication de la liste des Labex et plus généralement de la politique de la recherche et de l'enseignement supérieur menée en France, voici une tribune co-écrite avec des collègues toulousains spécialistes de sociologie et de géographie des sciences.

Nous avions rédigé cette tribune en réaction aux propos de Jean-François Dhainaut, directeur de l'AERES, dans les Echos. Nous l'avions logiquement proposée aux Echos, qui avaient accepté de la publier sans pouvoir nous dire quand. Comme elle n'a toujours pas été mise en ligne, (no comment) je la publie ici.

Déconcentration de la recherche

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 2 commentaires
Mercredi 30 mars 3 30 /03 /Mars 11:43

La liste des Labex est tombée récemment.

Il y aurait beaucoup de choses à dire sur cet appel à projets "Laboratoires d'excellence", plus généralement sur la politique de la recherche du gouvernement français. Temps trop contraint en ce moment, j'espère pouvoir écrire quelques billets sur le sujet rapidement. Dans l'attente, voici une lettre ouverte de Jean-Pierre Gesson, Président de l'Université de Poitiers :

Enseignement supérieur et recherche : une stratégie d’excellence ?

Labex, Equipex, Idex, les résultats pleuvent et tombent à côté d’un objectif : renforcer l’université française dans le grand bain international

La marche à l’excellence ?

La France a été traumatisée plus que tout autre pays par le classement de Shanghai. Le fait qu’aucune université ou école française ne figure dans les premiers mondiaux a été interprété comme une preuve de la faiblesse de la recherche française. L’analyse objective des résultats globaux de notre pays démontre à l’évidence que cette analyse est fausse.

Une élémentaire rigueur scientifique imposerait de discuter de la validité des critères utilisés dans ce classement avant d’en utiliser la valeur. Mais tel un oracle ce classement est médiatisé chaque année. Il en est de même du classement du Times Higher Education dont le principe est basé sur une forme de sondage de popularité auprès d’experts. D’autres classements existent (CHE, Leiden, QS, …), pertinents ou discutables, mais moins médiatiques. La faiblesse méthodologique de la plupart de ces classements n’empêche pas une utilisation abusive.

Mais la question essentielle pour notre pays n’est pas de savoir si telle université ou école peut être classée demain dans le top ten des établissements mondiaux. Quel intérêt d’avoir un Harvard ou Oxford français si globalement la recherche française n’est pas compétitive ? La vraie question est surtout comment organiser la recherche française pour la rendre globalement plus efficiente. Il était nécessaire de lui en donner les moyens organisationnels et financiers pour rester à un haut niveau au plan mondial. Mais comment ?

La première condition a été réunie à partir de 2007 en donnant aux universités une autonomie élargie. Cette approche que l’on peut qualifier de responsabilisante a été combattue par certains au nom d’une égalité mythique qui n’a jamais existé et qui n’existera jamais. Son principal intérêt est de permettre aux établissements de mettre en place des stratégies spécifiques en fonction de leurs caractéristiques propres. Cette liberté, toutefois soumise à des régulations nationales nécessaires, est une chance pour les activités de recherche dont il est souvent difficile de prédire les résultats et applications. Inutile de rappeler de nombreux exemples célèbres.

La deuxième étape étant celle de l’augmentation des moyens, le gouvernement a alors décidé d’utiliser un emprunt de grande ampleur pour financer la recherche. Si on ne peut que se louer qu’un emprunt serve à de l’investissement, encore faut-il que son utilisation soit optimisée pour être efficace. Le rapport Juppé-Rocard a servi de base à la stratégie développée : concentrer les moyens sur un nombre limité de sites (5 à 10). Malheureusement cette proposition, qui ressemble plus à un « gosplan » soviétique qu’à une approche réaliste, est basée sur des erreurs d’appréciations très graves. N’est-il pas écrit par exemple dans ce rapport que la faiblesse des universités françaises vient de leur taille insuffisante ! Cet axiome a été repris par certains qui insistent outrageusement sur la taille critique comme facteur indispensable à l’excellence (une définition par ailleurs très floue). Mais alors pourquoi le MIT qui n’a que 10 000 étudiants est-il toujours classé dans les premiers établissements mondiaux et Harvard avec ses 18 000 étudiants est-elle une université moyenne ?

Des bons choix pour l’excellence ?

Après l’Opération campus, les projets Equipex, Labex, Idex, la carte universitaire française pourrait être totalement bouleversée. Des sites universitaires sont donc laissés à eux mêmes à côté d’autres fortement dotés. Sans insister sur les conditions d’attribution de ces moyens ayant abouti à des déséquilibres indécents, on peut se demander quel en sera le résultat ? Un échec prévisible car l’augmentation du rayonnement de la recherche française ne sera pas à la hauteur des financements apportés. Pourquoi ? Parce que l’attribution des moyens aura plus reposé sur la taille d’un site que sur tout autre paramètre alors que toutes les études montrent que la productivité scientifique n’est pas directement proportionnelle à la taille et aux moyens apportés. Parce que l’on aura donné le sentiment que la partie était jouée d’avance et que l’on aura ainsi découragé une bonne partie des chercheurs français. Une fois les sites de l’Opération Campus connus, était-il utile de demander aux autres de candidater aux appels à projets d’excellence ?

L’avenir dira si la surconcentration des moyens est la meilleure voie vers l’excellence de l’enseignement supérieur et de la recherche.

Jean-Pierre Gesson

Président de l’Université de Poitiers

 

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 0 commentaires
Vendredi 7 janvier 5 07 /01 /Jan 08:34

En complément du clin d'oeil d'hier (il fallait bien sûr lire "chercheurs" et non "chômeurs"), petit commentaire de l'article de la Tribune. Cet article commente le rapport de l'OST sur la Recherche et Développement, en expliquant notamment que les Régions s'impliquent de manière croissante dans la R&D.

On y trouve une carte des régions, avec des chiffres pour les "10 premières régions françaises en R&D". Dans l'article, ce passage : "le top 10 des régions qui investissent est tiré par les traditionnellement plus dynamiques d'entre elles : l'Ile de France, Rhône-Alpes, Midi-Pyrénées, Provence-Alpes-Côte d'Azur".

Sauf que ce "top 10" est réalisé sur la base du poids des régions dans les dépenses de R&D. Ce n'est donc pas le top 10 des régions les plus performantes ou les plus dynamiques, mais le top 10 des régions les plus grandes. L'obsession de la grande taille, toujours...

Ils ont tout ce qu'il faut sur leur carte, pourtant, pour calculer quelque chose qui ressemble plus à un indicateur de performance : il convient par exemple de rapporter un indicateur de production scientifique (publications ou brevets) à un indicateur de ressource scientifique mobilisée (part dans la R&D).

Exemple avec l'Ile de France, région "leader" : elle pèse 41,3% de la R&D, mais seulement 35,4% des publications et 37,8% des brevets. La productivité apparente de la recherche franilienne (base 100 = moyenne française) est donc de 86 si l'on retient les publications comme indicateur de production scientifique et de 91 côté publications. Comparativement, Rhône-Alpes est bien plus performante : indicateurs de 109 pour les publications et de 141 pour les brevets. Midi-Pyrénées, 3ème par la taille, est, comme l'Ile de France, "sous-performante" (indices de 64 et de 45).

S'agissant du dynamisme, on apprend dans l'article que le poids de l'Ile de France recule tout doucement depuis des années. Précisions dans le document de l'OST : "alors qu’en 2003, l’Île-de-France contribuait à plus de 36,7 % des publications nationales, elle n’en coproduit plus que 35,4 % en 2008" (page 158 du rapport OST). Plus loin (page 168) : "Entre 2003 et 2008, parmi les six premières régions en production technologique, seule l’Île-de-France enregistre une baisse de sa part nationale de demandes de brevet européen tous domaines confondus".

Bref, pas top le top, la recherche francilienne est vraiment décadente...

 

précision : attention, une sous-productivité ou une sur-productivité peut s'expliquer partiellement voire totalement par des effets de spécialisation (présence plus faiblle/plus forte de domaines scientifiques qui ont une propension à publier (ou à déposer des brevets) plus forte).

 

Sur le même sujet :

- Recherche : le rang de la France

- Le rapport Juppé-Rocard : quelques inepties

 - La déconcentration de la production scientifique

- L'innovation en Poitou-Charentes

Par Olivier Bouba-Olga - Publié dans : Recherche
Ecrire un commentaire - Voir les 4 commentaires

Actuellement...

Il y a  9  personne(s) sur ce blog

Twitter

Calendrier

Octobre 2014
L M M J V S D
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    
<< < > >>
Créer un blog gratuit sur over-blog.com - Contact - C.G.U. - Rémunération en droits d'auteur - Signaler un abus - Articles les plus commentés