La décadence de la recherche parisienne (suite - moins drôle)

Publié le par Olivier Bouba-Olga

En complément du clin d'oeil d'hier (il fallait bien sûr lire "chercheurs" et non "chômeurs"), petit commentaire de l'article de la Tribune. Cet article commente le rapport de l'OST sur la Recherche et Développement, en expliquant notamment que les Régions s'impliquent de manière croissante dans la R&D.

On y trouve une carte des régions, avec des chiffres pour les "10 premières régions françaises en R&D". Dans l'article, ce passage : "le top 10 des régions qui investissent est tiré par les traditionnellement plus dynamiques d'entre elles : l'Ile de France, Rhône-Alpes, Midi-Pyrénées, Provence-Alpes-Côte d'Azur".

Sauf que ce "top 10" est réalisé sur la base du poids des régions dans les dépenses de R&D. Ce n'est donc pas le top 10 des régions les plus performantes ou les plus dynamiques, mais le top 10 des régions les plus grandes. L'obsession de la grande taille, toujours...

Ils ont tout ce qu'il faut sur leur carte, pourtant, pour calculer quelque chose qui ressemble plus à un indicateur de performance : il convient par exemple de rapporter un indicateur de production scientifique (publications ou brevets) à un indicateur de ressource scientifique mobilisée (part dans la R&D).

Exemple avec l'Ile de France, région "leader" : elle pèse 41,3% de la R&D, mais seulement 35,4% des publications et 37,8% des brevets. La productivité apparente de la recherche franilienne (base 100 = moyenne française) est donc de 86 si l'on retient les publications comme indicateur de production scientifique et de 91 côté publications. Comparativement, Rhône-Alpes est bien plus performante : indicateurs de 109 pour les publications et de 141 pour les brevets. Midi-Pyrénées, 3ème par la taille, est, comme l'Ile de France, "sous-performante" (indices de 64 et de 45).

S'agissant du dynamisme, on apprend dans l'article que le poids de l'Ile de France recule tout doucement depuis des années. Précisions dans le document de l'OST : "alors qu’en 2003, l’Île-de-France contribuait à plus de 36,7 % des publications nationales, elle n’en coproduit plus que 35,4 % en 2008" (page 158 du rapport OST). Plus loin (page 168) : "Entre 2003 et 2008, parmi les six premières régions en production technologique, seule l’Île-de-France enregistre une baisse de sa part nationale de demandes de brevet européen tous domaines confondus".

Bref, pas top le top, la recherche francilienne est vraiment décadente...

 

précision : attention, une sous-productivité ou une sur-productivité peut s'expliquer partiellement voire totalement par des effets de spécialisation (présence plus faiblle/plus forte de domaines scientifiques qui ont une propension à publier (ou à déposer des brevets) plus forte).

 

Sur le même sujet :

- Recherche : le rang de la France

- Le rapport Juppé-Rocard : quelques inepties

 - La déconcentration de la production scientifique

- L'innovation en Poitou-Charentes

Publié dans Recherche

Commenter cet article

Xavier 18/02/2011 13:07



Après la recherche, l'innovation.


Vu de l'intérieur et en toute objectivité les résultats sont assez similaires pour l'innovation (quoique peut-être un peu plus mesuré) : voyez cette récente co-publication Insee-Région IDF qui
conclut à une efficacité sous-optimale du fort potentiel d'innovation régional, particulièrement concentré à Paris. L'effet d'agglomération joue à plein... peut-être trop.


http://www.insee.fr/fr/insee_regions/idf/themes/alapage/alap345/alap345.pdf




OBO 18/02/2011 14:14



étude très intéressante!


un complément possible : faire des analyses structurelles-résiduelles notamment sur la taille (premier effet structurel) et sur le sous-secteur (deuxième
effet structurel), histoire d'expliquer une partie des différences Paris-Province. Ils doivent savoir faire cela à l'Insee, ça permettrait d'aller un cran plus loin dans
l'analyse.



julien 11/01/2011 13:30



Il me semble que ce ne sont pas tant les critères de qualité des revues (et des brevets si tant est que cela soit mesurable) qui jouent. Au moins pour l'économie, même quand on trifouille
les indicateurs dans tous les sens, on retombe de façon quasi-systématique sur les mêmes classements. Les 5 meilleurs revues sont invariablement l'AER, le JPE, la RES, Econometrica et le QJE.
Pour les labos, on obtient aussi toujours la même chose TSE, puis PSE (pas loin) et les autres plus loins. Le papier de 2001 de Combes et Linnemer en est un bon exemple (http://adres.ensae.fr/anciens/n62/vol62-03.pdf). D'autres études vont en ce sens. Il y a une très bonne explication à cela, les meilleurs sont
concentrés dans les meilleurs labos (émulation, carrières, partenariats, moyens, etc.) et en général, non seulement ils publient plus mais aussi mieux. Jean Tirole en est l'archétype, mais on
pourrait prendre d'autres exemples moins emblématiques. Du coup, la pondération par la qualité ne doit pas changer grand chose.


En revanche, on peut supposer que la répartition des effectifs de recherche par discipline joue fortement. En effet, les publis en maths sont généralement rares et signées par un ou deux auteurs.
Dans certaines sciences expérimentales (biologie, médecine, écologie, etc.) il n'est pas rare de voir des papiers avec de nombreux co-auteurs (parfois plus d'une dizaine) resservies
différement dans plusieurs revues. Ce sont des habitudes de publications différentes, mais qui peuvent grandement influencer ces résultats. Si l'on ne tient pas compte des co-auteurs (pas de
double compte pour un labo) et des moyennes de publication par discipline, alors on peut suspecter que ces chiffres nous disent simplement qu'à Paris, on fait plus de maths qu'ailleurs par
exemple.



bogous 09/01/2011 00:29



Mais d'où viennt-t-elle cette obcession de la grande taille...? :)



Arnaud Spiwack 07/01/2011 10:12



Je suis toujours dubitatif quand on utilise la bibliométrie (ou les brevet) comme indicateur. Par exemple, la baisse en terme de publications ou de brevets peut coïncider avec une productivité
croissante pourvu que la perte soit prise dans les publications et brevets sans intérêts (qui n'émanent pas de mauvais chercheurs, bien sûr, mais de chercheurs sous pression de leur hiérarchie de
faire monter des indicateurs dont l'intérêt est au mieux douteux).



OBO 07/01/2011 10:54



oui, on peut avoir ce type d'effet. On peut compléter l'analyse stat en se dotant d'indicateurs de qualité des publications par exemple, avec toute la
difficulté de l'exercice... Certains collègues se sont livrés à l'exercice, résultats non encore diffusables, affaire à suivre!