Les stratégies absurdes

Beauvallet M., 2009, les stratégies absurdes (comment faire pire en croyant faire mieux), éditions du Seuil.


Le fil conducteur de l’ouvrage est le suivant : un nombre croissant d’organisations se dotent d’indicateurs de performance, d’une part, et mettent en oeuvre des systèmes d’incitation/contrôle, d’autre part, pour influer sur les comportements des acteurs et s’assurer de l’amélioration desdites performances. Sauf que cette “doxa manageriale” échoue souvent, les stratégies mises en oeuvre conduisant à des résultats absurdes…

Petit exemple, en quatrième de couverture, développé ensuite dans l’ouvrage : un joueur de football, bon récupérateur de ballons, passe ensuite trop souvent la balle à l’adversaire. Décision des dirigeants : on lui inflige une sanction financière à chaque fois qu’il la rend à l’autre équipe. Résultat : le joueur ne passe plus la balle à personne…

Les douze chapitres du livre sont autant d’exemples des travers de ce type de stratégie. Certains trouveront sans doute l’ensemble assez répétitif, puisque c’est finalement toujours la même grande idée qui est illustrée. L’intérêt, de mon point de vue, est de démontrer ce faisant que ce type de pratique diffuse très largement dans l’ensemble de la société : au sein des entreprises, bien sûr, mais aussi dans les hôpitaux, dans les tribunaux, au sein des Universités, dans les organismes chargés du suivi des chômeurs et jusque dans les ministères. D’insister également sur la diversité des indicateurs de performance (indicateurs individuels, collectifs, relatifs, subjectifs) et sur l’intérêt de les mobiliser dans certains contextes organisationnels, mais l’absurdité de les utiliser dans d’autres.

Les Universitaires y trouveront deux analyses intéressantes : la première sur le cas australien, pays dans lequel on a décidé que les budgets alloués aux laboratoires dépendraient en partie du nombre de publications dans des revues à comité de lecture. Résultat : le nombre de publications à fortement augmenté, mais la qualité des publications s’est dégradée (qualité mesurée par le nombre de citations des articles publiés). Pourquoi? Les chercheurs se sont mis à publier plus qu’avant des articles un peu moins bons, dans des revues à comité de lecture plus facilement accessibles… La deuxième analyse porte sur les erreurs de mesure et les biais inhérent à l’évaluation des chercheurs, avec l’exemple du h-index notamment, je vous laisse la découvrir dans l’ouvrage (chapitre 11).

Il ne s’agit pas pour Maya Beauvallet de plaider pour un retour à des méthodes manageriales anciennes, temps de la contrainte et des “petits chefs”, mais de dénoncer les travers de stratégies insuffisamment pensées, où l’on commence par bâtir des indicateurs au lieu de définir une politique, de se doter d’objectifs, de prendre tout simplement le temps d’échanger avec les acteurs plutôt que de rester les yeux rivés sur son écran de contrôle, pour surveiller l’évolution des indicateurs.

Lecture qui donne envie de prolonger la réflexion, et d’ajouter des chapitres sur des sujets non traités. Par exemple sur la question des délocalisations : certaines entreprises s’appuient sur quelques indicateurs statistiques de base (coût de l’heure du travail, coût salarial unitaire) pour asseoir leurs choix de localisation, et quelle n’est pas leur déconvenue lorsqu’elles s’aperçoivent, une fois localisées dans des pays lointain, que la performance anticipée n’est pas au rendez-vous… Parce qu’elles rencontrent des problèmes de qualité, de management des équipes, de formation du personnel sur place, etc. En réduisant la performance d’une organisation à un indicateur de performance, elles déploient parfois, elles-aussi, des stratégies absurdes...

Sur les Universités, là aussi, on a envie d’approfondir au regard des évolutions en cours… La tendance à l’oeuvre semble consister à mesurer la performance des enseignants chercheurs par leur nombre de publications dans des revues à comité de lecture. On l’a vu avec l’exemple australien, cela peut se traduire par une baisse de qualité. Mais on peut également considérer que cela nuit à d’autres supports de communication (colloques, ouvrages, …). Et on réduit aussi l’activité de l’enseignant chercheur à son activité de recherche. On pourrait certes rétorquer qu’il suffit de se doter d’indicateurs complémentaires sur les volets enseignement et charge administrative, mais ce sont des activités beaucoup plus difficiles à évaluer. Ou alors, cela suppose de mettre en place des systèmes coûteux, dont le coût peu plus que compenser les gains attendus de l’amélioration du système… Et l'on entre dans tout un ensemble de complications liées à la construction d'indicateurs composites (quel poids pour chaque activité?). Que l’on collecte, dans les universités, plus d’informations sur l’activité de recherche des enseignants chercheurs me semble indispensable (l’information est excessivement dispersée, mal diffusée, ce qui nuit au rayonnement de la recherche et ce qui conduit à du gaspillage de temps considérable quand il s’agit, par exemple, de rédiger des rapports d’activité ou des projets de recherche). Mais que l’on prenne garde à ne pas, sur cette base, construire quelque indicateur de performance à l’aune duquel seront jugés les enseignants-chercheurs et dont dépendront les évolutions de carrière…

Petit mot pour finir plus sur la forme que sur le fond : l’ouvrage est court (150 pages environ), très clair, et rempli de formules que j’ai trouvé savoureuses. Au fur et à mesure de sa lecture, je me suis dit que Maya Beauvallet ferait une excellente blogueuse! Jai vu qu’elle avait rédigé quelques billets pour la vie des idées, celui-ci donnant un bon aperçu de son livre, mais un blog perso, ce serait bien aussi!