Accueil Revues Revue Numéro Article

Comptabilité - Contrôle - Audit

2009/1 (Tome 15)


ALERTES EMAIL - REVUE Comptabilité - Contrôle - Audit

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 249 - 257 Article suivant

Sociologie de la gestion : les faiseurs de performance, Valérie Boussard, Éditions Belin, Paris, 2008, 263 pages, ISBN 978-2-7011-4704-8

1

Qu’est-ce que la gestion ? Le projet de ce livre est de saisir la gestion en tant que forme sociale donnée et universelle, en rupture avec les pratiques précapitalistes antérieures. Boussard mobilise trois grands principes pour définir le Logos gestionnaire, soit la Maîtrise, la Performance et la Rationalité. La Maîtrise est représentée par le pilotage, au sens de conduite maîtrisée vers un but. Le fonctionnement d’une organisation Performante vise l’efficacité. Pour l’atteindre, la gestion adopte une démarche scientifique, dite Rationnelle. Les trois grands principes émanent d’un contexte historique particulier. D’abord, elle montre que l’idée de la maximisation du profit par le contrôle du procès de travail prend forme avec la naissance du capitalisme industriel, ensuite elle lie la naissance de la gestion à l’émergence, en Occident, de l’esprit scientifique, pour montrer par la suite que la bourgeoisie a rendu possible une exigence « intériorisée » du respect des principes du Logos gestionnaire et enfin elle soutient qu’avec la grande entreprise, disparaît progressivement la possibilité de supervision directe pour rendre nécessaire d’autres mécanismes de contrôle et de coordination du travail. La grande entreprise capitaliste serait la raison d’être de la gestion, mais une gestion conçue « dans la lignée de la pensée saint-simonienne, [...] érigée en administration des choses remplaçant le gouvernement des hommes » (Boussard, 2008, p. 113). La gestion se définit dès lors comme une forme juste, « dans la mesure où la rationalité scientifique est reconnue comme seule forme de pensée et de choix légitime » (Boussard, 2008, p. 118). Pourquoi une forme sociale ? Boussard montre que la « Gestion s’est, avec le temps, répandue pour mettre en forme des contenus de vie sociale sans commune mesure avec les intérêts capitalistes ou de la grande entreprise. On retrouve des dispositifs de gestion dans les PME, le service public et les associations » (Boussard, 2008, p. 77), voire dans la vie privée. La Gestion organise un contenu nouveau de la vie sociale, c’est-à-dire la Constitution du profit, et s’émancipe progressivement des conditions de son intervention pour servir de modèle à toute organisation sociale, la Gestion devient la forme sociale idéale, évidente, de conduite des affaires, comme le souligne l’auteure.

2

Mais le cœur de la thèse de Boussard montre que, s’il y a bel et bien un Logos gestionnaire porté par des dispositifs de gestion, son contenu et sa diffusion reposent sur la mise sous tension de savoirs intermédiaires. Ces savoirs sont intermédiaires au sens où ils ne se développent sur aucune des deux formes extrêmes de raisonnement présentes dans la littérature en gestion, c’est-à-dire ni sur la forme d’un Discours comme stratégie idéologique, dont on perd le processus de création, et ni dans les praxis ou stratégies locales, plurielles et indépendantes, qui ont pour effet de dissoudre la gestion, de la dépasser ou de la pervertir en permanence, mais bien à un niveau intermédiaire. Boussard mobilise une imposante littérature sur les limites empiriques des principes de gestion, pour bien mettre évidence cet effet de dissolution. Les pratiques de gestion ne paraissent pas toujours respecter le premier principe du Logos, celui de la Maîtrise car les dispositifs de gestion sont « à analyser au regard de la représentation de l’organisation qu’ils portent. Ils instituent une définition des situations et de cette façon participent à la régulation sociale de l’organisation, plus qu’à sa régulation technique, entendue au sens de maîtrise de la conduite organisationnelle » (Boussard, 2008, p. 98). La Rationalité qui préside au choix et à l’utilisation des indicateurs de gestion n’est pas celle présentée par le Logos gestionnaire. Elle est plus proche d’une rationalité en valeur, telle que définie par M. Weber. Et enfin, concernant la Performance, la New Economic Sociology (NES) montre que « les formes organisationnelles qui survivent ne sont pas forcément les plus efficaces au sens du marché : elles sont le résultat d’un jeu complexe entre lois et décrets, acteurs et professions dominantes, lobbies, opportunités de marché et structures concurrentielles » (Boussard, 2008, p. 111). L’auteure propose un niveau d’analyse intermédiaire pour étudier la production d’une homogénéité parmi les savoirs gestionnaires à travers la mise sous tension de trois groupes d’acteurs : les Universités, les cabinets-conseils et les entreprises. Les mouvements d’acteurs à ce niveau intermédiaire entre ces trois entités permettent de rendre compte en même temps de l’unité du Logos et de la diversité des dispositifs. La volonté des universitaires et des consultants de défendre leur territoire s’harmonise avec celle des gestionnaires d’asseoir leur légitimité : « la sagesse universelle enseigne qu’il vaut mieux pour sa réputation échouer avec les conventions que réussir contre elles » (Keynes, 1936, p. 172 in Boussard, 2008, p. 217). Dans les deux cas, les acteurs se rattachent à une forme simple de savoir, les abrégés du vrai de Michel Berry, omniprésents dans l’argumentation de Boussard. La gestion reposerait du coup sur une vaste mise en scène, dont la Gestion pose les conditions pour « jouer au manager ». Ce qui amène l’auteure à s’inspirer d’Austin (1955) pour soutenir que « s’il faut prendre au sérieux le Logos gestionnaire, c’est peut-être moins pour ses performances que pour sa performativité » (Boussard, 2008, p. 112).

3

À ce niveau intermédiaire, les professionnels jouent un rôle crucial, comme faiseurs de performance (sous-titre de cet ouvrage), les ingénieurs d’abord, puis les comptables par la suite, dont elle relate l’histoire en France et en Angleterre. L’importance de ces professions dans la définition du Logos gestionnaire aurait été telle que toute tentative de séparer la logique managériale de la logique professionnelle, comme le fait Friedson (2001), serait vaine. Mais de manière plus fondamentale, Boussard montre que les professions participent à la diffusion du Logos gestionnaire. Les dispositifs de gestion, et le mouvement des acteurs qui les portent sur les axes de la triangulation de l’espace gestionnaire, définissent la gestion. Boussard précise toutefois d’entrée de jeu que « le Logos émerge de dispositifs de gestion dont on sait maintenant qu’ils manipulent autant qu’ils sont manipulés » (Boussard, 2008, p. 19).

4

Boussard s’inspire de Foucault (1991) « Dits et Écrits » pour définir les dispositifs comme un « ensemble hétérogène d’éléments incorporant des discours, des institutions, des aménagements architecturaux ou techniques, des décisions réglementaires, des mesures administratives, des énoncés scientifiques, des propositions philosophiques, etc. […] articulés les uns aux autres, ils formulent un discours et un savoir, homogène et cohérent » (Boussard, 2008, p. 37). Mais pourquoi distinguer Discours et dispositifs si les dispositifs incluent déjà le Discours ?

5

L’idée de modes en gestion est un thème récurrent de cet exposé, puisqu’il permet de penser la diffusion du Logos gestionnaire, mais aussi de réfléchir sur la continuité de la Gestion à travers les changements de pratiques de gestion. La mode a comme principe le changement, mais suivre la mode est le principe universel. Les changements amenés par la mode sont le signe de sa permanence comme forme sociale.

6

La comptabilité occupe une place importante dans les dispositifs de gestion. Boussard la présente comme un dispositif de gestion qui a participé à l’émergence de la Gestion, à partir du moment où ce savoir a cessé d’être une simple technique de comptage, pour devenir un instrument de mesure, de comparaisons, de calcul de ratios, utilisé dans le but d’accroître la productivité.

7

Trois réserves peuvent être exprimées sur cet ouvrage par ailleurs très riche. Premièrement, il témoigne de la difficulté de réconcilier discours et pratiques, c’est-à-dire le Logos gestionnaire et les pratiques de gestion, ou, dit autrement, la Gestion et la gestion, sans reconduire d’autres dichotomies, par exemple celle qui sépare conception et diffusion d’une innovation, ou les aspects relationnels des aspects cognitifs de la pratique professionnelle. Une utilisation plus approfondie de la théorie de l’acteur réseau aurait pu permettre d’éviter cet écueil. Deuxièmement, les questions qui visent sans doute à simplifier l’exposé et à intéresser les praticiens, comme « Qu’est-ce que la gestion ? » « Que fait la gestion ? » « Comment se fait la gestion ? » « Qui fait la gestion ? » amènent le lecteur à voyager sur plusieurs niveaux d’analyse, ce qui pourrait être intéressant si cela ne donnait pas à voir des acteurs de la gestion abandonnés en chemin. Ceux qui résistent à la gestion, la pervertissent, ou même ceux qui la recomposent dans les cercles de qualité, sont absents de la triangulation de l’espace gestionnaire. Tout se passe comme si, dans le mouvement de reconstruction de la gestion, l’auteure ignorait ces acteurs laissés en plan par sa déconstruction. Et enfin, la variété et le nombre de cadres d’analyse mobilisés par l’auteure se font dans certains cas au détriment de leur profondeur, comme c’est le cas pour la théorie de l’acteur réseau, mentionnée ci-haut, ou pour la théorie des conventions ou la théorie institutionnelle dont les apports réciproques mériteraient d’être approfondis.

8

En terminant, l’auteure s’assure de préserver le fil conducteur de son exposé, par de brefs résumés en début et en fin de chapitres. Le lecteur, universitaire, consultant ou gestionnaire, pourra y trouver des pistes pour concevoir des innovations ou repenser la gestion, dans le contexte contemporain de la gestion marqué par le développement durable et la responsabilité sociale de l’entreprise, en revisitant notamment les stratégies sur lesquelles les professionnels ont élaboré les savoirs gestionnaires intermédiaires, soient « la définition du problème » en conformité avec les savoirs professionnels disponibles, « la conception de la solution » de manière cohérente avec le diagnostic et « la mise en valeur de l’effet » pour en faire la promotion. Boussard nous amène à voir que la redéfinition de la gestion passe par un changement de paradigme, pour définir le problème, sa solution et son effet, en référence à un tout autre registre de savoirs concurrents.

9

Marie-Andrée Caron

10

École des sciences de la gestion, Université du Québec à Montréal – Montréal (Québec), Canada

Analyse et évaluation financières des entreprises et des groupes, Christian Hoarau, 1re édition, Vuibert, Paris France, 2008, 387 pages, 39 euros, ISBN : 978-2-7117-7550-7

12

La publication d’un ouvrage consacré explicitement aux questions d’analyse et d’évaluation financières des groupes constitue en soi une bonne nouvelle, ce sujet faisant l’objet d’un traitement trop rare au regard de son importance et des difficultés d’exploitation des comptes consolidés. Son intérêt est d’autant plus grand que les références disponibles sur ce thème sont parfois antérieures à la mise en place des normes internationales et n’ont donc plus qu’une pertinence relative.

13

Après une présentation du contexte et des outils de l’analyse financière, l’auteur a adopté dans un premier temps un plan classique, s’attachant successivement aux états financiers et à leur retraitement (chapitre 2), aux diagnostics préalables à leur exploitation (chapitre 3) puis à l’analyse financière proprement dite (chapitre 4 avec l’analyse de la rentabilité, chapitre 5 avec la création de la valeur, notion souvent rejetée à la fin des ouvrages mais ici judicieusement placée à proximité des problématiques de rentabilité). Il choisit ensuite de quitter la voie habituellement suivie en intercalant un diagnostic de la gouvernance et de la responsabilité sociale de l’entreprise (chapitre 6) avant de traiter non pas de la structure financière, abordée dans le cadre du chapitre 8, mais de la liquidité (chapitre 7). Argumentée de manière convaincante, cette architecture pourrait néanmoins désarçonner de prime abord le lecteur néophyte. Ce choix nous paraît cependant opportun au regard des problématiques traitées et de leur articulation mais également des caractéristiques des comptes publiés par les groupes, couplant informations financières et de gestion en un ensemble à exploiter simultanément. Le livre s’achève par la présentation de l’examen de la structure et du risque (chapitre 8) puis par une synthèse nécessairement rapide mais néanmoins dense sur l’évaluation (chapitre 9), terme de la démarche d’analyse financière.

14

L’auteur s’attache à réaliser en introduction un bref rappel de l’histoire de l’analyse financière depuis la fin du xixe siècle, informations qui permettent de rappeler utilement la contingence des pratiques et contribue ainsi à inscrire dans le cadre de l’ouvrage l’analyse des performances sociétales de l’entreprise, dimension qui en constitue une des originalités. Dans un livre dense et au contenu technique important le premier chapitre revêt une importance cruciale puisqu’il conditionne l’orientation du lecteur dans son apprentissage futur. À cet égard, il remplit ici parfaitement son rôle car la présentation de la démarche et des sources d’information, précédant celle des outils utilisés, aboutit à en qualifier utilement les apports et les limites. Le cadre d’analyse proposé et détaillé dans cette partie permet d’articuler avec clarté la logique de progression et de comprendre la structure adoptée.

15

Sur ces bases, le lecteur peut donc aborder avec les armes nécessaires le décryptage de cet outil majeur que demeurent les états financiers (chapitre 2). Une large place est consacrée aux normes internationales ce qui distingue également ce livre dans la mesure où leur présence peut être parfois purement nominale. La présentation thématique articulée autour des postes des états de synthèse et la comparaison synthétique avec les normes françaises sont d’une incontestable efficacité pédagogique pour l’étudiant qui ne serait pas familier du dispositif normatif. L’auteur s’attache ainsi de manière très instructive à identifier par origine les sources de distorsion, avant de passer en revue les différents postes des états pour en résumer les enjeux sous jacents. L’exercice est un succès, en dépit des difficultés que soulève sa réalisation en un espace aussi compté. La partie consacrée aux comptes de groupes et aux retraitements spécifiques à ces documents présente, de par la qualité du traitement de ces questions délicates, une grande utilité. Les développements sur le goodwill ou les montages déconsolidants apparaissent enfin particulièrement bienvenus et ce d’autant plus que le contexte financier actuel qui leur donne une acuité supplémentaire.

16

Muni de ces connaissances sur l’outil de base de l’analyste, le lecteur se voit rappelé que ces états financiers ne constituent pourtant pas le seul horizon de l’analyse financière. Le chapitre suivant (chapitre 3) est en effet consacré aux outils du diagnostic stratégique, fonds sur lequel se déploie l’exploitation des documents comptables. Si elles ne sont pas absentes des ouvrages d’analyse financière, ces questions font l’objet ici d’un développement particulièrement important, parfois même d’un abord difficile, dont l’ampleur et la complexité reflètent au total bien les contraintes de l’exercice et les enjeux qu’il représente pour l’analyste financier.

17

Avec le quatrième chapitre s’ouvre une partie plus classique de l’ouvrage, la présentation de la démarche d’exploitation des états financiers à proprement parler. Elle débute assez classiquement en s’attachant à la rentabilité et à la croissance. Les développements sont précis et clairs grâce à une présentation typographique sophistiquée du plan suivi et des clefs du raisonnement. Cela permet au lecteur de ne pas s’égarer dans la moisson abondante d’informations fournies. Le constat de l’insuffisance des outils traditionnels pour apprécier ces notions permet d’introduire dès ce niveau la création de valeur (chapitre 5). Une présentation synthétique et bien structurée des modèles ne constitue pas en ce domaine la seule dimension abordée. En effet, l’auteur étend ici aussi le champ habituel des ouvrages d’analyse financière en attirant l’attention sur la nécessité d’intégrer une approche plus qualitative, s’attachant aux business models. Le chapitre suivant (chapitre 6) est consacré entièrement aux questions de gouvernance et de responsabilité sociale, mise en perspective bienvenue de la seule « shareholder approach » (p. 233). L’importance accordée à ce sujet, sa place au centre du processus d’analyse, entre les deux pôles que sont l’analyse de la rentabilité et celle de la structure, est argumentée de manière convaincante en mettant en avant les enjeux contemporains de développement durable. Elle paraît néanmoins de nature à déstabiliser l’étudiant peu familier de ces questions car il ne facilite pas nécessairement l’intégration des différentes briques attendues au terme de la lecture des états.

18

Il est vrai que l’ouverture du chapitre 7 permet d’assurer la transition grâce à une présentation de l’articulation des documents financiers et du tableau de flux. Cela contribue à remettre leurs différentes composantes en perspective et de se replacer dans « l’ambiance » nécessaire à leur exploitation. Deux chapitres sont à nouveau centrés sur ces documents comptables et consacrés à des problématiques plus classiques de l’analyse financière, respectivement la liquidité et la structure financière. Encore une fois, au-delà de la présentation choisie, l’auteur s’attache opportunément à souligner les spécificités des comptes consolidés et consacre un développement étoffé à l’analyse du tableau des flux, ce qui contribue à donner à l’ouvrage une particulière pertinence pour l’exploitation des données comptables dans leur présentation actuelle. Il est à cet égard symptomatique de la posture adoptée que l’espace consacré aux ratios de liquidité ainsi qu’à analyse fonctionnelle et au fonds de roulement soient comparativement brefs. L’analyse de la structure et du risque s’articule pour l’essentiel autour du bilan « pool de fonds », du portefeuille d’actifs et de la stratégie de financement. Synthèse éclairante, les développements consacrés au financement s’avéreront en revanche d’une opérationnalisation probablement difficile pour un lecteur peu averti.

19

L’ouvrage se termine par un chapitre consacré à l’évaluation. Nécessairement synthétique, il traite néanmoins clairement des principales méthodes, en s’attachant à les remettre en perspective. Les illustrations qui émaillent la présentation, articulant les différentes démarches de valorisation sur l’exemple d’un même groupe, apparaissent particulièrement pédagogiques et permettent de bien identifier les spécificités de chacune des approches présentées. Une partie indépendante est consacrée à l’évaluation des titres cotés (principalement) et non cotés, permettant de replacer dans leur contexte les modèles adossés aux dividendes et aux multiples. Le livre s’achève, de manière peut-être un peu abrupte, au terme de ce chapitre.

20

Au total, l’ouvrage s’avère particulièrement riche et documenté, abordant de manière précise des questions souvent peu (ou mal) traitées. Il constitue à cet égard un recueil de référence précieux même si la difficulté et la technicité de certains développements, ainsi que l’originalité du plan adopté, peuvent sembler le destiner plus particulièrement aux lecteurs ayant déjà une bonne connaissance du cadre général de ces problématiques. À cet égard, l’adoption d’une structure plus classique et/ou le développement des passages récapitulatifs, permettant de consolider et remettre en perspective les points acquis, pourraient probablement faciliter l’accès au texte.

21

Stéphane Lefrancq

22

IAE de Paris – Université Paris 1 Panthéon Sorbonne

L’implosion : la finance contre l’économie : ce que révèle et annonce la « crise des subprimes », Paul JORION, Fayard, mai 2008, ISBN : 33-57-3986-3-01

23

Paul Jorion est un anthropologue. Il a donc ce regard très particulier à son champ de compétences sur le monde financier et bancaire. Il dissèque l’organisation de la finance américaine qui est à l’origine de la crise qui balaye actuellement l’économie mondiale. Il décrit le monde financier et la succession des événements ayant amené la situation actuelle sans utiliser une seule équation, et avec une précision quasi entomologique.

24

Paul Jorion annonce avec une exactitude pythique les événements qui vont se succéder à la suite de la crise des subprimes. Avec une capacité de prédiction étonnante – le livre a été publié en mai 2008 –, il prévoit l’enchaînement des événements. Les premiers chapitres décrivent le point originel de la crise financière : la faillite du système américain de financement des acquisitions de logements par la classe moyenne. L’analyse de Jorion rejoint celles de J. Attali ou M. Rocard, ou plus exactement les précède puisque le livre leur est antérieur : Aux États-Unis, le système capitaliste poussé à son paroxysme a pour conséquence l’impossibilité pour les classes moyennes d’acquérir un logement autrement que par l’emprunt. La progression des salaires est insuffisante pour permettre à ces classes moyennes d’épargner dans la mesure où le partage de la valeur ajoutée créée se fait essentiellement au profit du facteur capital et au détriment du facteur travail.

25

Néanmoins, jusqu’à la fin de l’année 2008 un système de prêts hypothécaire privés répond à cette insuffisance. Les futurs propriétaires se voient attribuer des crédits pouvant aller jusqu’à 130 % de la valeur initiale du bien, sans apport initial ni même justification d’apport de fonds : ce sont les no docs loans (no documents loans, prêts sans documents) ou les liar loans (Prêts de menteurs). Le système ne tient que grâce à l’augmentation constante et régulière du prix de l’immobilier américain. En cas de défaut de paiement, la revente du bien à un prix supérieur à son prix d’achat suffit à rembourser le capital emprunté, et même à réaliser une plus-value.

26

C’est toutefois l’augmentation sensible du taux de défaillance de ces prêts qui a amené un nombre trop important de logements à la vente sur le marché et a ainsi fait exploser la bulle immobilière américaine. Les logements ne se vendant plus à un prix supérieur à leur coût d’achat, la revente ne suffit plus à couvrir le remboursement des emprunts et les créances hypothécaires inscrites au bilan des organismes prêteurs se déprécient de plus en plus. On entre ainsi dans un cercle vicieux où la mise sur le marché de plus en plus de logements dans le but de rembourser des prêts immobiliers fait chuter le prix de l’immobilier, chute qui déprécie d’autant les créances hypothécaires.

27

L’histoire aurait pu s’arrêter là et ne concerner que le système financier hypothécaire américain. Cependant, deux phénomènes sont venus amplifier le phénomène et le propager au système financier américain dans un premier temps et au système financier mondial dans un second temps. Ces deux phénomènes sont l’implication légitime dans le système des GSE (Goverment sponsorised entities) : Freddie Mac et Fannie Mae, deux organismes financiers hypothécaires géants américains se refinançant par émission de titres sur le marché d’une part et la titrisation d’autre part. En effet, les organismes financiers américains n’ont pas pour habitude (et n’ont d’ailleurs pas les moyens financiers) de conserver les créances à l’actif de leur bilan. L’usage est donc de revendre ces créances sur les marchés financiers par l’intermédiaire de différents produits, au premier rang d’entre lesquels se trouvent les CDO, les Collateralised debt obligation. La titrisation, a donc amené de très nombreux investisseurs du monde entier à devenir détenteurs de créances hypothécaires américaines. En théorie, le risque lié à la détention de ces titres est mesuré par les agences de notation à travers les notes qu’elles attribuent aux diverses émissions. Dans ce cas bien précis, les agences de notation ont failli. Le risque des divers instruments financiers contenant des actifs hypothécaires et en particulier des CDO n’ont pas été bien appréhendés par lesdites agences. Jorion cite Bill Gross, Directeur de PIMCO, principale sicAV américaine, lequel avance sans ménagement que « les investisseurs ne se sont pas aperçus qu’il s’agissait (Les CDO) de putains outrageusement maquillées aux talons de 15 cm » (p. 257).

28

La crise s’est donc ainsi propagée à l’ensemble du système financier d’abord américain puis mondial assez rapidement. Dans un premier temps, les plus grosses banques d’affaires américaines, au premier rang d’entre elles Lehman Brothers, ont été obligées de constater l’existence dans leur bilan d’actifs sans valeur, ou, pire, d’actifs dont elles n’étaient même pas capables de connaître la valeur. La crise s’est alors amplifiée et manifestée de deux manières : d’abord par la faillite des grands acteurs financiers américains que nous connaissons, mais également par le biais d’une crise de liquidités : les acteurs du système financier n’osant plus prendre en garantie des créances de leurs débiteurs et aucun prêt de liquidités ne pouvant se faire sans prise de garantie, le marché monétaire a virtuellement cessé d’exister. Les grandes banques n’osant plus se prêter les unes aux autres, seules les autorités monétaires étaient en mesure d’injecter des fonds et de débloquer les échanges.

29

Jorion arrête là son analyse qui, rappelons-le, date du début de l’année 2008. Il conclut en mettant le doigt sur la propension que peuvent avoir les entreprises financières à augmenter leur taille et leur influence par rapport à l’économie réelle. Il écrit ainsi : « La logique des entreprises est celle d’un développement toujours plus grand dans un système où il n’existe pour elles aucun frein et l’idée même de limites à la croissance est entièrement étrangère au système. » Il revient alors à son métier d’anthropologue et repart d’un texte de Sahlins (1961 [1][1] The Segmentary Lineage : An organization of Predatory...) compare l’expansion des entreprises à celles des lignages dans les sociétés africaines (p. 314). Dans ces sociétés, le chef de clan cherche à envahir l’environnement et à coloniser les tribus avoisinantes par l’abondance de sa progéniture. Comme les clans africains, les entreprises ont pour principal objectif d’assurer leur survie et pour ce faire de conquérir de la surface financière et des parts de marché. Or le développement d’une telle stratégie d’expansion des lignages ou des clans dans un univers densément peuplé, s’il est logique, se révèle catastrophique pour l’espèce prise dans son ensemble. Il est donc nécessaire d’instaurer des garde-fous, d’endiguer la volonté légitime des institutions et des firmes financières de croître. Cet endiguement ne peut se faire que par la Loi. Mais la loi reste impuissante dès lors qu’elle est locale, là où l’expansion des firmes est mondiale. D’où la proposition de Jorion qui n’est ni plus ni moins qu’un nouveau New Deal à l’échelle internationale. Les leçons à tirer de la crise peuvent être, pour l’auteur, résumées en une proposition unique : il est nécessaire d’écrire et d’imposer, à l’échelle mondiale, une Constitution unique constituant un cadre ferme et intangible à toutes les activités économiques existantes. La réglementation simple sera toujours inefficace, car elle est généralement rédigée ex-post et est limitée à la fois par son cadre national mais également par le cadre spécifique pour lequel elle est conçue. Complexe et sans qu’elle tienne compte des autres textes qui auraient pu être pris, sa portée est donc limitée : d’où la nécessité d’un cadre éthique global encadrant toutes les activités économiques. S’il reste possible de critiquer la conclusion de l’auteur sur sa proposition, laquelle reste assez floue quant à son contenu (qui serait en charge de rédiger une telle Constitution, que contiendrait-elle, comment l’imposer aux États et aux entreprises, etc.), l’analyse de Paul Jorion est limpide et clairvoyante. Elle met parfaitement en relief les excès d’un système fondé sur le seul jeu de la concurrence sans qu’aucun arbitre ne vienne en réguler les échanges. Et surtout elle reste malheureusement prophétique sur le devenir d’une crise qui, de financière est devenue économique, avant de toucher probablement toutes les activités des sociétés modernes.

30

Philippe GILLET

31

Maître de Conférences en Finance, Faculté Jean Monnet, Université de Paris-sud

Critique de la valeur fondamentale, sous la direction de Christian Walter et Eric Brian avec la collaboration d’Édouard Challe, Philippe de la Chapelle, Pauline Hyme, Serge Galam, Yamina Tadjeddine et Isabelle This Saint-Jean, Springer-Verlag France, 2008, 204 pages, 45 €, ISBN : 978-2-287-73069-6

32

« Critique de la valeur fondamentale » est une publication fort opportune en ces temps de crise financière et de remise en question des concepts traditionnels de la finance. La succession de bulles et de krachs, la très forte augmentation de la volatilité des marchés financiers, ne manquent pas d’interpeller sur la capacité des cours boursiers à rendre compte de la valeur, supposée fondamentale, des entreprises. C’est à un véritable travail de « déconstruction-reconstruction » de cette notion de valeur fondamentale que les auteurs nous invitent dans un ensemble dont le soin apporté à l’enchaînement des articles doit être souligné.

33

Dans un premier chapitre intitulé « La valeur dite fondamentale », Philippe de La Chapelle après avoir rappelé les principales approches de la valorisation des entreprises et l’importance des paramètres de marché dans les techniques de valorisation, souligne le paradoxe de la valeur fondamentale. La valeur fondamentale s’élabore dans une perspective résolument intrinsèque à partir d’une estimation des revenus futurs espérés qu’il convient d’actualiser en utilisant le marché pour apprécier le taux d’actualisation. Et de conclure à l’impossibilité de dégager une valeur fondamentale qui serait totalement intrinsèque et exogène au marché. Ce constat élaboré sur le cas des entreprises cotées se trouve renforcé par les pratiques d’évaluation des entreprises non cotées, pour lesquelles les paramètres sont alors déterminés par analogie avec des paramètres d’entreprises cotées fondés sur des valeurs de marché.

34

Édouard Challe dans un chapitre intitulé « Valeur fondamentale et efficacité informationnelle » articule la notion de valeur fondamentale au concept d’efficacité informationnelle pour approfondir le paradoxe précédent, ce concept étant la conséquence de l’hypothèse des anticipations rationnelles qui permet de fonder l’objectivité de la valeur fondamentale et des cours boursiers, hypothèse caractéristique de l’approche classique et de l’analyse comportementale. À partir d’une critique méthodologique des tests classiques de valeur fondamentale, il met en évidence qu’un marché peut être considéré efficace au sens informationnel sans pour autant fournir une certitude sur la valeur d’un actif en raison de l’hypothèse conjointe. Cette indétermination de la valeur est liée à l’incapacité du principe informationnel à choisir un modèle d’évaluation et proposer une modélisation des aléas.

35

Les chapitres suivants se situent dans la perspective d’une explication des écarts entre la valeur fondamentale et le prix. Dans un chapitre 3, Isabelle This Saint-Jean attribue lindétermination de la valeur fondamentale à l’existence de bulles spéculatives. À partir d’une analyse critique des modèles économétriques dynamiques et d’une présentation des modèles de bulles, l’auteur démontre que l’hypothèse d’anticipations rationnelles conduit à une multiplicité des équilibres, « reflet de l’indétermination qui caractérise le monde réel et qui trouve son origine dans l’autoréalisation des croyances des individus ». Dans le chapitre 4, Pauline Hyme examine l’impact des bruits sur cette indétermination. L’existence d’agents mal informés conduit les agents bien informés à négliger la valeur fondamentale dans leur calcul économique et génère des situations de marché qui peuvent être durablement inefficaces du point de vue informationnel.

36

Ces deux analyses concluent à l’apport de ces modèles pour remettre en question le fonctionnement des marchés mais également à leur incapacité à fournir une valorisation exogène et objective, les deux chapitres suivants envisagent une objectivation à partir de facteurs relevant de la sociologie. Dans un chapitre 5, Serge Galam aborde le lien entre la valeur fondamentale et les croyances collectives. À partir d’un modèle de la sociophysique, il propose une agrégation des opinions des intervenants sur les marchés boursiers. Il démontre que ces opinions individuelles se combinent de telle sorte qu’en fonction de certaines configurations de marché, en particulier le nombre d’agents pris en compte, le cours de bourse converge vers la valeur dite fondamentale ou diverge radicalement. Il conclut à l’influence des croyances collectives dans la formation des cours de bourse. Dans le chapitre suivant, Yamina Tadjeddine, s’inscrit totalement dans cette perspective en envisageant les liens entre la spéculation boursière et les représentations mentales. À partir d’une distinction entre trois représentations mentales de l’évolution à court terme des cours de bourse : une représentation « fondamentaliste » pour laquelle le cours de bourse correspond à la valeur fondamentale, une représentation stratégique, pour laquelle le cours de bourse résulte du jeu des offres et des demandes des intervenants, et une représentation « conventionnaliste » pour laquelle le cours de bourse reflète l’opinion du marché entendue comme une convention, et d’une distinction entre les types d’information utilisés pour les comportements d’achat ou de vente, elle propose une typologie des comportements spéculatifs permettant de comprendre la formation des cours boursiers. Les deux derniers chapitres, proposés par Eric Brian et Christian Walter, capitalisent les résultats établis par les coauteurs de l’ouvrage et formulent des propositions théoriques et pratiques pour l’évaluation des entreprises. Le chapitre 7 se propose de réunifier les deux composantes traditionnelles de l’évaluation (la composante fondamentale et la composante spéculative) sur la base d’un renouvellement du traitement de l’incertitude. Les auteurs proposent de rompre avec la représentation traditionnelle marquée par l’univers Gaussien pour la quantifier par des aléas de type Pareto. Ils formulent deux propositions (p. 152) :

37

« Proposition 1 (hasard de Pareto et valeur fondamentale) : une réalité économique parétienne produit une incertitude sur la valeur fondamentale des sociétés ;

38

Proposition 2 (hasard de Pareto et comportement des agents) : une réalité économique parétienne peut conduire les opérateurs de marché et les investisseurs à des comportements mimétiques. »

39

qui leur permettent de fonder une vision unifiée de la volatilité et d’acter la déconstruction de la valeur fondamentale : « le lieu où la valeur fondamentale trouve aujourd’hui sa consistance n’est pas celui des phénomènes économiques eux-mêmes mais celui de leurs calculs de routine par les spécialistes » (p. 158).

40

Le chapitre conclusif s’inscrit dans une double démarche épistémologique et opérationnelle. Les auteurs inscrivent leurs propos dans le cadre d’une rupture avec la conception « clivée » de la finance qui distinguent une volatilité normale et une volatilité excessive, une variabilité boursière naturelle et une variabilité boursière qualifiée de factice, une composante fondamentale et une composante spéculative dans les cours boursiers, une bonne information financière et une mauvaise information financière (endogène), des agents sérieux des autres agents. Ils proposent de réunir ces oppositions à travers une conception renouvelée de l’incertitude, appréciée à partir des fonctions de Pareto.

41

Au total, une somme fort stimulante, parfois ardue (la moyennisation quételésienne mériterait sans doute une explicitation [2][2] En effet, comme le souligne Alain Desrosières, Adolphe...), qui nécessite une bonne connaissance du corpus théorique mobilisé et une bonne accoutumance à la modélisation et aux développements mathématiques. Au terme de la lecture, le lecteur qu’il soit praticien ou universitaire envisagera l’évaluation comme une pratique sociale dont la reconstruction est en cours à travers un débat organisé sous le double sceau des développements théoriques et des propositions opérationnelles.

42

Jacky Koehl

43

Maître de Conférences Nancy Université, Chercheur au CEREGIGE, Professeur Affilié ICN

Le Cygne Noir – La puissance de l’imprévisible, Nassim Nicolas Taleb, Les Belles Lettres, Paris, 2008, 496 p. Titre original : The Black Swan, The Impact of Highly Improbable, 2007, ISBN : 978-2251-44348-5

44

Le texte est suivi d’un glossaire et d’une bibliographie très abondante.

45

« Imaginez simplement combien votre compréhension du monde à la veille des événements de 1914 vous aurait été de peu de secours pour deviner ce qui allait se produire »… « Voyez l’attentat terroriste du 11 septembre 2001 ; si on avait pu en concevoir raisonnablement le risque le 10 septembre, il ne serait pas arrivé. » « Dans la logique du cygne noir, ce que l’on ne sait pas compte beaucoup plus que ce que l’on sait. »

46

Le projet de l’auteur est clairement déclaré dans le prologue : dénoncer notre cécité face à des événements à faible probabilité et effets catastrophiques, à des signaux faibles, apporter la démonstration que l’observation et l’expérience donnent une idée incomplète du monde et des événements futurs. Tous les cygnes sont blancs jusqu’au jour où se révèle qu’en certains pays les cygnes sont noirs. La prévision est déjouée mais la prévisibilité est validée a posteriori : les méthodes ne sont pas en cause. L’auteur, ancien trader praticien des méthodes quantitatives, reconverti à l’écriture, avait déjà traité de ce sujet dans un autre ouvrage : Le hasard sauvage. Des marchés boursiers à notre vie : le rôle caché de la chance (2005). La première partie de l’ouvrage qui nous intéresse décrit en neuf chapitres les mécanismes par lesquels les individus cherchent la validation de leur savoir. L’auteur entre en guerre contre la « platonicité », la « tendance à confondre la carte et le territoire… qui nous fait croire que nous comprenons plus de choses que ce n’est véritablement le cas ». Il choisit une démarche soft, pleine d’exemples, parfois autobiographique pour inviter le lecteur à passer du « Médiocristan » à « l’Extremistan ». La dédicace de l’ouvrage à Benoît Mandelbrot dit l’opposition qu’il promet entre la courbe en cloche de Gauss-Laplace et les propriétés des fonctions de distribution scalantes (N.N. Taleb préfère scalabres) comme celle de Pareto ou Levy-stables (à queues épaisses) ou les lois fractales. Une variante : les Cygnes Gris. On parle de scalabrité quand un individu ou une minorité ont la possibilité de démultiplier les effets de ses actes dans des proportions considérables pour dominer les autres ou s’enrichir à leurs dépens, quand le spéculateur – effet de levier aidant – agit à grande échelle et accumule des gains considérables alors que ceux de la prostituée son limités par le temps dont elle dispose. Mais le gain de la seconde est assuré alors que celui du premier est peu probable. En Médiocristan les probabilités s’organisent autour d’un attracteur (la moyenne de la loi de Gauss). En Extrémistan elles se raisonnent en fonction des valeurs élevées (gains ou pertes) et des sauts vers de nouvelles règles. Il est commode de penser que nous vivons au Médiocristan car cela permet d’esquiver la question des extrêmes, d’exclure a priori « les surprises de type Cygnes Noirs ». Pour l’auteur cette cécité soulève cinq problèmes qui font les biais de raisonnement – et au-delà du refus de l’Extrémistan – dans les ressources de la psychologie cognitive. 1°) L’erreur de confirmation conduit à confirmer une opinion préconçue en s’appuyant sur des indications non pertinentes et des erreurs de logique : la validation de l’opinion l’emporte sur la vérification que les observations statistiques sont robustes. 2°) L’erreur de narration réside dans l’incapacité à observer des événements sans les rattacher à une relation causale déjà établie, ce qui fonde l’impression qu’on les comprend mieux : la narration qui s’en suit – influencée par le spectaculaire et l’émotionnel – biaise la plausibilité et la probabilité des événements. 3°) La négation des Cygnes Noirs est dans la nature humaine. Peu d’élus recevront les gains élevés de ces discontinuités, non-linéarités à faibles probabilités. Il faut donc savoir prendre le risque de perdre un peu de nombreuses fois pour s’inscrire dans la possibilité d’un gain peu probable mais disproportionné aux pertes précédentes. 4°) Ce que nous retenons de l’observation ne reflète pas toute la réalité. On oublie la grande fréquence des issues défavorables et ne retient que le rare cas favorable en l’attribuant à une chance infaillible. 5°) On se focalise sur des Cygnes Noirs très particuliers pour lesquels le risque est en fait bien maîtrisé – les jeux de casino par exemple – alors que les situations de risque extrême sont souvent ignorées ou considérées comme anodines.

47

Ayant visité ces cinq facteurs de « l’aveuglement platonique », N.N. Taleb engage une seconde partie dont le titre est on ne peut plus explicite : « les prévisions sont tout bonnement impossibles ». Ce que les gens croient savoir est souvent loin de la réalité et ils surévaluent la réalité de ce qu’ils croient savoir. Le « scandale des prévisions » tient à ce que « nous passons (presque) toujours à côté des événements importants ». Nous évaluons mal la qualité de nos connaissances. Les experts évaluent mal la réalité de leur savoir et la marge d’erreur qu’engendre l’incertitude. Ils identifient rarement les événements qui sortent du commun mais à conséquences significatives sur les situations futures. Ils sont soumis au mécanisme d’ancrage mental (Kahneman & Tverski) qui réduit leur discernement face à l’incertitude. Beaucoup de grandes découvertes ont été fortuites et leur prévision aurait été impossible tant leur survenance a été dépendante de phénomènes complexes et infimes. Le besoin de prévisions et la conséquence de nos connaissances limitées. Leur apport y répond peu. Il faut accepter l’idée d’accident, voire d’échec, et comprendre que la stabilité peut être trompeuse. La volatilité génère de l’inquiétude mais elle est aussi source de gains si on l’accepte et qu’on cherche à lui donner des issues positives.

48

Dans les cinq chapitres de la troisième partie l’auteur invite à transformer les Cygnes Noirs de l’Extrêmistan en Cygnes Gris. La courbe en cloche, caractéristique en Médiocristan, tient par l’attachement préférentiel à son attracteur (la moyenne) et élimine en apparence le risque quand la taille de la population croît. Mais elle ignore le nouvel arrivant, initialement dans les queues de distribution, qui pourtant devient le nouvel attracteur. On cherche pourtant à fuir l’Extrémistan – où règnent inégalité et insécurité – mais il finit par s’imposer. N.N. Taleb Lui substitue les distributions « scalables » de Mandelbrot. La réplication des formes géométriques à des échelles d’observation différentes a pour conséquence de réintroduire une partie des Cygnes Noirs dans la normalité de la distribution. Quand c’est le cas ceux-ci deviennent des Cygnes Gris (modélisables). La résistance à cette nouvelle approche en sciences économiques vient des personnalités les plus en vue de la discipline. C’est pourtant à une manière nouvelle d’appréhender le hasard que nous invite l’auteur.

49

Les Cygnes Noirs sont plus à redouter que les menaces identifiables car non révélés ils sont pernicieux. Malgré les opportunités qu’ils offrent parfois l’auteur reconnait les craindre plus que les aimer.

50

Nassim Nicholas Taleb nous propose un décapage des connaissances que nous croyons avoir sur la mesure et l’analyse des risques en les confrontant aux événements imprévisibles et non probabilisables que sont ses Cygnes Noirs. Il met en évidence l’ignorance où se trouvent les économistes et les financiers, mais au-delà tous les experts, de la nature de ces phénomènes extrêmes, le vide des méthodes qui permettraient d’en envisager la possibilité, la cécité face à leur éventualité. Cette démonstration est documentée et clairement exposée et témoigne de la longue connaissance que l’auteur a du sujet et de la curiosité qu’il a eue d’en explorer tous les aspects. Ne serait-ce que pour la provocation à la réflexion la lecture de l’ouvrage est recommandée.

51

On exprimera toutefois quelques regrets

52

Le réquisitoire est exclusivement à charge à propos du Médiocristan et à décharge sur l’Extrêmistan. On attend que la critique de l’explication causale soit réflexive et qu’elle s’applique aussi à la nouvelle démarche. Le débat existe quant à la conduite à tenir face à des extrêmes imprévisibles (par exemple avec le principe de précaution) il serait intéressant d’en tester la pertinence selon la méthodologie proposée.

53

L’auteur livre de deux issues contradictoires mais n’explore pas la voie ainsi ouverte. Le résultat est un traitement trop introductif et partiel des conduites à tenir face à l’imprévisible. D’une part il s’agit de deux mondes séparés entre lesquels il faut choisir : leurs logiques sont irréductibles l’une à l’autre. D’autre part ce sont deux mondes liés dont l’un menace l’autre : les Cygnes Noirs n’existent que par des limites de connaissance. On attend alors que soit caractérisé un nouveau paradigme destructeur du Médiocristan soit par la naissance d’un autre monde qui le remplace, soit par une subversion révolutionnaire qui le transforme.

54

La seconde option semble retenue par l’auteur mais la nouveauté méthodologique se limite (trop passionnellement) à la fractalité de Mandelbrot. L’économie des extrêmes ne se limite pas à la « scalabrité » comme l’illustre bien l’ouvrage de Zajdenweber [3][3] Zajdenweber D. (2000), Économie des extrêmes, Paris :..., lui-même proche de B. Mandelbrot. Ce dernier ouvre effectivement des voies fécondes à la réflexion mais il aurait été utile de montrer plus précisément comment grâce à lui les Cygnes Noirs virent aux Gris.

55

Faute de prises de distance critique – et bien que l’auteur s’en défende à plusieurs reprises – le propos peut devenir un panégyrique de la réussite hors des chemins tracés, de ceux qui ont choisi l’inconfort et l’insécurité dans la perspective d’un gain peu probable mais exorbitant. Un plaidoyer pour ceux dont on raconte le succès aux étudiants en management en oubliant la multitude d’échecs qui ont fait la contrepartie.

56

Ceci pris en compte, un ouvrage à lire.

57

Jean-François Lemettre

58

Université de Paris-Sud-11, PESOR, Sceaux, France

Notes

[1]

The Segmentary Lineage : An organization of Predatory Expansion

[2]

En effet, comme le souligne Alain Desrosières, Adolphe Quetelet est passé du piedestal à l’oubli au cours du xxe siècle. A. Desrosières « Adolphe Quetelet » Courrier des statistiques n° 104, décembre 2002

[3]

Zajdenweber D. (2000), Économie des extrêmes, Paris : Flammarion.

Titres recensés

  1. Sociologie de la gestion : les faiseurs de performance, Valérie Boussard, Éditions Belin, Paris, 2008, 263 pages, ISBN 978-2-7011-4704-8
  2. Analyse et évaluation financières des entreprises et des groupes, Christian Hoarau, 1re édition, Vuibert, Paris France, 2008, 387 pages, 39 euros, ISBN : 978-2-7117-7550-7
  3. L’implosion : la finance contre l’économie : ce que révèle et annonce la « crise des subprimes », Paul JORION, Fayard, mai 2008, ISBN : 33-57-3986-3-01
  4. Critique de la valeur fondamentale, sous la direction de Christian Walter et Eric Brian avec la collaboration d’Édouard Challe, Philippe de la Chapelle, Pauline Hyme, Serge Galam, Yamina Tadjeddine et Isabelle This Saint-Jean, Springer-Verlag France, 2008, 204 pages, 45 €, ISBN : 978-2-287-73069-6
  5. Le Cygne Noir – La puissance de l’imprévisible, Nassim Nicolas Taleb, Les Belles Lettres, Paris, 2008, 496 p. Titre original : The Black Swan, The Impact of Highly Improbable, 2007, ISBN : 978-2251-44348-5

Pour citer cet article

« La revue des livres », Comptabilité - Contrôle - Audit, 1/2009 (Tome 15), p. 249-257.

URL : http://www.cairn.info/revue-comptabilite-controle-audit-2009-1-page-249.htm
DOI : 10.3917/cca.151.0249


Article précédent Pages 249 - 257 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback