Accueil Revues Revue Numéro Article

Le journal de l'école de Paris du management

2012/2 (n° 94)


ALERTES EMAIL - REVUE Le journal de l'école de Paris du management

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 37 - 44 Article suivant
1

Après l’ouvrage Les décisions absurdes, Christian Morel s’est tourné vers les univers à hauts risques. Son enquête, menée sur des terrains inattendus, remet en cause les “bons principes” de management. Il énonce des métarègles contribuant à des décisions hautement fiables : fonctionnement collégial, non-punition des erreurs, rigueur jurisprudentielle, renforcement linguistique, formation aux facteurs humains... Ces règles peuvent-elles être transposées à la gestion d’entreprise ? Jean-Marc Oury formule quelques réserves.

2

Christian MOREL : En 2002, j’ai publié un livre intitulé Les décisions absurdes, dans lequel j’examinais les mécanismes conduisant à des erreurs de décision. Je prépare actuellement un nouvel ouvrage [1][1] Christian Morel, Les décisions absurdes II. Sociologie..., dans lequel je propose des solutions pour éviter ces erreurs. Je me suis inspiré des méthodes utilisées dans des équipements requérant une très haute fiabilité : centrales nucléaires, avions et porte-avions, sous-marins nucléaires, ou encore blocs opératoires. J’en ai tiré des métarègles de la haute fiabilité, qui me semblent pouvoir s’appliquer à de nombreux autres domaines, comme la gestion d’entreprise. Je donne à ce terme de fiabilité un sens très large, recouvrant les notions de qualité, de sécurité, de sûreté, mais aussi de performance, c’est-à-dire de conformité aux finalités.

La collégialité

3

Dans les organisations hautement fiables, les subordonnés ont un grand pouvoir de décision. Ce qui fait la sécurité d’un cockpit, d’un sous-marin nucléaire ou d’un bloc opératoire n’est pas l’autorité mais, au contraire, la collégialité. Dans les années 1990, la compagnie Korean Air a enregistré 12 accidents graves, provoquant 750 morts. Ce taux d’accident désastreux a été largement imputé à des excès d’autorité dans le cockpit. Dans plusieurs cas, le commandant de bord avait commis une erreur et le copilote n’avait pas osé le lui signaler. Des mesures ont été prises pour assurer un fonctionnement plus démocratique, et la compagnie est devenue l’une des plus fiables du monde.

4

À la suite des accidents de Toronto et du Rio-Paris, Air France a fixé de nouvelles règles d’organisation du cockpit, qui vont dans le sens d’un plus grand partage des responsabilités plutôt que d’un renforcement de l’autorité. Le copilote peut désormais décider la remise des gaz, même si c’est le commandant de bord qui pilote. De même, sur les porte-avions américains, des non-gradés sont autorisés à décider d’interrompre un appontage.

5

Une étude a montré que dans les blocs opératoires, les équipes les plus démocratiques obtiennent le taux de mortalité chirurgicale le plus faible, car ce sont elles qui appliquent le mieux les nouvelles techniques. Des chercheurs américains ont également montré que les groupes de randonneurs de haute montagne disposant d’un leader fort subissent davantage d’accidents mortels dans des avalanches que ceux qui prennent les décisions de façon plus collégiale.

Le débat contradictoire

6

La deuxième métarègle consiste à organiser systématiquement des débats contradictoires afin de pallier les pièges bien connus de la délibération collective : la discussion collective a tendance à renforcer l’opinion majoritaire ; si quelqu’un dénonce une erreur face à un groupe qui soutient cette erreur, il est enclin à penser que c’est lui qui se trompe ; la bonne entente du groupe est souvent privilégiée au détriment des désaccords utiles ; le groupe peut avoir une fausse impression d’unanimité parce que personne n’exprime d’opposition ; chacun ne retient du débat que les arguments confirmant sa propre opinion ; la crainte de mécontenter le chef et la volonté de lui plaire incitent les subordonnés à renoncer à s’exprimer ; un nombre élevé de participants peut rendre impossible un vrai débat ; certaines règles bureaucratiques communément partagées, comme « ne pas insister », « ne pas intervenir si l’on n’est pas spécialiste du sujet », « ne rien dire si l’on ne peut pas étayer son analyse par des faits », tendent à empêcher la prise de parole.

7

Pour pallier ces effets pervers, le politologue et philosophe Bernard Manin estime que le débat contradictoire doit être conçu de la même façon qu’un débat judiciaire. C’est dans cet esprit qu’en 1962, lors de la crise des missiles, John Kennedy, désireux d’éviter la répétition du fiasco de la baie des Cochons, avait demandé à son frère Robert Kennedy de jouer le rôle de l’avocat du diable au sein du comité de suivi. De son côté, l’amiral Rickover, de l’US Navy, se refusait à prendre une décision tant qu’on ne lui avait pas soumis une contre-proposition bien étayée. Il est également souhaitable de recueillir l’avis de candides, c’est-à-dire de généralistes sur un sujet spécialisé ou de spécialistes sur un sujet général, et d’adopter l’attitude interrogative systématique, un des principes de la culture de sûreté nucléaire : « Tu es sûr que tu as bien remis en automatique la vanne que nous avions ouverte manuellement ? »

Le contrôle du consensus

8

La notion de consensus est généralement valorisée. Pourtant, compte tenu des effets pervers de la délibération, un consensus peut être calamiteux, comme celui qui a conduit à l’opération de la baie des Cochons. De plus, le consensus peut n’être qu’apparent. Philippe Urfalino a enquêté sur 172 décisions prises par consensus au sein d’un parti politique suisse et a montré que la moitié d’entre elles n’étaient en réalité ni consensuelles, ni même majoritaires, mais minoritaires. Tout consensus doit donc être contrôlé, en ayant à l’esprit l’une des règles du droit pénal talmudique : lorsque le tribunal, composé de 23 juges, prononce une condamnation à mort à l’unanimité, l’accusé est automatiquement acquitté car l’on considère qu’un tel consensus ne peut être issu d’un débat vraiment contradictoire.

L’interaction généralisée

9

La haute fiabilité implique des échanges d’informations quotidiens : briefings et débriefings systématiques, attitude interrogative, contrôles croisés, etc. Ces interactions sont une source de formation permanente. Leur place est si importante à bord des sous-marins nucléaires que les équipages ont l’habitude d’employer le terme d’“université” pour désigner le sous-marin.

Le contrôle des interstices

10

La mode est aux coopérations, sous-traitances, externalisations, filialisations, dissociations des fonctions, créations d’entités nouvelles pour chaque nouveau problème, etc. Toutes ces opérations créent entre les différentes fractions d’organisation des interstices qui sont des sources de grande fragilité et contribuent de façon majeure aux erreurs, accidents et catastrophes.

11

La marée noire du Mexique et l’affaire du Médiator sont en grande partie imputables aux interstices nés d’un trop grand nombre d’intervenants. La séparation entre SNCF (Société nationale des chemins de fer) et RFF (Réseau ferré de France) a fait également apparaître de nombreux dysfonctionnements. Avant de créer de nouveaux interstices, il faut procéder à une analyse approfondie des coûts et avantages de l’opération et, lorsque celle-ci paraît inévitable, prévoir des modes de coopération ne se bornant pas à l’amélioration de la communication mais incluant des processus d’intégration, tels qu’indicateurs communs, principes d’action communs, etc.

La non-punition des erreurs

12

Le risque de punition a tendance à dissuader les acteurs de révéler les erreurs qu’ils ont commises. La perspective d’un procès pénal dans l’affaire du vol Rio-Paris a eu pour effet de mettre tous les acteurs sur la défensive (Air France, le Bureau d’enquêtes et d’analyses, Airbus, les pilotes…). En l’absence de procès, il est probable qu’ils débattraient de l’accident de façon beaucoup plus ouverte. La recherche du coupable a aussi pour effet de réduire la connaissance de ce qui s’est passé, car elle incite à s’arrêter à une seule branche de l’arbre des causes. Dans le crash du Concorde, les juges ont finalement décidé de sanctionner un malheureux chaudronnier de Continental au Texas, en laissant de côté toutes les erreurs de conception et de maintenance de l’appareil.

13

C’est pourquoi la sixième métarègle de la haute fiabilité prévoit la non-punition des erreurs non intentionnelles. Le chef d’état-major de l’Armée de l’air a instauré officiellement la dépénalisation des erreurs en 2006 : « Nous devons accepter de rendre systématiquement compte de nos erreurs, de commenter et d’informer nos pairs de tous ces incidents évités au sol ou en vol, de ces événements où “c’est passé près”. Nous devons faire profiter, dans un but didactique, l’ensemble de notre communauté de toutes les expériences, aussi désagréables soient-elles. (…) C’est pourquoi j’ai décidé d’engager une démarche de dépénalisation des erreurs. J’entends par erreur tout écart involontaire et non répétitif aux objectifs ou intentions. »

14

Chez Air France, le QAR (Quick Access Recorder), un disque optique numérique, enregistre tous les paramètres de vol et lance une alerte en cas de paramètres différents de ceux d’un pilotage normal. Les cas signalés sont étudiés par une commission de façon anonyme (pas de mention de nom, de date ni de lieu) et les plus graves sont diffusés à l’ensemble de la compagnie pour éviter de nouvelles erreurs.

15

Le principe de non-punition des fautes non intentionnelles commence à se répandre, notamment dans les professions de santé ou encore dans les équipes de lutte contre les incendies de forêt aux États-Unis. Il se heurte à une forte opposition des victimes et du pouvoir politique, qui veulent généralement voir les coupables punis.

La rigueur jurisprudentielle

16

La non-punition des erreurs doit s’accompagner de ce que j’appellerais une grande rigueur jurisprudentielle. Lorsque des écarts surviennent entre la règle et la pratique, ils ne doivent pas être considérés d’emblée comme condamnables, mais être traités de façon transparente dans le cadre d’un débriefing. Le débat interne pourra aboutir à une nouvelle jurisprudence : l’écart en question pourra être admis à titre exceptionnel, être pris en compte dans une nouvelle règle ou encore être condamné mais faire l’objet d’un retour d’expérience qui sera utilisé pour la formation.

17

L’Armée de l’air fait une distinction entre les écarts involontaires, liés à une erreur de connaissance, de règle ou de routine, et les écarts volontaires, qui peuvent être des violations de routine, des violations de nécessité ou de l’indiscipline. Elle peut admettre des violations de routine ou de nécessité à deux conditions. La première est que les écarts aient été commis dans un but professionnel. Par exemple, un pilote de chasse a survolé l’Afghanistan et n’a pas respecté l’altitude règlementaire dictée par la météo, mais il a considéré qu’il devait protéger des troupes présentes au sol et que la vallée était suffisamment large pour lui permettre de descendre à cette altitude. La deuxième condition est que ces écarts soient accomplis de façon transparente et fassent l’objet de briefings et de débriefings. Par exemple, alors que quatre avions doivent partir en mission, l’un des quatre est cloué au sol et l’autre est en panne de radio. Normalement, la mission devrait être annulée. Les pilotes choisissent de partir quand même mais se mettent d’accord, lors du briefing, sur la façon dont ils vont s’organiser dans cette situation dégradée. À l’issue de la mission, ils font le point sur le déroulement des opérations et en tirent un retour d’expérience.

Le renforcement linguistique et visuel

18

Une métarègle très importante concerne le renforcement linguistique et visuel, c’est-à-dire la sécurisation des échanges d’information par divers moyens tels que répétition, confirmation, explicitation, etc.

19

Une expérience a été menée sur 8 000 patients répartis dans 8 hôpitaux de différents pays. Pour la moitié d’entre eux, l’intervention chirurgicale a été préparée, réalisée et achevée avec le pointage d’une check-list de bloc opératoire. La mortalité postopératoire a été inférieure de 57 % à celle de l’autre groupe de patients.

20

Pour que le renforcement linguistique soit efficace, il doit être collectif et interactif. Deux chirurgiens qui avaient la check-list sous les yeux se sont quand même trompés de côté, faute d’avoir pointé cette liste collectivement.

21

Le renforcement linguistique doit également être parcimonieux : il ne s’agit pas de submerger les gens sous une avalanche d’informations. En revanche, il ne doit pas être réducteur : il est parfois préférable d’éviter les listes à puces et de formuler des phrases, car l’absence de verbe peut appauvrir le sens.

22

Le renforcement peut aussi être visuel. Sur le porte-avions Charles de Gaulle, les “chiens jaunes”, c’est-à-dire les responsables de l’organisation du pont d’envol, utilisent une maquette sur laquelle ils disposent des petits avions en bois avec un cylindre de couleur indiquant si le plein de carburant a été fait ou non. Ils m’ont expliqué qu’ils n’avaient jamais trouvé de logiciel plus efficace que cette maquette. À noter également, au Japon, une méthode de “management visuel” consistant à pointer ensemble le doigt vers l’aspect sur lequel on veut insister, par exemple la description d’un risque d’accident sur un paper-board.

La formation aux facteurs humains

23

En matière de haute fiabilité, on appelle “facteurs humains” les mécanismes cognitifs, psychologiques et collectifs qui entravent ou facilitent la prise de décision et l’action collectives. La formation aux facteurs humains va beaucoup plus loin que la formation aux outils de management tels que la conduite de réunion ou d’entretiens. Tous les pilotes d’avion reçoivent aujourd’hui une formation CRM (Crew Resources Management) portant sur la sociologie et la psychologie des acteurs du cockpit, qui vient s’ajouter à leur formation technique.

24

La Veteran Health Administration, qui gère de nombreux hôpitaux aux États-Unis et avait une réputation désastreuse en matière de qualité des soins, a nommé un directeur de la qualité qui venait de l’aéronautique et connaissait toutes les méthodes de la fiabilité. Il a organisé, entre autres, des formations aux facteurs humains destinées aux équipes chirurgicales (chirurgiens, infirmières, anesthésistes, perfuseurs…) et a constaté une baisse de 50 % de la mortalité post-chirurgicale.

Le retour d’expérience

25

Le retour d’expérience est sans doute l’une des métarègles les plus importantes, car il en cristallise plusieurs autres : la non-punition, les interactions permanentes, la rigueur jurisprudentielle, la formation aux facteurs humains, etc.

26

Dans ce domaine aussi, il faut cependant savoir être parcimonieux. Le directeur de la sûreté d’une centrale nucléaire m’expliquait qu’il recevait des centaines de retours d’expérience et ne savait pas vraiment comment les gérer ni de quelle façon les utiliser. Les retours d’expérience doivent être sélectionnés et présentés de façon très pédagogique.

Les métarègles cognitives

27

Aux métarègles collectives s’ajoute une série de métarègles cognitives : refus de la simplification des analyses, exigence d’une vision globale, prise en compte réaliste des probabilités, attention aux risques d’aveuglement, seuil de déclenchement des alertes relativement bas, et enfin conscience que la science ne peut tout résoudre et qu’il faut parfois savoir recourir à des solutions simples et robustes.

28

Un exemple pour illustrer ce dernier point. Dans les aéroports, en cas de mauvais temps, les pilotes doivent déterminer si la distance dont ils ont besoin pour atterrir correspond à la longueur de la piste dont ils disposent. Par exemple, sur un Fokker des lignes canadiennes, s’il y a entre 0,03 et 0,1 pouce d’eau sur l’asphalte, ils savent que l’efficacité de leur freinage sera réduite de 30 %. Ils effectuent alors un savant calcul tenant compte du vent ou encore du poids de l’avion pour déterminer si la longueur de la piste sera suffisante ou non. Malheureusement, ces calculs sont très incertains car la situation peut changer en quelques minutes en cas de redoublement d’averse ou de coup de vent violent. Les accidents de sortie de piste par mauvais temps sont donc relativement fréquents.

29

Face aux limites de ce qu’on appelle la rationalité substantielle, il convient parfois de recourir à la rationalité procédurale. En l’occurrence, il s’agit tout simplement de dérouter l’avion, même si les compagnies ont horreur de cette solution car elle consomme plus de carburant, coûte plus cher et prend plus de temps aux voyageurs.

Des catastrophes à la résilience

30

L’US Navy a été traumatisée par le naufrage d’un sous-marin, le SSN Thresher. Au lieu d’occulter cette catastrophe, elle en a fait l’élément fondateur d’un renouveau de la fiabilité à travers le programme SUBSAFE qui a irrigué toute l’entreprise et a même servi ultérieurement de référence à la NASA (National Aeronautics and Space Administration). De même, l’aviation civile américaine, qui a subi le crash d’un avion TWA suite à la non diffusion d’une erreur, a adopté une politique de non-punition. L’entreprise Renault, qui a connu une période de très mauvaise qualité de ses véhicules à la fin des années 1980, a mis en place un plan de qualité totale.

31

En revanche, on peut déplorer que l’affaire d’Outreau n’ait pas servi de base à une réflexion sur le renouveau de la justice ; ou que les fraudes constatées dans de très grandes banques n’aient pas déclenché une révision en profondeur des règles des transactions financières.

Deux conceptions du management

32

Les métarègles de la haute fiabilité des décisions constituent une sorte de contre-culture de la pensée classique en management.

33

Le management classique ou “politiquement correct” met l’accent sur les outils de qualité, les certifications, la formation aux techniques de management. Il accorde plus d’importance à l’organigramme qu’aux procédures, croit au rôle prépondérant du leader, punit les erreurs, même non intentionnelles, et dissimule ou punit les écarts aux règles et procédures. Il privilégie l’action plutôt que le retour d’expérience, n’accepte que les arguments étayés sur des données (speak with data), néglige les signaux faibles, valorise les messages simples, les réunions courtes et peu nombreuses, le consensus, les solutions de type scientifique, une communication schématique, numérique et abondante. En cas de catastrophe, il préfère l’oublier rapidement et passer à autre chose.

34

Le management fondé sur les métarègles de la haute fiabilité privilégie la culture de la fiabilité plutôt que les outils de qualité et de certification, le travail sur les processus plutôt que les réorganisations permanentes, le partage du pouvoir entre les membres de l’équipe plutôt que le leadership du chef, la non-punition des erreurs non intentionnelles, la rigueur jurisprudentielle, la prise en compte et parfois la validation des écarts, le retour d’expérience plutôt que l’action à tout prix, les alertes et signaux faibles même s’ils ne sont pas fondés sur des démonstrations étayées. Il valorise la complexité des analyses et veille à assurer une communication renforcée, visuelle et parcimonieuse. Il sait que l’on ne peut pas toujours faire l’économie de réunions longues et nombreuses, que le consensus ne peut pas avoir une valeur absolue, que les solutions simples et robustes sont parfois préférables aux solutions de type scientifique. Après une catastrophe, il fait de cette dernière l’événement fondateur du renouveau.

35

Jean-Marc OURY : J’ai commencé ma carrière au sein de l’Autorité de sûreté nucléaire, où je dirigeais la division en charge du programme électronucléaire. J’ai vécu en direct, quoique de l’autre côté de l’Atlantique, l’accident de Three Mile Island, qui s’est produit le 28 mars 1979.

L’accident de Three Mile Island

36

Cette centrale à eau sous pression de conception Babcock & Wilcox présentait un risque non prévu par le constructeur : la formation de zones de vapeur dans le circuit primaire, susceptibles d’empêcher la réfrigération du cœur du réacteur. Les opérateurs, trompés par un indicateur de niveau d’eau malencontreusement bloqué, n’ont pas compris la nature de l’incident et ont laissé le cœur du réacteur entrer en fusion partielle.

37

La situation critique de la centrale a conduit à une mobilisation rapide de l’exploitant, du constructeur et de l’autorité de sûreté américaine. L’équipe de crise a réussi à poser le bon diagnostic et à retrouver le contrôle de la situation tout en limitant les rejets radioactifs dans l’environnement. Les décisions n’étaient pas faciles à prendre : il a fallu relâcher volontairement de la vapeur du circuit primaire dans l’enceinte, mesure qui pouvait paraître aller à l’encontre de la sûreté, car celle-ci requiert en principe le confinement maximal. L’objectif était de faire descendre la pression suffisamment bas pour que les pompes d’injection basse pression puissent entrer en fonction. Il a fallu en parallèle approvisionner des filtres suffisamment nombreux pour opérer des rejets volontaires afin de réduire le plus vite possible la pression dans l’enceinte, et ainsi éviter les risques de fuites de celle-ci.

38

De nombreux enseignements ont été tirés de cet accident. L’attention a été portée sur la notion d’incident précurseur. Le même type de problème s’était déjà produit sur d’autres centrales, mais sans le blocage d’un indicateur de niveau. Le retour d’expérience a donc été rendu plus systématique. L’analyse des scénarios, méthode privilégiée jusqu’alors, a été complétée par l’étude des états de fonctionnement du réacteur. Une plus grande attention a été portée aux interfaces hommes/machine. Enfin, les procédures de mobilisation et d’action en cas de crise ont été révisées.

La représentation de la machine

39

L’une des questions centrales, dans ce genre de situation, est la façon dont les membres de l’équipe de crise construisent leur représentation de la machine.

40

Le 21 juillet dernier, le vol Paris-Caracas a été soumis à de forts vents descendants. Le pilote automatique a tenté de contrebalancer cet effet en commandant la montée la plus rapide possible de l’avion. Au sortir des vents descendants, cette manœuvre a diminué la vitesse de l’avion par une reprise trop abrupte d’altitude et l’a rapprochée de la vitesse de décrochage. J’ignore si les pilotes ont volontairement repris la main ou si c’est le pilote automatique qui s’est arrêté de lui-même parce qu’il sortait de son domaine de fonctionnement, mais la catastrophe a pu être évitée. Par chance, l’incident s’est produit en plein jour, le commandant et les deux copilotes étaient à leur poste et, grâce au retour d’expérience de l’accident du vol Rio-Paris, ils ont opté pour les mesures appropriées et ont retrouvé la maîtrise de l’avion. Auraient-il réussi aussi bien s’ils avaient été deux au lieu de trois, si l’incident s’était produit en pleine nuit et si l’appareil s’était trouvé en situation de fonctionnement dégradé ? C’est difficile à dire.

41

Les machines sont globalement plus fiables que les hommes, mais lorsqu’elles se montrent défaillantes, les hommes doivent pouvoir se construire très vite une représentation de la situation réelle et de son évolution s’ils veulent agir efficacement. Or, l’objectif de très haute fiabilité implique souvent une complexité qui rend difficile cette représentation, d’autant que par définition, la haute fiabilité rend ces incidents extrêmement rares.

42

La représentation de la machine peut ainsi devenir obsolète sans que l’on s’en rende compte. Ford avait conçu un 4x4 équipé d’un certain type de pneus Firestone. Lors des essais, il est apparu que l’ensemble pneu et amortisseur était trop réactif avec la pression habituelle de gonflage de 35 PSI (pound per square inch) des pneus et risquait d’entraîner un retournement du véhicule. En revanche, les mêmes pneus gonflés seulement à 26 PSI assuraient un comportement parfait du véhicule. Un peu plus tard, Firestone modifia le processus de fabrication de ce type de pneu et effectua tous les tests à 35 PSI, en oubliant l’utilisation exceptionnelle des pneus à 26 PSI. De très nombreux accidents, dont certains mortels, résultèrent de cet oubli, et le constructeur dut rappeler des millions de pneumatiques. Pour éviter ce désastre, il aurait fallu que le changement de processus de fabrication se traduise par un changement de nomenclature : ce processus aurait obligé les constructeurs à requalifier les nouveaux pneus avant d’en équiper leurs véhicules.

Deux sortes de vigilance

43

La vigilance peut être définie comme l’activité consistant à élaborer une représentation de son environnement en s’assurant de la conformité de la réalité avec cette représentation, afin de pouvoir agir en fonction de cette réalité.

44

Il existe deux types de vigilance. La première est celle du guetteur qui, ayant identifié un danger potentiel, exerce une surveillance et se prépare à agir pour le cas où l’événement redouté se produirait. C’est cette première forme de vigilance qu’illustrent la plupart des cas cités par Christian Morel. La deuxième est celle du chasseur qui, au lieu de redouter l’événement, est à l’affût de ce dernier. C’est ce deuxième type de vigilance qui pousse les industriels à aller toujours plus loin dans la performance technique et les commerçants à chercher sans cesse de nouveaux marchés.

45

Le rôle de la vigilance dans l’activité économique est souvent négligé. La titrisation de l’immobilier américain et le recours à des sociétés spécialisées dans le rehaussement des crédits peuvent se décrire comme une formidable machine à annihiler la vigilance, tant chez les banquiers que chez leurs clients. Il n’est pas étonnant que ce système ait paru facile à utiliser pendant un certain temps, jusqu’à son explosion en 2007 lors de la crise des subprimes. Les credit default swaps et autres produits dérivés reposent également sur un défaut de vigilance “organisé” : chaque acteur prend sa marge avant de se couvrir auprès d’autres intervenants, en sorte que chacun ne supporte plus qu’un très faible risque, à condition que d’autres assument ce risque pour lui. Personne ne sait plus exactement quel risque il court, la vigilance se limitant souvent à consulter le rating établi par les agences de notation, comme si la vigilance de tous pouvait être déléguée à quelques-uns.

La haute fiabilité inapplicable à la gestion d’entreprise ?

46

Christian Morel a évoqué dans son exposé l’application des méthodes de la haute fiabilité à la gestion d’entreprise. Pour le moment, on en est loin. Les décisions des banques sont prises en général avec l’aval d’un “comité des risques”, qui manifestement n’a pas correctement joué son rôle dans les années 2000. Pourtant, toutes ces décisions ont été adoptées alors que les responsables disposaient, a priori, de beaucoup plus de temps et de sérénité que les pilotes d’un avion ou l’équipage d’un sous-marin. Comment expliquer ce paradoxe ?

47

Dans la vie des affaires, les deux formes de vigilance sont en conflit : d’un côté, les décideurs souhaitent éviter le risque, mais de l’autre, ils veulent faire progresser leur entreprise. Les critères dont ils doivent tenir compte sont beaucoup plus nombreux que dans le cockpit d’un avion, et souvent contradictoires entre eux. Avant de contrôler la haute fiabilité d’une décision de management, il faut préciser pour qui, dans quel but et dans quel contexte cette décision doit être prise. De ce point de vue, la tâche d’un manager est souvent plus ardue que celle d’un pilote, même si les enjeux sont moins dramatiques.

48

Par ailleurs, bien qu’en principe les décisions de management puissent être prises dans une relative sérénité, Claude Riveline a montré que les décisions les plus importantes étaient généralement adoptées dans l’urgence. En effet, les managers ont souvent la tentation d’attendre le dernier moment, soit pour faire face aux urgences qui précèdent, soit pour réunir le maximum d’informations avant de prendre leur décision. Ce contexte d’urgence ne permet pas toujours de recourir à des dispositifs tels que le débat contradictoire préconisé par Christian Morel.

49

En conclusion, si les méthodes de la haute fiabilité paraissent porteuses d’avenir et semblent pouvoir concerner de nombreux champs d’activité humaine, on peut craindre qu’elles s’avèrent largement inapplicables dans le monde de la gestion d’entreprise.


Annexe

Débat

Analyses sophistiquées et solutions simples

50

Un intervenant : J’ai été frappé par une intéressante symétrie dans les conclusions de Christian Morel. Selon lui, le management classique favorise les messages simples et les solutions de type scientifique (ce qui dans son esprit signifie complexe), alors que le management fondé sur les métarègles de la fiabilité valorise la complexité des analyses et les solutions simples. J’approuve l’idée selon laquelle il est courant de partir de principes assez rustiques pour arriver à des solutions alambiquées, alors qu’il est très difficile de mener des analyses sophistiquées aboutissant à des solutions simples. Je me demande si ce n’est pas cela, le cœur du problème.

51

Christian Morel : Effectivement, ce n’est pas forcément par une analyse simpliste que l’on parvient à une solution simple…

Les erreurs involontaires

52

Int. : J’ai eu l’occasion de travailler dans l’ex-Allemagne de l’Est. Lorsqu’un dysfonctionnement se produisait, il était impossible non seulement de trouver le responsable, mais de savoir ce qui s’était passé, car les salariés craignaient les sanctions, qui pouvaient être sévères sous le régime très autoritaire de cette époque. Ils avaient développé des stratégies extrêmement habiles pour empêcher toute vigilance au sens où l’entend Jean-Marc Oury. Pour arriver à quelque résultat, j’avais été amené à annoncer que personne ne serait sanctionné s’il révélait ce qui s’était passé, et qu’en revanche il y aurait des sanctions collectives si l’on ne parvenait pas à comprendre ce qui s’était passé. Cette mesure s’était avérée relativement efficace.

L’information émissaire

53

Int. : Comment appliquer le principe de la non-punition dans une société où l’opinion publique réclame des coupables ? Dans l’affaire du crash du Mont Sainte-Odile, lorsque tous les accusés ont été relaxés, on a entendu les parents des victimes dire à la radio : « C’est terrible, je ne pourrai jamais faire mon deuil. »

54

C. M. : Aux États-Unis, il n’y a jamais de procès pénal pour les accidents d’avion. En revanche, des enquêtes très approfondies sont menées par le National Transport Safety Board. Elles portent à la fois sur les aspects techniques, organisationnels, psychologiques, etc., de l’accident. Les familles des victimes n’ont que ces enquêtes pour faire leur deuil, et, en définitive, cela fonctionne assez bien. Ce que les gens veulent avant tout, ce n’est pas que des coupables aillent en prison, mais comprendre ce qui s’est passé. Il faut remplacer le bouc émissaire par l’information émissaire, celle qui permet de faire son deuil.

55

Int. : Ce qui rendait les gens furieux dans l’affaire du Mont Sainte-Odile, c’est qu’ils avaient l’impression que la justice était prête à incriminer le pilote et pas du tout à s’intéresser à la conception de l’avion ni au fait que le tableau de bord n’était pas très lisible. Il en va de même aujourd’hui avec l’explosion de l’usine AZF. Les gens cherchent moins à ce que l’on désigne un coupable qu’à savoir s’il est vraiment possible qu’un tas de nitrate explose tout seul, par manque de chance.

56

Int. : L’un des problèmes du BEA (Bureau d’enquêtes et d’analyses) est qu’il est tenu d’établir plusieurs rapports intermédiaires successifs, en étant soumis à la pression des journalistes, des familles des victimes, des constructeurs, et d’une cascade d’élus. Le BEA est rattaché à la direction générale de l’Aviation civile, qui dépend du secrétaire d’État aux Transports, lui-même sous l’autorité du ministre de l’Écologie, du Développement durable, des Transports et du Logement, qui rend compte au Premier ministre. Au Canada, le chef du TSB (Transportation Safety Board) est directement rattaché au Premier ministre, c’est-à-dire à la plus haute autorité du pays, et il ne produit aucun rapport intermédiaire afin d’éviter toute polémique.

Le point de vue des magistrats

57

Int. : Comment le dispositif d’Air France, qui préserve l’anonymat, peut-il être compatible avec la nécessité, pour la justice, de mener des investigations ? Les magistrats ne peuvent-ils exiger qu’on leur fournisse des noms ? Dans l’affaire du Rio-Paris, il est évident que la justice va chercher à punir des coupables.

58

C. M. : La France et l’Italie sont des pays à tradition de sanction pénale très forte. Il faudrait changer cette culture, mais ce n’est pas très facile.

59

Int. : Je suis commandant de bord instructeur sur Boeing 777 et ancien officier de sécurité des vols sur Airbus moyen-courrier. Aucun équipage ne peut rester anonyme dans le cas d’un accident ayant provoqué des morts ou des blessures ou la destruction d’un appareil. Les rapports, établis spontanément ou sur enquête, comportent obligatoirement les noms des membres de l’équipage. L’anonymat ne concerne que les rapports spontanés adressés à la compagnie à la suite d’événements de deux types : des événements de type technique qui donnent lieu à un rapport appelé Air Safety Report, transmis à l’autorité, et des événements de type relationnel au sein de l’équipage. La grande majorité des accidents catastrophiques ont des causes relationnelles et interviennent sur des avions qui étaient “intègres”, c’est-à-dire sans dysfonctionnement particulier. Le cas du vol Rio-Paris, avec la panne des sondes Pitot, fait exception.

60

Pour ce qui est des magistrats, il n’est pas interdit d’espérer. J’ai connu un juge qui avait bien compris l’intérêt de ne pas se précipiter tout de suite sur la recherche d’un coupable et s’en abstenait dans la limite de ses moyens et de ses prérogatives.

Les erreurs médicales

61

Int. : J’ai eu l’occasion d’enquêter sur deux erreurs médicales. Dans les deux cas, l’hôpital a laissé sortir les patients sans leur dire qu’il y avait eu des problèmes pendant l’intervention. Ils l’ont découvert par eux-mêmes après coup, et lorsqu’ils ont voulu obtenir des informations, l’un des deux hôpitaux avait “perdu” le compte rendu d’intervention, et l’autre les radios essentielles.

62

Int. : La question qu’il faut se poser, c’est si la punition des erreurs non intentionnelles permet de diminuer le nombre d’erreurs en médecine. La réponse est non, bien évidemment. D’un autre côté, il est normal qu’un patient s’estimant victime d’une erreur se tourne vers la justice pour faire indemniser son préjudice et éventuellement faire sanctionner le médecin responsable. Mais cela ne résout pas la question de la prévention des erreurs médicales. La loi française qui oblige les établissements à déclarer les “événements indésirables graves” a été un échec : en 18 mois, sur 300 hôpitaux, seulement une centaine d’événements de ce type ont été déclarés. Même si cela paraît contraire à la morale et à la loi, il faudrait laisser les médecins constituer des groupes de travail entre eux pour discuter de leurs erreurs et mettre au point des processus organisationnels afin de les éviter.

63

Int. : Les infirmières devraient être associées à de tels dispositifs, car les erreurs ne reculeront que si l’ensemble de l’équipe y travaille et reçoit des formations aux facteurs humains.

64

Int. : Je pensais surtout aux médecins les plus nombreux, à savoir les 80 000 généralistes qui exercent en France.

65

Int. : J’ai été pendant quelques années directeur des hôpitaux au ministère de la Santé et je me souviens d’une double erreur médicale particulièrement spectaculaire : une équipe chirurgicale se trompe de jambe pour une amputation, elle s’en rend compte une fois que le mal est fait, décide d’essayer de sauver la deuxième jambe… et réussit !

66

L’un des paradoxes des hôpitaux, c’est qu’ils comptent désormais 43 familles de règles de sécurité, dont un bon nombre sont imposées par les pompiers. Cet amas de règles devient totalement inapplicable.

Des règles qui font système

67

Jean-Marc Oury : Je suis personnellement très partagé sur le principe de la non-punition des erreurs. D’un côté, j’en comprends la nécessité, de l’autre, je vois de nombreux risques à suivre ce principe. Lorsque l’incident n’a pas fait de victime ni de dégât matériel et que les choses se passent de façon un peu “ouatée”, cela paraît acceptable, mais dans la vie de l’entreprise, toute erreur peut coûter très cher, si par exemple les productions livrées sont défaillantes.

68

C. M. : Les différents principes que j’ai présentés sont liés les uns aux autres. Le retour d’expérience est fondé sur la non-punition, mais il doit s’accompagner de l’interaction permanente quotidienne et de la formation aux facteurs humains. Ces métarègles forment un système dont elles ne peuvent être détachées, sauf à devenir inefficaces ou même contre-performantes.

69

Élisabeth Bourguinat

Notes

[1]

Christian Morel, Les décisions absurdes II. Sociologie des décisions hautement fiables (Gallimard, à paraître en mars 2012).

Résumé

Français

Après Les décisions absurdes, Christian Morel s’est tourné vers les univers à risques. Il remet en cause les “ bons principes” du management et énonce des métarègles contribuant à des décisions hautement fiables. Peut-on les transposer à la gestion d’entreprise ?

Plan de l'article

  1. La collégialité
  2. Le débat contradictoire
  3. Le contrôle du consensus
  4. L’interaction généralisée
  5. Le contrôle des interstices
  6. La non-punition des erreurs
  7. La rigueur jurisprudentielle
  8. Le renforcement linguistique et visuel
  9. La formation aux facteurs humains
  10. Le retour d’expérience
  11. Les métarègles cognitives
  12. Des catastrophes à la résilience
  13. Deux conceptions du management
  14. L’accident de Three Mile Island
  15. La représentation de la machine
  16. Deux sortes de vigilance
  17. La haute fiabilité inapplicable à la gestion d’entreprise ?

Pour citer cet article

Morel Christian, Oury Jean-Marc, « Des décisions absurdes aux processus de la haute fiabilité », Le journal de l'école de Paris du management, 2/2012 (n° 94), p. 37-44.

URL : http://www.cairn.info/revue-le-journal-de-l-ecole-de-paris-du-management-2012-2-page-37.htm
DOI : 10.3917/jepam.094.0037


Article précédent Pages 37 - 44 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback