Accueil Revues Revue Numéro Article

Comptabilité - Contrôle - Audit

2006/1 (Tome 12)


ALERTES EMAIL - REVUE Comptabilité - Contrôle - Audit

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 85 - 101 Article suivant

Introduction

1

Une démarche fréquente pour améliorer ou implanter une comptabilité par activités consiste à prendre comme point de départ un modèle mal spécifié [1][1] Dans cet article, le terme « spécification » est pris... (le modèle existant) et à améliorer la partie jugée la plus mauvaise en la décomposant en activités, de manière à retrouver une explication satisfaisante des comportements de coûts. Dans le but d’éviter des saisies d’informations trop fastidieuses, les activités seront ensuite ré-assemblées soit en centres de regroupement ayant un inducteur identique, soit par processus.

2

Les étapes à parcourir sont généralement les suivantes :

  • prendre connaissance du modèle de calcul de coût existant ;

  • identifier les parties du modèle considérées comme mal déterminées ;

  • diviser ces parties jugées peu satisfaisantes en différentes activités ;

  • regrouper ces activités en :

    • centres de regroupement ayant le même inducteur d’activité ;

    • processus.

Dans le cadre de cet article, nous nous intéresserons au problème central de la spécification du modèle tel qu’il est présenté dans la littérature de recherche. Cette relecture nous conduira à reformuler le problème dans un contexte d’amélioration du système existant. Après avoir apprécié les risques d’une mauvaise spécification (1.), les deux grandes approches qui ont été proposées pour traiter la question seront étudiées : les démarches heuristiques (2.) et les méthodes statistiques (3.) ; puis, nous en tirerons des conclusions au plan de la mise en œuvre pratique d’une comptabilité.

1 - Le risque d’une mauvaise spécification d’une comptabilité de coût

3

Avant d’analyser ce type de risque, nous rappellerons les principaux concepts utilisés.

1.1 - La notion de spécification d’un modèle de calcul de coût

4

En comptabilité de gestion, la procédure d’imputation consiste à répartir le montant des charges indirectes entre différentes activités (ou centres d’analyse) puis à définir une cause de consommation des ressources (inducteur ou unité d’œuvre) qui permette de ventiler des doses de coûts d’activité (ou de centre d’analyse) sur les objets de coût.

5

Deux conditions sont nécessaires pour réaliser correctement cette opération : l’existence d’activités indépendantes dont le coût est entièrement expliqué par une seule cause et une utilisation des ressources dans les mêmes proportions (l’équiproportionnalité des consommations de ressources) pour tous les travaux réalisés à l’intérieur d’une même activité.

6

L’usage d’un inducteur d’activité suppose en effet qu’il existe une relation explicite entre le coût de l’activité et le volume de l’inducteur pressenti : la charge indirecte est supposée être totalement proportionnelle au volume consommé de l’inducteur. Il faut donc vérifier (Trahand, Morard, Cargnello-Charles 2000) :

7

1) qu’il existe dans le temps une relation du type :

8
9

avec Djt le coût de l’activité observé au moment t avec t = 1… T

10

?j le coût unitaire inconnu de l’inducteur

11

Pjt le volume de l’inducteur observé à l’instant t

12

?t le terme aléatoire résiduel de moyenne nulle et de variance constante ;

13

2) que cette relation se maintient dans le temps.

14

La qualité du modèle s’apprécie en vérifiant sur des données passées que le coefficient de corrélation est proche de 1.

15

En généralisant, l’ensemble des charges indirectes se répartit sur les différentes activités en respectant l’équation suivante :

16
17

Un tel modèle sera statistiquement bien spécifié si des facteurs de consommation de ressources ne sont pas oubliés et si les différents Pj présentent de faibles interrelations, c’est-à-dire si les activités sont suffisamment indépendantes entre elles. La spécification comptable est toutefois différente. Les charges sont affectées, ou ventilées par clé de répartition, aux différentes activités, puis le meilleur inducteur est recherché. Il ne s’agit donc pas de cerner les variables qui expliquent le mieux l’ensemble des charges indirectes, mais de ventiler (sur une base certaine : affectation, ou incertaine : clé de répartition) des charges sur des activités considérées comme suffisamment indépendantes, pour ensuite rechercher une corrélation entre le niveau de leur coût et le volume de l’inducteur pressenti.

18

Pour que l’imputation soit correcte, il faut aussi respecter l’équiproportionnalité des consommations de ressources, c’est-à-dire s’assurer que l’activité est homogène (Gervais 2005, p. 56). Autrement dit, chaque fois que l’activité est déclenchée, les tâches élémentaires qui la composent doivent être toutes effectuées et celles-ci doivent toujours être employées dans la même proportion, quels que soient les travaux à réaliser. Ainsi une unité monétaire dépensée dans la tâche a entraîne toujours une dépense de x unités monétaires de la tâche b, de y unités monétaires de la tâche c, etc. En effet, si les proportions entre les consommations de ressources restent stables quels que soient les travaux, les tâches qui forment l’activité peuvent être traitées en bloc et ramenées à une même unité permettant l’imputation (Bouquin 2003, p. 80). « Une section, pour être homogène, nous dit Rimailho (1936, p. 53), est constituée de telle manière que les différentes spécialités professionnelles qui la composent, soient en principe employées dans la même proportion pour tous les travaux exécutés par la section, et que les éléments [de coûts]… qui se rencontrent dans chaque spécialité soient employés eux-mêmes dans la même proportion sur tous les travaux ».

19

Dans le cadre de cet article, nous ne nous intéresserons qu’à la spécification de la fonction définissant les activités et leurs inducteurs, le problème de l’équiproportionnalité fera l’objet d’une autre étude.

1.2 - Les risques d’une mauvaise spécification

20

Une spécification inadaptée peut être due à quatre types d’erreur :

  • celle provenant de l’usage d’une clé de répartition trop approximative pour ventiler des charges sur l’activité ;

  • celle provenant de l’oubli d’inducteurs significatifs ;

  • celle résultant d’une liaison non proportionnelle entre le coût de l’activité et le volume de l’inducteur envisagé ;

  • celle résultant d’une interdépendance entre les activités.

1.2.1 - L’usage de clés de répartition trop approximatives

21

L’emploi de telles clés se traduit par une erreur de mesure sur la charge imputée. L’impact de celle-ci sur le coût des produits (ou des objets de coût) est fonction du poids de la charge dans le coût à déterminer. Cette erreur est généralement prise en compte par les praticiens de manière intuitive.

1.2.2 - L’oubli de variables explicatives (d’inducteurs)

22

Supposons que le modèle soit bien déterminé en mettant en œuvre J activités (ou centres d’analyse).

23

Si le volume Pj de l’inducteur j est à l’origine du coût indirect Dj, le coût unitaire de l’inducteur

24

s’écrit : ?j = Dj /Pj.

25

Les coûts de l’activité sont alloués aux objets de coûts au prorata des volumes consommés de l’inducteur.

26

Soit le volume consommé de l’inducteur j par l’objet de coût i. Avec I objets de coût, le volume total consommé de l’inducteur j est :

27
28

et les coûts d’activité alloués à l’objet de coût i s’écrivent :

29
30

avec : la part de volume de l’inducteur j consommée par l’objet de coût i.

31

Soit un centre de responsabilité qui, à l’analyse, est composé de trois activités se ventilant sur cinq produits.

Tableau 1 - Le tableau des donnéesTableau 1
32

L’allocation sur la base de l’équation (1) donne les coûts du tableau 2.

Tableau 2 - Allocation des charges indirectes aux produits avec trois activitésTableau 2
33

Si le modèle est mal spécifié, ce sont M activités qui ne sont pas prises en compte.

34

Le coût de l’activité oubliée Dm est intégré dans le coût des k activités pris en compte selon la combinaison :

35

avec

36

?mk : le pourcentage de Dm pris en compte par Dk ;

37

?m x Dmk : le montant de Dm intégré dans Dk.

38

Le coût Dm est alors imputé aux objets de coût i non selon la proportion Vim mais selon la proportion , et l’écart d’allocation sur chaque objet de coût s’écrit :

39
40

Dans l’exemple, si l’activité Gestion des lots n’est pas prise en compte, son coût de 450 200 est intégré à raison de 50,8218 % soit 228 800 dans le coût de l’activité manuelle, et à raison de 49,1782 % soit 221 400 dans le coût de l’activité automatique. L’allocation est alors conforme au tableau 3 page suivante.

41

Si plusieurs activités sont oubliées, on a :

42

et l’écart d’allocation sur chaque objet de coût s’écrit :

43
44

Dans l’exemple, si l’activité automatique et l’activité Gestion des lots ne sont pas prises en compte, leur coût de 647 800 et 450 200 est intégré dans le coût de l’activité manuelle, avec le coefficient ?mk = 1. L’allocation est alors conforme au tableau 4 page suivante.

Tableau 3 - Allocation des charges indirectes aux produits avec deux activitésTableau 3
Tableau 4 - Allocation des charges indirectes aux produits avec une activitéTableau 4
45

Sur cet exemple, l’erreur en valeur absolue sur les coûts alloués aux produits est en moyenne de 59,22 % [(111,89 + 33,62 + 79,33 +7,77 + 63,29) / 5] lorsqu’on ne retient qu’une activité. Elle tombe à 25,64 % lorsqu’on retient deux activités, mais l’erreur sur les produits 4 et 5 augmente (elle passe de 7,77 % à 11,45 % pour le produit 4 et de 63,29 % à 71,29 % pour le produit 5).

1.2.3 - Une partie de la charge insensible au volume de l’inducteur

46

Quand une partie de la charge indirecte Dj est indépendante du volume de l’inducteur envisagé (c’est-à-dire quand une partie de la charge Dj est fixe), le coût de l’activité j s’écrit :

47
48

Au moment de l’allocation de doses de coût de cette activité aux objets de coûts, on ne devrait donc ventiler que :

49
50

Étant donné que la totalité du coût est toujours allouée, l’imputation revient à appliquer la formule suivante :

51
52

La partie fixe est ventilée au prorata du volume de l’inducteur, ce qui est contraire à la nature de la relation observée.

53

Notons que, lorsqu’il existe des capacités de production inutilisées, les coûts de sous-emploi de l’activité sont bien traités de cette manière.

1.2.4 - Des inducteurs trop interdépendants

54

Si les activités sont interdépendantes, c’est-à-dire si le coût d’une activité s’explique par le volume de son inducteur mais aussi par le volume des inducteurs des autres activités, l’utilisation d’une fonction linéaire devient contestable (l’emploi d’une telle fonction suppose l’indépendance des activités). La spécification peut prendre la forme proposée par Longbrake (1962) :

55
56

Ce qui peut encore s’écrire :

57
58

Noreen et Soderstrom (1994), Banker, Potter et Schroeder (1995), Thenet (1995) utilisent des fonctions de ce type pour étudier les comportements de coûts d’activités dans des secteurs aussi variés que les hôpitaux, l’électronique, la fabrication de machines-outils, la construction automobile ou la banque.

59

Par analogie avec la formulation habituelle et en supprimant le terme constant, le modèle deviendrait :

60

Ce qui s’écrit encore :

61

Avec , on a aussi :

62
63

Cette fonction permet de mieux comprendre le comportement de coût d’une activité (meilleure spécification statistique), mais elle ne peut effectuer l’imputation, car pour ce faire il faut que les doses de coût ventilées sur chaque produit (ou objet de coût) soient sommables.

Tableau 5 - Explication du coût d’activités interdépendantes avec une fonction multiplicativeTableau 5
64

Le produit des coûts imputés à chaque produit permet bien de retrouver le coût de l’activité, mais il n’est pas possible avec une telle fonction de dire quelles doses des différents coûts d’activité seront réparties sur chaque produit.

65

Cette section nous a rappelé l’importance d’une bonne formulation du modèle comptable pour calculer des coûts complets fiables. Différentes méthodes de type heuristique ont été proposées pour optimiser les découpages en activités ; elles se heurtent cependant à la critique de Datar et Gupta (1994), comme nous l’exposons maintenant.

2 - Les approches heuristiques et la critique de Datar et Gupta

66

Ces analyses se concentrent surtout sur la façon d’effectuer les regroupements (Babad et Balachandran, 1993 ; Homburg, 2001). Elles ne traitent pas le problème de l’éventuelle interdépendance entre les activités. Comme indiqué précédemment, si de nombreuses études utilisent des fonctions multiplicatives pour expliquer les comportements des charges indirectes, ces études n’envisagent pas l’imputation : elles recherchent la meilleure relation statistique entre les charges indirectes et les inducteurs. Les analyses se soucient peu également d’une charge insensible au volume de l’inducteur.

67

Datar et Gupta (1994) démontrent cependant qu’une démarche heuristique ne mène pas forcément à une meilleure connaissance des coûts (à des découpages plus satisfaisants), car il s’agit d’améliorer en ignorant l’impact de la modification sur les mécanismes de compensation des erreurs conduisant à l’erreur globale d’imputation. Ils montrent également que l’erreur de mesure due à l’emploi de clés de répartition peut croître à mesure que la désagrégation en activités augmente.

2.1 - Les approches cherchant à réduire le nombre des inducteurs proposés

68

Babad et Balanchandran (1993) de même que Homburg (2001) font l’hypothèse qu’un découpage en activités donne un modèle bien spécifié au plan comptable, puis ils cherchent à réduire le nombre d’inducteurs utilisés pour ne pas alourdir la représentation en utilisant une heuristique de sélection des indicateurs à éliminer. En effet, si un nombre élevé est nécessaire pour mesurer exactement l’utilisation des ressources, un système avec peu d’inducteurs est moins coûteux et plus facile à comprendre par le management (Merchant et Shields 1993), donc plus utile pour prendre des décisions.

69

Babad et Balanchandran remplacent un inducteur par un autre déjà existant mais ayant une corrélation moins bonne avec le niveau des charges dans l’activité concernée ; Homburg effectue la substitution au moyen d’une combinaison des inducteurs restants. Quelle que soit la solution proposée, les auteurs cherchent à réduire la complexité, tout en maintenant un taux d’erreur acceptable dans l’allocation.

70

Avec Babad et Balachandran (1993), le problème revient à remplacer l’inducteur m par un autre déjà recensé. Dans ce cas, le coût Dm doit être alloué par un des J – 1 inducteurs restants. Si l’inducteur k est choisi, son coût passe de Dk à Dk + Dm et son coût unitaire à :

71
72

Si Umki est le nouveau coût d’activité alloué à l’objet de coût i à l’aide de l’inducteur k, l’erreur de spécification sur l’objet de coût i (Babad et Balachandran 1993, p. 566) est égale à :

73
74

Au lieu d’utiliser un des autres inducteurs recensés, Homburg (2001) utilise une combinaison des J – 1 inducteurs restants. Dans cette combinaison, chaque inducteur se voit assigner un poids déterminant la fraction de Dm qu’il alloue.

75

Si, dans l’allocation de Dm, le poids de ?mk>– 0 est affecté à l’inducteur k, le nouveau coût devient Dk + (?mk × Dm) et le nouveau coût unitaire de l’inducteur est :

76
77

L’erreur de spécification sur le nouveau coût d’activité Umi alloué à l’objet de coût i s’écrit :

78
79

avec

80

En remplaçant un inducteur par un autre, l’inducteur choisi est surpondéré (on crée une nouvelle erreur). L’attention risque d’être concentrée sur cet inducteur.

81

Avec l’usage d’une combinaison d’inducteurs, la focalisation est réduite. Le problème revient à regarder comment le coût de l’activité supprimée se ventilait auparavant sur les autres (revoir notre paragraphe 1.1.). On retombe sur une erreur classique de spécification : l’oubli d’une variable explicative. Homburg recherche alors un équilibre entre une imputation suffisamment précise et les coûts d’information qu’elle induit (entre une spécification suffisamment bonne mais pas trop complexe). L’algorithme s’énonce ainsi.

82

Soit une variable binaire xm (= 1 si l’inducteur m est remplacé par une combinaison d’inducteurs ; = 0 s’il n’y a pas remplacement) pour tous les inducteurs m = 1, …, J.

83

Soit Cj le coût d’information sur l’inducteur j et le coût total d’information à ne pas dépasser.

84

Soit le nombre maximum d’inducteurs que l’entreprise souhaiterait retenir.

85

Le problème consiste à :

86

sous les contraintes que :

87
88

pour tout m = 1, …, J

89

pour tout m,k = 1, …, J

90

pour tout m = 1, …, J

91

Les deux études que nous venons de rappeler postulent que la mise en place d’une comptabilité par activités permet une meilleure allocation. Or cette affirmation n’est pas forcément vraie. L’article de Datar et Gupta (1994) est là pour nous le rappeler.

2.2 - L’impact de l’approche heuristique sur les coûts imputés aux objets de coûts

92

Quand on met en œuvre une comptabilité par activités, on part généralement d’un modèle comptable mal formulé (les découpages et les causes de consommations de ressources sont jugés peu satisfaisants). On commence par modifier la partie du système antérieur jugée la plus mauvaise et l’analyse s’arrête lorsqu’il semble que le nouveau système appréhende à peu près correctement la réalité. Datar et Gupta (1994) montrent cependant que cette pratique n’améliore pas forcément la connaissance des coûts.

93

Le recours à un nouveau système utilisant de meilleurs inducteurs et un plus grand nombre d’activités repose sur l’hypothèse implicite que ces améliorations permettront un calcul plus fiable. Or, leur étude révèle qu’il n’en est rien. Les phénomènes de compensation des erreurs et le fait que l’erreur sur l’imputation aux objets de coûts soit inconnue font que l’on peut aboutir à un résultat inverse.

94

Partant d’un cas simple à deux activités, les auteurs démontrent que l’amélioration du calcul sur une activité peut amener à accroître l’erreur globale, si le système est au départ mal spécifié. Ce résultat, a priori paradoxal, provient de l’effet de compensation que l’erreur partielle initiale peut avoir sur l’erreur globale (Datar, Gupta, 1994, p. 570). En réduisant l’erreur grâce à une meilleure spécification sur une partie des inducteurs, on risque de diminuer l’effet de compensation, et d’accroître ainsi l’erreur globale.

95

Datar et Gupta généralisent cette observation en mesurant l’erreur d’imputation sur le coût des produits par le carré des écarts par rapport au modèle supposé bien spécifié. Si k activités sont prises en compte au lieu de j activités du modèle bien spécifié, l’erreur s’écrit :

96
97

Ils supposent que la kième activité est décomposée en plusieurs sous-activités, les autres restant inchangées. En appelant E(K’) l’erreur sur les coûts des produits dans le nouveau système. L’évolution de l’erreur s’écrit :

98
99

Après développement, les auteurs montrent que l’évolution de l’erreur dépend certes de l’erreur sur le coût des produits due à l’activité k :

100
101

mais elle dépend aussi de la somme des covariances entre l’erreur sur le coût des produits due à l’activité k et les erreurs sur les coûts des produits dues aux autres activités :

102
103

Une meilleure spécification peut avoir également un effet sur les erreurs de mesure dues à l’emploi de clés de répartition. La ventilation des charges sur une activité très agrégée à l’aide d’une clé de répartition peut être relativement exacte ; les bases de la ventilation peuvent devenir plus incertaines lorsqu’elles concernent des découpages plus fins [2][2] Les auteurs évoquent le problème, sans véritablement....

104

Ainsi, en postulant qu’une décomposition en activités permet forcément de retrouver une explication plus satisfaisante des comportements de coûts, les démarches heuristiques passent à côté des vraies questions ; de plus, dans la mesure où l’erreur d’imputation est inconnue, leur façon d’aborder le problème peut parfois faire augmenter l’erreur.

3 - Les approches statistiques

105

Parallèlement aux approches heuristiques, des approches d’inspiration statistique se sont développées. Leur objectif est de s’affranchir d’une procédure empirique essentiellement basée sur l’expérience et le jugement humains et de proposer une approche formalisée permettant de sélectionner les facteurs causaux en optimisant le coût d’information. Autrement dit, il s’agit de :

  • identifier les facteurs causaux des coûts : corrélation ;

  • retenir les plus significatifs : classification ;

  • minimiser les coûts d’information : optimisation.

Trois approches ont été proposées :

  • l’analyse hiérarchique ;

  • l’analyse en composantes principales ;

  • l’algorithme génétique.

3.1 - L’analyse hiérarchique

106

L’analyse hiérarchique (ou Analytic Hierarchy Process ou AHP) est une technique de traitement de données utilisée dans des situations de choix entre différentes options, sur la base de critères de décision multiples pouvant être contradictoires. La démarche générale (Wind et Saaty 1980) consiste à établir un vecteur global de préférence :

107
108

où les wj sont les préférences assignées (en termes de poids) aux n inducteurs possibles.

109

Schniederjans et Garvin (1997) ont ainsi appliqué une AHP au problème de la sélection des inducteurs d’activité. Ils posent le problème de la manière suivante. Soit un décideur qui doit sélectionner un inducteur parmi trois (A, B ou C). Le processus de sélection utilise quatre critères, inspirés des règles proposées par Turney (1992) :

  • la corrélation avec le coût ;

  • la réduction du nombre des inducteurs ;

  • l’incitation de l’utilisateur à la performance ;

  • le coût de la mesure.

Il est demandé aux décideurs s’ils préfèrent l’inducteur A à l’inducteur B sur chaque critère. Les préférences sont exprimées sur une échelle allant de 1 (« également préféré ») à 9 (« extrêmement préféré »). Une procédure de calcul standard (« right eigenvector ») permet d’obtenir les poids relatifs attribués par les décideurs à chacun des inducteurs (A, B ou C). Une matrice des préférences est ainsi construite pour chaque couple (critère/inducteur).

110

Une procédure d’agrégation des poids obtenus permet enfin de classer les inducteurs.

111

L’analyse hiérarchique assure l’obtention d’un jugement global cohérent avec les jugements individuels exprimés. Elle ne peut être utile qu’en final, une fois les problèmes de spécification résolus et la réunion de toutes les informations nécessaires à un bon choix des inducteurs.

3.2 - L’analyse en composantes principales

112

L’analyse en composantes principales (ou ACP) est une solution possible pour traiter le problème de l’interdépendance des activités.

113

En effet, une façon de traiter le problème est de considérer que ces activités interdépendantes peuvent être constituées statistiquement en portefeuilles d’activités indépendants, chaque portefeuille correspondant à une combinaison linéaire d’activités.

114

L’analyse en composantes principales se situe dans ce cadre. Elle consiste à diagonaliser la matrice des variances-covariances de la fonction de spécification. La diagonalisation est l’opération qui revient à transformer une matrice carrée en diagonale, c’est-à-dire que toutes les valeurs autres que les valeurs de la diagonale sont égales à zéro, mais la somme des valeurs de la diagonale reste inchangée. La diagonalisation de la matrice des variances-covariances permet d’annuler les covariances (de trouver des portefeuilles d’activités indépendants), tout en conservant la somme des variances (dites valeurs propres de la matrice variances-covariances initiale) identique.

115

Ittner, Larcker et Randall (1997) ont utilisé une ACP pour résoudre la question de recherche suivante : les inducteurs d’activité possibles dans une entreprise manufacturière correspondent-ils aux principaux facteurs de consommations de ressources recensés par Cooper et Kaplan (1991) ?

116

Selon Cooper et Kaplan, les principales causes de coûts sont :

  • le volume d’unités produites ;

  • le nombre de lots ;

  • le maintien d’une capacité de production sur un site ;

  • le maintien des capacités de production multi-sites.

Ittner et al. (1997) ont étudié 14 indicateurs physiques mensuels pouvant servir d’inducteurs, sur une période de 41 mois de juillet 1992 à novembre 1995. Ces indicateurs se situent dans une entreprise d’emballages possédant quatre lignes de produits et un seul site.

117

L’ACP permet aux auteurs de savoir si les 14 mesures opérationnelles peuvent être réduites en un nombre plus restreint d’inducteurs. En ne retenant que les variables dont les coefficients de corrélation sont supérieurs à 0,5, les auteurs montrent que les mesures de cette entreprise peuvent être expliquées par trois facteurs indépendants représentatifs du « volume », de la « capacité », et du « lot », ce qui correspond aux trois premières catégories de la classification de Cooper et Kaplan (1991) (le quatrième étant ici sans objet puisqu’il traite d’une localisation multi-sites, alors que le cas porte sur une entreprise mono-site).

118

Ces trois facteurs permettent d’expliquer 80 % de la variance totale, ce qui permet aux auteurs de conclure à la pertinence de la classification proposée par Cooper et Kaplan. Les 14 inducteurs peuvent ainsi être regroupés en trois grandes familles.

119

Au-delà de la résolution de la question de recherche posée, l’utilisation d’une ACP dans une optique de spécification pourrait correspondre à nos besoins. En effet, cette étude met en évidence que les inducteurs possibles sont plus ou moins interdépendants. Par exemple, le nombre total d’emballages produits est fortement corrélé avec le facteur « volume », mais corrélé également d’une manière beaucoup plus faible avec le facteur « lot » et le facteur « capacité ». Si l’on veut bien spécifier la fonction additive, il faut donc chercher à éliminer au maximum les covariances entre les inducteurs. L’ACP va bien dans ce sens.

120

Dans notre optique, on pourrait aussi continuer le raisonnement en essayant de trouver un inducteur qui soit le plus représentatif de chacun des trois axes. De cette façon, on pourrait réduire le nombre d’inducteurs tout en respectant la condition d’indépendance entre les inducteurs.

3.3 - L’algorithme génétique

121

Il relève des approches connexionnistes qui s’inspirent de certains processus bio-mimétiques (Lesage, Cottrell 2003).

122

L’AG (algorithme génétique) est une méthode de sélection, classification et optimisation non paramétrique qui tend à obtenir de meilleurs résultats dans des problèmes où les interrelations entre les variables sont a priori inconnues (ce qui est le cas ici). Il se fonde sur la notion de « survie du meilleur » (Golberg 1989). Sa démarche générale consiste à rechercher une solution optimisée dans un espace de solutions possibles, guidée par une simulation des mécanismes de reproduction, de mutation et de sélection des individus-solutions (Adeli et Hung 1995).

123

La première étape d’un AG consiste à représenter le problème de manière compatible avec sa méthodologie (ici, trouver les inducteurs qui vont expliquer au mieux le montant total des charges indirectes), en utilisant les notions de « chromosomes » composés de « gènes ». Un chromosome est une solution possible au problème constituée d’un ensemble de variables. Un gène est la valeur attribuée à chaque variable, très fréquemment représentée par un code binaire.

124

Par exemple, un chromosome est constitué de l’ensemble des inducteurs (variables) possibles, chaque gène ayant une valeur 1 ou 0 selon que l’inducteur (variable) est sélectionné ou pas :

125

La deuxième étape consiste à générer aléatoirement une population initiale de chromosomes, constituant la première génération de solutions possibles. Chacun de ces chromosomes est alors évalué par une fonction de fitness (ou fonction permettant d’apprécier la performance de la solution générée). Cette fonction fitness peut être le coût de l’information, le pourcentage de variance expliquée, etc.

126

La troisième étape consiste à sélectionner les meilleurs chromosomes selon leur score de fitness, puis à les faire se reproduire entre eux, afin d’obtenir une deuxième génération plus performante que la première. Cette génération est issue de la première en utilisant les opérateurs suivants :

  • un opérateur de sélection : il indique quels individus-parents vont survivre lors une seconde génération (par exemple ceux qui expliquent plus de 50 % de la variance ; ici les chromosomes 1 et 4) :

127
  • un opérateur de cross-over : il indique quelles parties du chromosome des parents sont retenues pour créer celui de l’enfant (par exemple, la coupure est opérée au 3e gène : les gènes 1 à 3 du chromosome 1 et les gènes 4 et 5 du chromosome 4 donnent le chromosome n° 5 de seconde génération, et l’inverse pour le chromosome n° 6.

128
  • un opérateur de mutation : il indique l’ampleur des modifications effectuées aléatoirement lors de la réplication des chromosomes des parents (par exemple, un gène change aléatoirement de valeur, ici le gène 3 du chromosome 6).

129

On obtient ainsi la population de deuxième génération, et leur score de fitness associé :

130

Ces étapes sont répétées jusqu’à ce que l’algorithme converge vers une solution quasi optimale. Levitan et Gupta (1996) ont proposé l’algorithme génétique comme alternative aux fonctions objectifs développées par les approches heuristiques. Utilisant des données issues de cas présents dans la littérature, ils concluent que l’utilisation d’un algorithme génétique non seulement réduit les coûts d’information grâce à la sélection d’un nombre inférieur d’inducteurs, mais produit également une fonction de coût mieux spécifiée, même en présence d’un nombre plus petit d’inducteurs.

131

Kim et Han (2003) suggèrent également l’utilisation de l’algorithme génétique pour la sélection des inducteurs [3][3] Ces auteurs se situent dans le cadre d’une simulation,..., associé à un réseau de neurones afin de capter la nature non linéaire de la modélisation du coût (cf. Bode, 2000).

Conclusion

132

Pour spécifier correctement une fonction de coût permettant l’imputation des charges indirectes, quatre conditions sont donc à respecter : utiliser le moins possible de clés de répartition, éviter le subventionnement en oubliant un inducteur significatif, vérifier l’existence d’une liaison proportionnelle entre le coût de l’activité et le volume de son inducteur, veiller à ce que les inducteurs soient suffisamment indépendants entre eux.

133

Les approches heuristiques se focalisent sur la question du subventionnement et la nécessité de réduire le nombre d’inducteurs pour ne pas avoir un système trop complexe, mais les solutions qu’elles proposent font retomber sur le problème du subventionnement. Datar et Gupta montrent par ailleurs qu’une approche empirique classique peut contribuer à l’augmentation de l’erreur globale, car les activités sont souvent interdépendantes et on ne sait pas comment les erreurs se compensent. Ils insistent également sur le fait que rien n’est résolu si les charges sont ventilées sur des activités fines à l’aide de clés de répartition.

134

Les approches statistiques mettent en évidence que l’analyse en composantes principales et l’algorithme génétique permettent à la fois d’éliminer le problème de l’interdépendance entre les activités et de réduire le nombre d’inducteurs. L’analyse hiérarchique n’a d’utilité qu’au stade terminal du processus : au moment du compromis final à trouver entre les diverses contraintes.

135

Ces différentes constatations nous amènent aux conclusions suivantes :

  • au moment de la mise en place d’une comptabilité de gestion, il est essentiel de comprendre qu’un coût est toujours le fruit d’une construction rigoureuse. Si celle-ci n’est pas suffisamment approfondie, les calculs auront de bonnes chances d’être arbitraires et sans valeur pour le management ;

  • s’il est important de partir des objectifs poursuivis et des grands processus de création de valeur que la firme entend maîtriser, il faut que le nouveau système tienne compte d’une logique technico-comptable, de manière à avoir des catégories parlantes pour le technicien et sur lesquelles le comptable va pouvoir mettre des charges les plus directes possible, mais il est également nécessaire que la fonction de coût soit définie avec la plus grande rigueur et il faudrait enfin vérifier, dans la mesure où l’on ventile des charges en bloc sur la base d’un facteur de consommation considéré comme primordial, que les structures de consommation restent stables et homogènes (problème non traité dans le cadre de cet article).

À notre sens, l’algorithme de résolution de l’ensemble du problème reste à proposer. L’approche empirique classique ne permet pas d’avoir une meilleure connaissance des coûts et le recours massif à des clés de répartition (suscité par beaucoup d’ERP) n’améliore rien. En fait, ou les coûts sont suivis à la trace, mais alors on n’a pas besoin d’imputer, ou l’on impute, mais il faut dans ce cas une bonne spécification de la fonction de coût et des relations stables, et à ce niveau de nombreux progrès restent à accomplir.


Bibliographie

  • Adeli H. et Hung S. (1995), Machine Learning : Neural Networks, Genetic Algorithms and Fuzzy Systems, Wiley.
  • Babad Y.M. et Balachandran B.V. (1993), « Cost Driver Optimization in Activity-Based Costing », The Accounting Review, vol. 68, n° 3, juillet, p. 563-575.
  • Banker R.D., Potter G. et Schroeder R.G. (1995), « An Empirical Analysis of Manufacturing Overhead Cost Drivers », Journal of Accounting and Economics, vol. 19, p. 115-137.
  • Bode J. (2000), « Neural Networks for Cost Estimation : Simulations and Pilot Application », International Journal of Production Research, vol. 38, n° 6, p. 1231-1254.
  • Bouquin H. (2003), Comptabilité de gestion, 2e éd., Économica.
  • Cooper R. et Kaplan R. (1991), The Design of Cost Management Systems :Text, Cases and Readings, Englewood Cliffs, Prentice Hall.
  • Datar S. et Gupta M.(1994), « Aggregation, Specification and Measurement Errors in Product Costing », The Accounting Review, vol. 69, n° 4, octobre, p. 567-591.
  • Gervais M. (2005), Contrôle de gestion, 8e éd., Économica
  • Goldberg D.E. (1989), Genetic Algorithms in Search, Optimization and Machine Learning, Reading, MA, Addison-Wesley.
  • Gupta M. (1993), « Heterogeneity Issues in Aggregated Product Costing Systems », Journal of Management Accounting Research, vol. 5, p. 180-212.
  • Homburg C. (2001), « A Note on Optimal Cost Driver Selection in ABC », Management Accounting Research, vol. 12, n° 2, p. 197-205.
  • Ittner C.D., Larcker D.F. et Randall T. (1997), « The Activity-Based Cost Hierarchy, Production Policies and Firm Profitability », Journal of Management Accounting Research, p. 143-152.
  • Kim K.J. et Han I. (2003) « Application of a Hybrid Genetic Algorithm and Neural Network Approach in Activity-Based Costing », Expert Systems with Applications, n° 24, p. 73–77.
  • Lesage C. et Cottrell M. (2003) « Connectionist Approaches in Economics and Management Sciences », Bookseries : Advances in Computational Management Science, vol. 6, Kluwer Publishing.
  • Levitan A. et Gupta M. (1996) « Using Genetic Algorithms to Optimize the Selection of Cost Drivers in Activity-Based Costing », International Journal of Intelligent Systems in Accounting, Finance and Management, vol. 5, n° 3 (numéro spécial), p. 129-145.
  • Longbrake W.A. (1962), « Statistical Cost Analysis », Applied Statistics, juin, p. 69-78.
  • Malinvaud E. (1969), Méthodes statistiques de l’économétrie, Dunod.
  • Merchant K.A. et Shields M.D. (1993), « Commentary on When and Why to Measure Cost Less Accurately to Improve Decision Making », Accounting Horizons, vol. 7, p. 76-81.
  • Noreen E. et Soderstrom N. (1994), « Are Overhead Costs Strictly Proportional to Activity ? Evidence from Hospital Departments », Journal of Accounting and Economics, vol. 17, p. 255-278.
  • Rimailho É (1936), Organisation à la française, Delmas.
  • Schniederjans M.J. et Garvin T. (1997), « Using the Analytic Hierarchy Process and Multi-Objective Programming for the Selection of Cost Drivers in Activity-Based Costing », European Journal of Operational Research, vol. 100, p. 72-80.
  • Thenet G. (1995), « Le problème de l’optimalité des coûts opératoires standards en milieu bancaire : vers une prise en compte contingente et transversale de la performance productive », thèse, Rennes 1.
  • Trahand J., Morard B. et Cargnello-Charles E. (2000), Comptabilité de gestion, coût, activités, répartition, Presses Universitaires de Grenoble.
  • Turney P.B. (1992), « What an Activity-Based Cost Model Looks Like », Journal of Cost Management, n° 6, p. 54-60.
  • Wind Y. et Saaty T. (1980), « Marketing Applications of the Analytic Hierarchy Process », Management Science, juillet, p. 641-658.

Notes

[1]

Dans cet article, le terme « spécification » est pris dans son sens statistique. La spécification est la formulation d’un modèle aléatoire (hypothèses du modèle, choix des estimateurs) qui se substitue aux propriétés réelles du phénomène représenté (Malinvaud, 1969, p. 82).

[2]

Les auteurs évoquent le problème, sans véritablement l’approfondir.

[3]

Ces auteurs se situent dans le cadre d’une simulation, et l’apprentissage s’effectue en utilisant une fonction de fitness égale à l’écart moyen entre les valeurs attendues du calcul de coût et des valeurs fixées au départ supposées être les valeurs réelles. On peut noter qu’un tel traitement ne peut s’opérer que dans un contexte de simulation, car la fonction réelle du coût en conditions normales est précisément l’objet de la modélisation.

Résumé

Français

Dans la littérature sur la méthode ABC, on suppose que la mise en place d’activités permet une meilleure imputation des charges indirectes. À l’aide d’une formulation mathématique, le présent papier rappelle les conditions d’une bonne imputation. Il envisage ensuite les deux grandes familles de modèles (heuristiques et statistiques) qui ont été proposées pour déterminer des inducteurs expliquant au mieux le niveau des charges. L’analyse débouche sur une reformulation du problème de l’imputation.

Mots-clés

  • activité
  • inducteur
  • imputation
  • spécification de coût
  • erreur de spécification

English

Back to the allocation of overhead costs in managerial accounting: how to well specify the activities and their cost drivers?In literature on the ABC method, it is supposed that the setting of activities enables a better allocation of overhead costs. Through a mathematical formulation, this paper recalls the conditions for a good allocation. Then it reviews both families of models (heuristic and statistical) that have been proposed to determine cost drivers explaining at the best the level of costs. The analyse leads to a reformulation of the allocation problem.

Keywords

  • activity
  • cost driver
  • allocation
  • cost specification
  • specification error

Plan de l'article

  1. Introduction
  2. 1 - Le risque d’une mauvaise spécification d’une comptabilité de coût
    1. 1.1 - La notion de spécification d’un modèle de calcul de coût
    2. 1.2 - Les risques d’une mauvaise spécification
      1. 1.2.1 - L’usage de clés de répartition trop approximatives
      2. 1.2.2 - L’oubli de variables explicatives (d’inducteurs)
      3. 1.2.3 - Une partie de la charge insensible au volume de l’inducteur
      4. 1.2.4 - Des inducteurs trop interdépendants
  3. 2 - Les approches heuristiques et la critique de Datar et Gupta
    1. 2.1 - Les approches cherchant à réduire le nombre des inducteurs proposés
    2. 2.2 - L’impact de l’approche heuristique sur les coûts imputés aux objets de coûts
  4. 3 - Les approches statistiques
    1. 3.1 - L’analyse hiérarchique
    2. 3.2 - L’analyse en composantes principales
    3. 3.3 - L’algorithme génétique
  5. Conclusion

Pour citer cet article

Gervais Michel, Lesage Cédric, « Retour sur l'imputation des charges indirectes en comptabilité de gestion : comment bien spécifier les activités et leurs inducteurs ? », Comptabilité - Contrôle - Audit, 1/2006 (Tome 12), p. 85-101.

URL : http://www.cairn.info/revue-comptabilite-controle-audit-2006-1-page-85.htm
DOI : 10.3917/cca.121.0085


Article précédent Pages 85 - 101 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback