Accueil Revues Revue Numéro Article

Comptabilité - Contrôle - Audit

2010/3 (Tome 16)


ALERTES EMAIL - REVUE Comptabilité - Contrôle - Audit

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 11 - 39 Article suivant

Introduction

1

Dans le cadre des études sur la gestion du résultat, les travaux sur les seuils comptables se sont développés depuis la fin des années 1990. S’attendant à ce que la distribution statistique des résultats des entreprises présente une allure gaussienne, les chercheurs en comptabilité ont interprété les irrégularités de distribution des résultats comme la manifestation de comportements d’évitement de certains seuils et comme une manifestation de pratiques de gestion du résultat (voir figure 1).

Figure 1 - Exemple d’irrégularité constatée dans la distribution des résultats publiésFigure 1
2

Burgstahler et Dichev (1997) ont été les premiers à étudier les irrégularités de dispersion des résultats comptables des entreprises américaines, et ont révélé l’existence de deux seuils : le seuil du résultat nul (les entreprises évitent de publier de faibles pertes) et le seuil des variations nulles (les entreprises évitent de publier de faibles diminutions de résultat). L’étude de Degeorge et al. (1999) a permis de révéler un troisième seuil : le seuil des erreurs nulles de prévisions (les entreprises évitent de publier des résultats légèrement inférieurs aux prévisions des analystes). Ces travaux sont les précurseurs de la recherche actuelle sur les seuils. Leurs auteurs ont posé les bases conceptuelles et méthodologiques du sujet.

3

Notamment, les auteurs postulent plus ou moins implicitement que la manipulation pour dépasser un seuil est d’autant plus répandue qu’elle porte généralement sur un faible montant. L’objectif de cet article est de questionner ce postulat. L’enjeu est important puisque les études sur les seuils comptables sont souvent présentées comme un domaine de recherche spécifique dans le champ plus large de la gestion du résultat. Si les montants manipulés pour dépasser un seuil ne sont pas marginaux, alors l’étude des seuils comptables devient un sujet majeur de recherche, et l’étude des motivations qui poussent les dirigeants à atteindre des objectifs comptables mérite de mobiliser davantage l’attention des chercheurs et des utilisateurs des états financiers.

4

Dans une première partie consacrée à la revue de littérature, le papier souligne que ces études (1) présupposent que la manipulation porte a priori sur des montants relativement faibles, et (2) en œuvre des démarches non paramétriques de mesure qui présentent des limites méthodologiques. Pour répondre à ces limites, un nouvel instrument de mesure des irrégularités, fondé sur une démarche paramétrique, est proposé dans une deuxième partie. Dans la troisième partie, cet instrument est mis en œuvre dans le cadre de l’étude des entreprises françaises cotées de 1992 à 2004. Il permet de mesurer le nombre total d’entreprises ayant manipulé leurs comptes pour éviter de publier une perte, et d’estimer le montant moyen manipulé par ces entreprises.

5

Les résultats de l’étude montrent que, si les entreprises faiblement bénéficiaires en surnombre évitent de publier une perte, alors les montants manipulés peuvent être très importants. Autrement dit, ces entreprises ne se contentent pas d’éviter de publier des petites pertes et le postulat généralement admis de manipulation marginale pour éviter un seuil comptable est remis en cause.

6

L’article souligne donc l’intérêt de mettre en œuvre une démarche paramétrique pour étudier les seuils comptables, et la démarche d’ajustement proposée constitue un apport méthodologique original qui mérite des développements. L’article souligne en outre l’importance du thème de recherche constitué par les seuils comptables qui ne doit pas être considéré uniquement comme un satellite dans le champ de recherche sur la gestion du résultat, mais plutôt comme le cœur des motivations à la manipulation.

1 - Les études non paramétriques sur les seuils

7

Les travaux qui ont suivi les études de Burgstahler et Dichev (1997) et de Degeorge et al. (1999) sont nombreux. Dans les revues internationales, les publications sur les distributions des résultats sont en plein développement. Un rapide tour d’horizon permet de constater deux choses : (1) la plupart des études postulent que la gestion du résultat pour atteindre un seuil est marginale, et (2) les études reposent exclusivement sur des méthodologies non paramétriques de mesure des irrégularités.

1.1 - Le postulat de manipulation marginale

8

La littérature sur les seuils comptables se caractérise par une certaine diversité. Il est important de souligner que les études mettent systématiquement en évidence des irrégularités dans la distribution des résultats publiés et les interprètent comme une preuve de manipulation comptable pour éviter des seuils (Burgstahler et Dichev 1997 ; Burgstahler et Eames 2003 ; Holland et Ramsey 2003 ; Bisson et al. 2004 ; Mard 2004). Les irrégularités ont été mesurées afin d’effectuer des comparaisons dans le temps – évolution – (Brown 2001), dans l’espace – comparaisons internationales – (Daske et al. 2003 ; Leuz et al. 2003 ; Glaum et al. 2004), ou entre les différents seuils – hiérarchisation – (Degeorge et al. 1999 ; Kasznik 1999 ; Brown et Caylor 2005). Un lien entre la performance de l’entreprise et l’évitement d’un seuil a pu être mis en évidence (Degeorge et al. 1999 ; Mard 2004), et des moyens spécifiques à la manipulation pour éviter un seuil ont été identifiés (Degeorge et al. 1999 ; Dechow et al. 2003 ; Coppens et Peek 2005 ; Roychowdhury 2006).

9

Mais au-delà de cette diversité, il apparaît que toutes les études se fondent sur un postulat commun : les manipulations qui permettent aux entreprises d’éviter un seuil comptable sont d’autant plus difficiles à identifier qu’elles sont de petite ampleur (manipulation marginale). Plus précisément, la littérature sur les seuils présente trois catégories d’articles :

  1. Les articles les plus nombreux évoquent explicitement le postulat de faible manipulation (voir figure 2). Ces articles parlent en général de gestion des résultats pour éviter les « faibles » pertes [1][1] En anglais : « Earnings Manipulations to avoid small... (Burgstahler et Eames 2003 ; Das et Zhang 2003 ; Dechow et al. 2003 ; Leuz et al. 2003 ; McNichols 2003 ; Coppens et Peek 2005 ; Beaver et al. 2007). Ces articles reprennent à leur compte l’explication fournie par Burgstahler et Dichev (1997) dans leur article fondateur. Les auteurs écrivent : « we find evidence consistent with the manipulation of cash flow from operations to effectively move observations from small losses to small positive earnings ». Ces explications sont également présentes dans la littérature francophone (Mard 2004 ; Jeanjean 2001).

  2. Peu d’articles ne posent aucune hypothèse sur les montants manipulés. Ces articles parlent généralement de gestion des résultats pour éviter les pertes [2][2] En anglais : « Earnings Manipulations to avoid los.... C’est notamment le cas de l’article précurseur de Degeorge et al. (1999) [3][3] Cet article est parfois cité à tort par certains auteurs....

  3. Enfin, certains articles ne font pas explicitement référence au montant manipulé, mais postulent implicitement que la manipulation pour atteindre le résultat positif est de faible ampleur. Peuvent être notamment classés dans cette catégorie tous les articles qui se fondent sur un indicateur d’asymétrie (Leuz et al. 2003 ; Glaum et al. 2004 ; Brown et Caylor 2005 ; Burgstahler et al. 2006). En effet, ces études mesurent l’ampleur de la manipulation comptable en faisant un rapport entre l’effectif immédiatement à droite du seuil sur l’effectif immédiatement à gauche du seuil. Autrement dit, elles assimilent la sous-représentation à gauche et la sur représentation à droite à l’expression du même phénomène (Vidal 2007). C’est donc un postulat implicite de manipulation de faible ampleur du résultat.

Figure 2 - La présomption de manipulation marginale (évitement des petites pertes)Figure 2
10

En conclusion, à l’exception notable de quelques rares auteurs, la littérature comptable tend à postuler que la gestion du résultat pour éviter les pertes, et de manière plus générale la gestion du résultat pour atteindre des seuils, s’effectue sur de petits montants. C’est le postulat de « manipulation marginale » pour atteindre des seuils.

1.2 - Les limites méthodologiques des mesures non paramétriques

11

Chaque année, et quelle que soit la population étudiée, les irrégularités observées autour du résultat nul sont toujours suffisamment importantes pour qu’elles soient jugées significatives, et ce, quelle que soit la méthode utilisée pour mesurer l’irrégularité. Ceci étant dit, lorsque l’objet de l’étude est d’effectuer des comparaisons, l’instrument de mesure devient important puisqu’une mesure non fiable va fausser les comparaisons.

12

Les études sur les seuils utilisent plusieurs méthodes de mesure des irrégularités (symétrie, moyenne, interpolation, extrapolation). Toutes ces méthodes ont en commun le fait d’utiliser des mesures non paramétriques des irrégularités. Une mesure non paramétrique d’une irrégularité de distribution est une mesure qui est effectuée sans faire référence à une loi mathématique de distribution des résultats. L’estimation de l’effectif d’un intervalle est effectuée localement, par comparaison avec les effectifs des intervalles adjacents (voir figure 3). La seule hypothèse retenue par les chercheurs est que l’allure de la distribution est supposée lisse en absence de manipulation.

Figure 3 - Mesure non paramétrique de l’irrégularité (moyenne des intervalles adjacents)Figure 3
13

Pour être effectuées, ces mesures nécessitent de déterminer une largeur d’intervalle [4][4] On parle aussi de « pas », de « classe d’observation »... fixe. Or l’observation des distributions des résultats annuels publiés permet de constater que chaque année, les effectifs irréguliers ne se situent pas toujours exactement sur les mêmes intervalles. Autrement dit, les mesures obtenues sont très sensibles au choix de cette largeur (voir figure 4). Dans certains cas, modifier la largeur de l’intervalle peut conduire à inverser les résultats de l’étude comme le montrent Glaum et al. (2004). Les recherches se limitent donc à des largeurs faibles (0,005 en général), mettant en évidence l’irrégularité à la proximité immédiate du seuil.

Figure 4 - Sensibilité des mesures non paramétriques à la largeur de l’intervalleFigure 4
14

Puisque l’irrégularité annuelle ne se manifeste pas nécessairement sur la même largeur d’intervalle chaque année, fixer une largeur interdit de maximiser la mesure de l’irrégularité. Par exemple, si une année l’irrégularité maximale est observée sur l’intervalle de largeur 0,005 (soit un résultat égal à 0,5 % du total actif), l’irrégularité maximale l’année suivante peut être observée sur une largeur de 0,2. Il en découle qu’il est impossible, à l’aide d’une méthode non paramétrique, d’identifier toutes les entreprises en sur nombre au-dessus du seuil, ou en sous-effectif en dessous du seuil. Pour estimer le nombre total des entreprises publiant irrégulièrement un résultat faiblement positif, il faut mesurer les irrégularités en élargissant l’intervalle jusqu’à l’obtention d’une mesure maximale. Seule une mesure paramétrique, c’est-à-dire utilisant une loi mathématique de la distribution théorique des résultats, permet de réaliser cette estimation puisque la loi mathématique est définie quelle que soit la largeur de l’intervalle étudié.

15

Pour la même raison, comme l’écrit Mard (2004) citant Chalayer-Rouchon et al. (2001), la méthodologie par les seuils « ne permet pas d’apprécier l’ampleur de la gestion des résultats, mais seulement de tester la présence ou non d’un comportement de gestion des résultats ».

16

Ces limites conduisent donc à proposer un nouvel instrument de mesure des irrégularités de distribution. Fondé sur une démarche paramétrique (voir figure 5), cet instrument permet de s’affranchir des principales contraintes méthodologiques et permet d’estimer les montants moyens manipulés par les entreprises qui évitent de publier de faibles pertes. Cet instrument permet de tester le postulat généralement admis de manipulation marginale des résultats pour atteindre le seuil du résultat nul.

Figure 5 - Mesure paramétrique de l’irrégularité (loi mathématique de distribution)Figure 5

2 - Une démarche paramétrique pour estimer les montants manipulés

2.1 - D’une distribution empirique à une loi mathématique

17

La démarche proposée repose sur l’identification d’une loi mathématique de la distribution théorique des résultats publiés par les entreprises. Or cette loi n’a encore jamais été identifiée. Cette deuxième partie présente la démarche suivie pour estimer la loi.

2.1.1 - Hypothèses

18

Chaque année, l’environnement et la conjoncture économique peuvent influencer les performances des entreprises. Les paramètres de la distribution annuelle (moyenne, écart type) peuvent donc être différents d’une année sur l’autre (la performance moyenne peut être moins élevée en période de crise, les résultats plus étalés selon le contexte…). Mais déterminer une loi de distribution des résultats repose sur le postulat que cette loi (l’allure de la courbe) est toujours la même. Elle est considérée comme étant une donnée économique, identique quelle que soit l’année ou le pays étudié, aux paramètres près (moyenne et écart type varient en fonction de la conjoncture). Chaque année, la distribution des résultats est considérée comme étant un tirage indépendant. La loi recherchée est donc la loi de distribution annuelle, et non pas la loi des distributions agrégées.

19

Par ailleurs, il est important de souligner que la loi recherchée est la loi de distribution théorique des résultats attendus, c’est-à-dire la loi de distribution des résultats avant manipulations des entreprises. La loi théorique peut être différente de la distribution empirique puisque les résultats publiés sont considérés comme potentiellement manipulés.

2.1.2 - Nature de la loi de distribution

20

Certains auteurs évoquent explicitement la loi Normale (ou une allure Gaussienne) pour décrire la distribution empirique des résultats (agrégés sur plusieurs années ou non) publiés par les entreprises (Jeanjean 1999 ; Mard 2004). La plupart des études ne se risque cependant pas à proposer de manière explicite une loi de distribution des résultats, mais plusieurs études se fondent sur ce présupposé de manière implicite. C’est le cas notamment de Burgstahler et Dichev (1997) qui mesurent les irrégularités par symétrie. Mesurer les irrégularités par symétrie implique une hypothèse sur un au moins des paramètres de la loi de distribution.

21

Cependant, à l’exception du papier de Chen et al. (2008) qui propose d’ajuster les distributions par une loi bi-normale sans justifier le choix de cette fonction, la plupart des auteurs ne font aucune hypothèse sur l’allure générale de la distribution. En effet, personne ne connaît la loi théorique de distribution des résultats, et la seule observation graphique des distributions conduit à constater que la loi Normale n’est pas un bon ajusteur. Burgstahler et Dichev (1997) eux-mêmes soulignent que la distribution agrégée des résultats (75 999 observations annuelles sur des sociétés américaines de 1976 à 1994) est dissymétrique et leptokurtique (plus « pointue » qu’une loi Normale). Ce constat peut être observé sur les distributions annuelles.

22

La loi des grands nombres nous enseigne que la loi de distribution d’un grand nombre de tirages suivant la même loi tend vers une distribution Normale. Dans notre étude, cela signifie que la loi de distribution des résultats agrégés sur un très grand nombre d’années (plusieurs centaines) doit tendre vers une distribution Normale. Cependant, aucune étude ne peut être menée sur une période suffisamment longue pour remplir cette condition. La loi Normale ne peut être retenue a priori comme une bonne estimation de la loi de distribution.

23

L’hypothèse de Normalité de la distribution étant rejetée, comment faire pour déterminer la loi de distribution des résultats non manipulés alors que l’observateur ne dispose que des distributions empiriques, donc potentiellement manipulées ? L’observation graphique (visuelle) des distributions met en évidence des similitudes dans leur allure générale, quels que soient l’année ou le pays retenu. Cette courbe semble toujours plus pointue qu’une loi normale, et est dissymétrique. Intuitivement, il semble intéressant de tenter d’exploiter ces distributions de résultats publiés (donc potentiellement manipulés) afin d’en déduire une approximation de la loi de distribution théorique des résultats (non manipulés). L’intuition se fonde sur l’idée qu’un nombre suffisamment grand d’observations d’une part, associé à un traitement mathématique adéquat d’autre part, permet de surmonter ce problème.

24

Mathématiquement, la démarche qui consiste à découvrir une loi de distribution théorique à partir d’une distribution empirique s’appelle un « ajustement ». De nombreux logiciels permettent d’effectuer de tels ajustements. Ils possèdent chacun un catalogue de lois. Ils mesurent pour chaque loi un indicateur de qualité de l’ajustement. Ces indicateurs sont en général au nombre de trois : la distance du Chi2, la distance de Kolmogorov-Smirnov, et la distance de Anderson-Darling. Plus la distance mesurée est faible, et plus la fonction mathématique est capable de traduire fidèlement la distribution. Un classement des lois est effectué, et il est possible d’en déduire la loi théorique (parmi les lois présentes dans le catalogue) permettant le meilleur ajustement de la distribution empirique.

25

Pour parvenir à ajuster une loi théorique à partir d’une loi empirique potentiellement irrégulière, il faut (1) identifier les sources d’irrégularités potentielles, puis (2) traiter ces « zones inquiétantes ». Aucune hypothèse a priori n’est posée concernant l’allure de la distribution des résultats. L’étude ne considère pas comme irrégulières la concentration ou la dissymétrie. Le principe de prudence comptable, l’inertie des performances économiques, le mimétisme des entreprises, l’abandon des activités peu performantes peuvent justifier ces phénomènes. Par contre, aucune justification ne peut être apportée aux discontinuités [5][5] Appelées aussi « ruptures » ou « pics ».. Suivant Burgstahler et Dichev (1997) et Degeorge et al. (1999), la courbe devrait être lisse [6][6] « Smooth » en anglais. en absence de manipulation comptable.

26

La discontinuité autour du résultat nul étant la seule manifestation des pratiques de manipulation, la question est alors de savoir comment neutraliser cette zone inquiétante avant de procéder à un ajustement mathématique.

27

L’originalité de la démarche proposée dans cette étude consiste à utiliser une propriété comptable : sur le long terme, les manipulations comptables tendent mécaniquement à s’annuler. Une manipulation à la hausse une année doit inévitablement être compensée par une manipulation à la baisse dans les années ultérieures. Si les distributions empiriques sont manipulées, sur une longue période, l’agrégation des distributions doit conduire à compenser ces manipulations et estomper les irrégularités de distribution. Autrement dit, la longueur de la période d’étude, sans être suffisamment longue pour justifier l’utilisation d’une loi Normale, peut justifier la mise en œuvre d’une procédure d’ajustement empirique de la distribution agrégée.

28

Cependant, ce raisonnement doit être conduit toutes choses égales par ailleurs, sans tenir compte de l’influence de l’environnement sur les performances économiques. Autrement dit, pour agréger les distributions de résultat, il est indispensable d’annuler l’impact de la conjoncture en centrant et réduisant les distributions.

2.1.3 - Agrégation des distributions

29

Il est impossible de faire l’agrégation des distributions brutes, contrairement à ce qui a été fait jusqu’alors dans la littérature sur les seuils. L’étude qui utilise des données longitudinales se fonde sur plusieurs tirages de la même loi de distribution. Chaque distribution annuelle est tout d’abord centrée et réduite. Ensuite, ces distributions centrées et réduites sont agrégées. Cette distribution agrégée permet alors de tracer une allure de la distribution indépendamment des paramètres annuels. C’est cette distribution qui est ensuite ajustée.

30

Pour centrer les distributions, trois points sont envisageables : le mode, la moyenne ou la médiane. Les distributions étant parfois multimodales (notamment à cause de l’irrégularité au niveau du résultat nul) le mode ne peut être retenu. La moyenne et la médiane sont généralement assez proches, mais certaines années, l’écart entre ces deux points est important. Il apparaît que la moyenne est beaucoup plus sensible aux valeurs extrêmes, et se confond parfois avec le seuil du résultat nul. La médiane est plus stable et plus proche du sommet des distributions (Vidal 2008). Le centrage est donc fait sur la médiane annuelle. La réduction est faite sans difficulté par l’écart type annuel.

31

L’étude de l’agrégation des distributions centrées-réduites a donc deux avantages : (1) en permettant d’agréger les données de plusieurs années, elle maximise le nombre d’observations et augmente la qualité des traitements statistiques, et (2) en lissant les irrégularités autour du résultat nul, elle permet un traitement de la zone inquiétante. Ce deuxième point est développé dans le paragraphe suivant.

2.1.4 - Traitement de la zone inquiétante

32

Pour ajuster une loi mathématique à partir d’une distribution empirique dont une zone est présumée irrégulière, il faut en théorie supprimer cette zone et la remplacer par exemple par des valeurs extrapolées à partir du reste de la distribution. Chaque distribution annuelle constitue un tirage indépendant. L’irrégularité autour du résultat nul apparaît sur chacune d’entre elles. Mais lorsque l’on s’intéresse à la distribution agrégée de plusieurs distributions, l’irrégularité autour du résultat nul n’apparaît que si l’agrégation se fait sur les distributions brutes [7][7] Les données dites « brutes » correspondent aux résultats..., c’est-à-dire non centrées et réduites. En effet, dans ce cas, le point invariant des distributions étant le résultat nul, les irrégularités en ce point se cumulent.

33

Sur le graphe ci-dessous (fig. 6), la première colonne illustre de manière schématique l’agrégation de deux distributions brutes. Les moyennes M1 et M2 sont différentes. La distribution agrégée est donc centrée sur une moyenne M. = (M1+M2)/2. Les irrégularités autour du résultat nul se cumulent car le point zéro est le point invariant des distributions. La deuxième colonne illustre schématiquement l’agrégation de distributions centrées réduites. Les deux distributions sont donc centrées sur la moyenne = zéro, et les irrégularités sont respectivement observables à deux endroits différents (-M1/ ?1 et –M2/ ?2). La distribution agrégée ne cumule donc pas les irrégularités sur le même point, mais les décale l’une par rapport à l’autre. Elles tendent donc à s’estomper (voir figure 6).

Figure 6 - Atténuation des irrégularités en agrégeant des distributions annuelles centrées-réduitesFigure 6
34

Ce phénomène laisse penser que la suppression de la zone inquiétante n’est pas nécessaire pour ajuster la loi de distribution. L’ajustement de la distribution empirique (des résultats potentiellement manipulés) sur plusieurs années, après centrage et réduction permet d’établir une approximation raisonnablement fiable de la loi de distribution théorique des résultats (non manipulés).

2.2 - Ajustement de la loi

35

L’observation montre que les distributions se caractérisent par une dissymétrie et une forte concentration (courbe leptokurtique). Elles se caractérisent également par une non-monotonie (le signe de la pente change, c’est-à-dire que la pente est ascendante jusqu’au sommet, puis elle devient descendante). Enfin, elles sont non bornées.

36

Parmi les 63 lois testées, les lois symétriques (loi Normale, loi Logistique, loi de Laplace, loi de Student) peuvent être plus ou moins « pointues » (voir figure 7). Mais la dissymétrie des distributions empiriques conduit à ne pas retenir ces lois.

Figure 7 - Exemples de lois symétriquesFigure 7
37

Les lois monotones (loi Exponentielle, loi Pareto2) ne peuvent a priori prétendre ajuster la distribution dans son ensemble puisqu’elles ne sont définies que sur [0 ; +?[(voir figure 8).

Figure 8 - Exemples de lois monotonesFigure 8
38

Enfin, des lois non monotones et leptokurtiques existent (loi Béta, Chi2, Erlang, Gamma, Inverse Gaussienne, LogLogistique, Lognormale, Pearson, Rayleigh, Triangulaire, Weibull), mais elles sont bornées. Par ailleurs, la phase ascendante est généralement très « abrupte » et ne s’ajuste pas bien aux distributions de résultats (voir figure 9).

Figure 9 - Exemples de lois non symétriques, non monotones et leptokurtiquesFigure 9
39

Aucune loi ne permet donc a priori de répondre à toutes nos exigences. Pour faire face à cette contrainte, l’ajustement est réalisé sur des distributions partielles. La distribution est scindée en deux en son sommet, donnant alors naissance à deux sous-distributions monotones. Chaque sous-distribution peut alors être ajustée par une loi monotone. Comme chaque année, la médiane (qui sert à centrer les distributions) est positive, le seuil étudié (résultat nul) se situe toujours sur la partie gauche de la distribution. Seule la partie gauche de la distribution sert aux mesures. L’ajustement de la partie droite de la distribution est cependant réalisé pour confirmer l’allure de la distribution. C’est un facteur de robustesse de la méthode.

40

Dans l’étude empirique, l’ajustement de la distribution générale et l’ajustement des demi-distributions ont été menés. Les ajustements partiels fournissent de meilleurs résultats. Ils sont décrits dans la troisième partie.

3 - Mise en œuvre dans le contexte des entreprises françaises cotées

41

Cette partie présente la démarche empirique suivie pour estimer la loi de distribution des résultats publiés. C’est à partir de cet ajustement que les mesures d’irrégularité sont effectuées. Elles permettent de tester l’hypothèse sur les montants manipulés.

3.1 - Détermination empirique de la loi de distribution

42

L’étude est mise en œuvre auprès d’une population de 1 009 sociétés françaises cotées sur 13 ans, de 1992 à 2004 (soit 7 746 données en tenant compte des entrées et des sorties de côte durant la période). Les données sont tirées de la base internationale de Compustat, Global Vantage, qui recense toutes les entreprises cotées. La variable étudiée est le résultat net (IB dans la base Global) car c’est la variable de performance sur laquelle les entreprises communiquent le plus (Mard 2004). Elle est mise à l’échelle par un indicateur de taille : l’actif total. Le tableau 1 présente les principales caractéristiques annuelles de la variable d’étude.

Tableau 1 - Caractéristiques des données extraites de la baseTableau 1
43

Une certaine stabilité de la performance économique moyenne des entreprises entre 1992 et 1995 est constatée, suivie d’une amélioration entre 1996 et 1999, puis par une dégradation dès 2000 qui s’accentue très fortement entre 2001 et 2003. Hormis en 2003, la moyenne est toujours positive. Cela signifie que sur les distributions annuelles des résultats qui font l’objet de notre étude, le sommet de la courbe est toujours situé à droite du résultat nul. Autrement dit, le seuil se situe presque toujours sur la partie gauche de la distribution, à l’exception de 2001 et de 2003 où il se situe très proche du sommet de la distribution (la moyenne est quasiment égale à zéro).

44

La médiane évolue sensiblement de la même manière que la moyenne. Mais elle présente un caractère plus « lisse » notamment durant les années pour lesquelles l’écart type est élevé. En effet, par construction, la médiane est beaucoup moins sensible aux valeurs extrêmes qui altèrent écart type et moyenne.

45

Il apparaît une augmentation assez régulière de l’écart type entre 1992 et 2002. Il apparaît un « pic » en 1999 dû à une seule variable positive extrême (Systran). Après avoir atteint un maximum en 2002, il se stabilise à un niveau plus modéré. La période 2000 à 2003 correspond à une phase économique d’incertitudes et de turbulences qui explique la faiblesse de la performance moyenne et la progression de l’écart type.

3.1.1 - Construction de la distribution théorique

46

La figure 10 ci-dessous représente les distributions agrégées des résultats de notre population sur les 13 années. Dans le premier cas (cadre de haut), l’agrégation porte sur les résultats bruts et l’irrégularité autour du résultat nul est, comme prévu, extrêmement prononcée.

47

Dans le second cas (cadre du bas), la distribution agrégée est construite à partir des distributions annuelles centrées et réduites. Bien que cette distribution soit construite à partir de l’agrégation des résultats publiés, donc potentiellement manipulés, il apparaît que les zones inquiétantes se superposent chaque année de manière décalée les unes par rapport aux autres puisque le résultat nul, après centrage et réduction par une médiane et un écart type différent chaque année, n’est plus le point invariant de la distribution. Autrement dit, comme prévu, en augmentant le nombre d’années d’observations, la zone inquiétante tend à s’estomper (voir figure 10). C’est cette seconde distribution agrégée qui sert de base à l’ajustement de la loi mathématique.

Figure 10 - Agrégation des distributions annuelles des résultats des entreprises françaises (1992 à 2004)Figure 10

3.1.2 - Ajustement de la distribution par une loi mathématique

48

Les ajustements réalisés à l’aide du logiciel Best Fit [8][8] Ce logiciel, édité par la société Palisade, est depuis... sur la distribution dans son ensemble conduisent à retenir la loi Logistique comme meilleur ajusteur (classée en première position selon les trois tests [9][9] Ceux pour lesquels les distances du Chi2, de Kolmogorov-Smirnov,..., la distance du test Kolmogorov-Smirnov est de 0,097 contre 0,170 pour la loi Normale, mais la p-value de ce test proche de 0). C’est l’aspect plus « pointue » de la loi Logistique qui explique ce résultat.

49

Les meilleurs ajustements sont réalisés sur les demi-distributions ; partie ascendante d’une part, et partie descendante d’autre part [10][10] La distribution étant centrée sur la médiane, les deux.... La même loi Pareto2 [11][11] La loi de distribution de Pareto2 est dérivée de la... (la distance du test Kolmogorov-Smirnov est de 0,045 pour la demi-distribution gauche, et de 0,011 pour la demi-distribution droite, soit deux à dix fois mieux que la loi Logistique, et quatre à vingt fois mieux que la loi Normale) est proposée par le logiciel pour ajuster les deux demi-distributions (partie droite comme partie gauche [12][12] La loi Pareto2 n’étant définie que pour des valeurs...). On peut constater graphiquement (figure 11) la relative qualité des ajustements proposés.

Figure 11 - Ajustement des deux demi-distributionsFigure 11
50

Si les ajustements sont loin d’être parfaits (la meilleure p-value aux tests d’ajustement est obtenue avec un test du Chi-deux sur la demi-distribution droite ; elle n’est que de 0,388), comme on peut l’observer visuellement, la qualité de la démarche paramétrique est à comparer aux méthodologies alternatives que sont les mesures non paramétriques. Ces méthodologies sont si sensibles aux largeurs d’intervalles retenus que les résultats d’études publiées peuvent être inversés en modifiant cette largeur (Glaum et al. 2004).

51

En conclusion, les ajustements des distributions empiriques centrées réduites et agrégées sur 13 années permettent de proposer d’ajuster au mieux la demi-distribution des résultats annuels publiés par les entreprises françaises par une loi Pareto2.

3.1.3 - Contrôle auprès de populations européennes

52

Pour conforter l’étude, le même ajustement a été réalisé sur un échantillon de près de 1 000 sociétés cotées allemandes (soit 6 879 observations issues de la base Global Vantage) et près de 2000 sociétés cotées britanniques (soit 14 028 observations issues de la base Global Vantage) sur une période proche (de 1995 à 2004). La même loi fournit le meilleur ajustement. Ce résultat conforte le postulat que la distribution des résultats publiés par les entreprises suit une loi économique, et que seuls les paramètres annuels de ces distributions fluctuent d’une année sur l’autre, ou d’un pays à l’autre. Ce résultat est un facteur de robustesse de la démarche proposée. Il ouvre également de nombreuses perspectives de recherches internationales et comparatives.

3.2 - Estimation des montants manipulés

53

L’intérêt d’adopter une démarche paramétrique de mesure des irrégularités est qu’il devient possible de mesurer une irrégularité en faisant varier la largeur de l’intervalle [13][13] L’intérêt de la démarche doit être mis en relation.... Des mesures sont ainsi réalisables même sur de grandes largeurs. Autrement dit, il devient possible de mesurer, non plus uniquement la « hauteur » de l’irrégularité, mais également sa « largeur ».

54

La démarche paramétrique permet alors de mesurer deux nouvelles dimensions qui n’apparaissaient pas jusqu’alors dans les études utilisant des démarches non paramétriques : (1) le nombre total d’entreprises ayant manipulé le résultat pour publier un faible bénéfice, et (2) le montant moyen manipulé pour éviter de publier une petite perte.

3.2.1 - Détermination du nombre d’entreprises manipulatrices

55

La détermination du nombre total de sociétés manipulatrices est réalisée en deux temps. Dans un premier temps, une « largeur » maximale de l’irrégularité est mesurée. Ainsi, chaque année, l’irrégularité est mesurée pour une largeur de classe minimale de 0,005. Lorsque les classes sont plus étroites, des phénomènes aberrants peuvent être constatés (classe vide ou presque vide). Puis la largeur est augmentée (voir figure 12).

Figure 12 - Significativité et largeur de l’irrégularitéFigure 12
56

L’irrégularité (« hauteur ») est mesurée. L’irrégularité maximale correspond au plus grand nombre identifiable de sociétés manipulatrices. À titre d’exemple, le tableau des irrégularités mesurées pour la seule année 1992 est reproduit ci-dessous (voir tableau 2).

Tableau 2 - Irrégularités à droite du résultat nul mesurées en fonction de la largeur de l’intervalle pour l’année 1992 chez les entreprises françaises cotéesTableau 2
57

En 1992, l’irrégularité à droite du seuil « résultat nul » est positive. Sa valeur relative diminue lorsque l’on élargit l’intervalle de mesure, ce qui signifie que le surnombre est essentiellement situé à proximité immédiate du seuil (irrégularité plus « haute » et moins « large »). L’irrégularité maximum en valeur absolue est atteinte pour une largeur de 0,007 (soit près de 0,7 % du total actif [14][14] Plus précisément, puisque nous étudions la distribution...) avec un surnombre de 23,7 entreprises, soit 23,7 / 291 = 8,14 % de l’échantillon. Les mêmes calculs ont été réalisés chaque année (voir tableau 3 et figure 13).

Tableau 3 - Nombre total de sociétés françaises cotées irrégulièrement bénéficiaires de 1992 à 2004Tableau 3
Figure 13 - Nombre total de sociétés françaises cotées irrégulièrement bénéficiaires de 1992 à 2004Figure 13
58

L’année 2003 est une année atypique. Le seuil est relativement proche du sommet de la distribution, ce qui interdit d’effectuer des mesures de l’irrégularité avec une largeur supérieure à 0,018 et ce qui influence la qualité de l’ajustement de la loi de distribution cette année-là. La mesure effectuée en 2003 doit donc être relativisée. Deux constats s’imposent alors :

  1. L’irrégularité à droite du seuil est toujours positive, confirmant l’existence de manipulations comptables par certaines sociétés pour publier de faibles bénéfices. Ce premier constat est effectué indépendamment du type de manipulation : le montant manipulé peut être à la hausse, à la baisse, de faible ou de grande ampleur.

  2. Le nombre de sociétés publiant irrégulièrement un résultat faiblement positif est compris chaque année entre 5 et 10 % de la population. Cette proportion, relativement stable dans le temps, tend cependant à diminuer au cours de la période étudiée.

3.2.2 - Détermination du nombre d’entreprises déficitaires manquantes

59

À la question : « d’où viennent les sociétés manipulatrices qui publient des petits bénéfices ? », la réponse généralement présumée est que ce sont celles qui (ou plus précisément que parmi elles un grand nombre) auraient publié de petites pertes sans manipulation. Cette présomption de manipulation marginale (le montant du résultat géré pour éviter d’être en dessous du seuil serait généralement faible) est visuellement discutable (voir figure 14). L’irrégularité à droite du résultat nul semble (presque) toujours plus « haute » et moins « large » que l’irrégularité à gauche (voir figure 14). L’ajustement de la moitié gauche est réalisé sur des valeurs positives, mais le graphe est inversé pour en faciliter la compréhension. Mais jusqu’alors, les méthodes non paramétriques de mesure des irrégularités ne permettaient pas de tester cette hypothèse.

Figure 14 - Exemple de demi-distribution des résultats annuels (année 1997)Figure 14
60

Pour confirmer l’hypothèse de manipulation marginale (Burgstahler et Dichev 1997 ; Burgstahler et Eames 2003 ; Das et Zhang 2003 ; Dechow et al. 2003 ; Leuz et al. 2003 ; McNichols 2003 ; Coppens et Peek 2005 ; Beaver et al. 2007), il faudrait que le nombre d’entreprises « manquantes » immédiatement à gauche du seuil soit approximativement identique au nombre d’entreprises en surnombre immédiatement à droite du seuil. Si ce n’est pas le cas, une deuxième hypothèse alternative peut être testée : si les entreprises en surnombre à droite du seuil évitent de publier une perte (quel que soit le montant manipulé), alors le nombre d’entreprises « manquantes » à gauche du seuil doit être approximativement égal au nombre d’entreprises en surnombre immédiatement à droite du seuil. Si ce n’est pas le cas, alors l’hypothèse de la manipulation pour éviter les pertes ne suffit pas à expliquer le surnombre d’entreprises faiblement bénéficiaires.

61

Ainsi, pour évaluer les montants manipulés, l’irrégularité à gauche du seuil est mesurée en élargissant la classe d’observation, jusqu’à ce que le nombre d’entreprises manquantes soit égal au surnombre trouvé à droite. La largeur alors obtenue permet d’estimer le montant maximal manipulé si les entreprises évitent de publier un résultat inférieur au seuil. Ces mesures sont effectuées chaque année de 1992 à 2004 dans le cadre de l’échantillon de sociétés françaises cotées. À titre d’exemple, le tableau des irrégularités mesurées pour la seule année 1992 est reproduit (voir tableau 4).

Tableau 4 - Irrégularités à gauche du résultat nul mesurées en fonction de la largeur de l’intervalle pour l’année 1992 chez les sociétés françaises cotéesTableau 4
62

En 1992, conformément aux études réalisées jusqu’alors, le nombre de sociétés publiant une petite perte est toujours inférieur au nombre attendu. Autrement dit, l’irrégularité est négative (il « manque » des sociétés déficitaires). Elle ne dépasse cependant jamais [15][15] Les mesures n’ont pas été menées sur des largeurs supérieures... –17 % en valeur relative. Le nombre d’entreprises « manquantes » maximal est de 10,92, et demeure très en deçà de l’irrégularité mesurée cette année-là à droite du seuil (23,7). Autrement dit, la présomption de manipulation marginale du résultat permettant à des entreprises qui ratent de peu le seuil de publier un bénéfice malgré tout, n’est pas justifiable en 1992. Qui plus est, si les 23 à 24 entreprises en surnombre au-dessus du seuil du résultat nul, manipulent leur résultat, rien ne permet d’affirmer qu’elles évitent toutes de publier une perte. Les mêmes calculs ont été réalisés chaque année sur notre échantillon (voir tableau 5 et figure 15).

Figure 15 - Représentation graphique du nombre total de sociétés françaises irrégulièrement situées à gauche du seuil résultat nul de 1992 à 2004Figure 15
Tableau 5 - Nombre total de sociétés françaises cotées irrégulièrement situées à gauche du seuil résultat nul de 1992 à 2004Tableau 5
63

Les mesures des irrégularités à gauche du seuil font apparaître les constats suivants :

  1. L’irrégularité à gauche du seuil est toujours négative, confirmant ainsi les résultats des études antérieures (les sociétés évitent de publier de petites pertes).

  2. L’irrégularité à gauche du seuil est généralement moins prononcée en « hauteur » que l’irrégularité à droite du seuil. Ce résultat confirme l’analyse visuelle qui peut être faite des distributions.

  3. La proportion de sociétés « manquantes » parmi les sociétés publiant une perte est comprise chaque année entre 0 et 8 % de la population. Cette proportion tend à augmenter au cours de la période étudiée.

3.2.3 - Remise en cause de la présomption de manipulation marginale

64

La comparaison entre les mesures d’irrégularités droite (paragraphe 3.2.1.) et gauche (paragraphe 3.2.2.) montre qu’à l’exception des années 2001 et 2004, le nombre de sociétés faiblement bénéficiaires « en trop » est toujours supérieur au nombre de sociétés faiblement déficitaires « manquantes ». Autrement dit, les résultats de notre étude montrent que la présomption de manipulation marginale pour éviter de publier une faible perte ne peut à elle seule expliquer la totalité de l’irrégularité constatée. D’autres explications sont à chercher.

65

D’une part, si les entreprises faiblement bénéficiaires en surnombre ont évité de publier une perte, alors la manipulation ne porte pas nécessairement sur un faible montant. D’autre part, ces entreprises n’évitent pas nécessairement une perte. L’étude conduit ainsi à penser que des entreprises très bénéficiaires (situées sur la partie droite de la distribution) manipulent à la baisse leur résultat tout en évitant le seuil psychologique des chiffres négatifs. La figure 16 récapitule ces résultats.

Figure 16 - Synthèse des résultats concernant la présomption de manipulation marginaleFigure 16
66

Enfin, pour étudier l’évolution sur la période étudiée des irrégularités, pour chaque année, les irrégularités à gauche sont comparées graphiquement (sur la figure 17) au nombre total d’entreprises publiant irrégulièrement un faible bénéfice. Des courbes de tendance ont été ajoutées.

Figure 17 - Comparaison graphique du nombre total de sociétés cotées françaises publiant irrégulièrement un faible bénéfice, et comparaison avec le nombre de sociétés déficitaires manquantesFigure 17
67

La comparaison graphique de l’évolution du nombre d’entreprises irrégulièrement en surnombre à droite du seuil avec l’évolution du nombre d’entreprises manquantes à gauche du seuil permet de constater que, au cours de la période étudiée, la différence entre les deux irrégularités tend à diminuer. Autrement dit, si au début des années 1990 la présomption de manipulation marginale ne peut expliquer la présence irrégulière d’entreprises faiblement bénéficiaires, cette explication semble plus crédible à partir des années 2000. Plus précisément, un double phénomène est observé : (1) Le nombre d’entreprises publiant irrégulièrement un faible bénéfice, donc présumées manipulatrices, tend à diminuer durant la période étudiée. Par ailleurs, (2) le nombre d’entreprises faiblement déficitaires « manquantes » augmente durant la période. Autrement dit, si le nombre d’entreprises présumées manipulatrices tend à diminuer, et si ces entreprises évitent de publier une perte, alors les montants manipulés tendent eux-mêmes à diminuer [16][16] L’évolution constatée est indépendante de l’accroissement....

4 - Conclusion

68

Le modèle capitaliste qui s’est imposé à l’économie mondiale repose sur un pilier fondamental : la confiance. Sans confiance dans les informations fournies par les entreprises, les investisseurs ne peuvent prendre les décisions nécessaires à une allocation optimale des ressources, remettant en cause le mécanisme de régulation par le marché. L’information comptable joue un rôle clef dans ce mécanisme comme l’ont rappelé les scandales financiers retentissants du début du millénaire, et dans une certaine mesure, la crise financière actuelle.

69

Les états financiers, établis par les dirigeants à l’attention des actionnaires, mais aussi des autres parties prenantes que sont l’État, les créanciers, les fournisseurs ou les salariés, sont au cœur d’enjeux contradictoires et les motivations pour les manipuler ne manquent pas. L’intérêt commun est de limiter ces opportunités, et c’est le rôle alloué aux autorités de contrôle, normalisateurs et auditeurs. Le courant de recherche qui s’est développé autour du thème de la gestion du résultat soulève des problématiques qui dépassent donc largement le seul intérêt des chercheurs académiques.

70

Dans ce contexte, le courant de recherche sur les manipulations comptables pour atteindre ou dépasser des seuils qui s’est développé depuis une dizaine d’années et a généré un nombre significatif de publications dans les revues internationales, a été considéré jusqu’à présent comme un sous-domaine de recherche, sinon anecdotique, du moins satellitaire. À titre d’exemple, dans leur revue de littérature sur la gestion du résultat, Healy et Whalen (1999) ne lui consacrent qu’une demi-page après avoir consacré douze pages à décrire les motivations à la gestion du résultat. Atteindre un seuil comptable ne serait qu’une motivation parmi beaucoup d’autres, et les montants manipulés dans ce contexte seraient marginaux. De plus, ce courant de recherche a suscité des discussions (Dechow et al. 2003 ; McNichols 2003 ; Durtschi et Easton 2005) qui soulignent les limites méthodologiques employées pour mesurer les irrégularités de distribution.

71

Dans ce contexte, l’étude apporte un certain nombre de réponses qui conduisent à revisiter les postulats souvent implicites qui pèsent sur les travaux sur les seuils.

72

Tout d’abord, l’étude apporte des réponses aux doutes méthodologiques. En proposant une démarche paramétrique de mesure des irrégularités de distribution des résultats publiés, l’étude ouvre de nouvelles perspectives de recherche sur le sujet. Elle permet de revisiter les résultats des études précédentes et d’étudier de nouvelles dimensions encore jamais abordées. La méthode elle-même est sans doute perfectible et appelle de nouveaux développements techniques. En effet, si la démarche paramétrique menée dans cette étude permet d’aboutir à un résultat qui confirme les observations visuelles, il n’en demeure pas moins que sa principale limite est la dépendance des mesures au choix de la loi mathématique retenue. La démarche d’ajustement empirique des distributions centrées réduites est une tentative originale de détermination de cette loi. Mais l’ajustement des demi-distributions par une loi Pareto2 est loin d’être parfait ce qui se traduit par une pvalue aux tests d’ajustement de 0,388 seulement. L’étude appelle des développements mathématiques afin d’améliorer la compréhension des distributions de résultats.

73

Par ailleurs, les apports managériaux se lisent au travers des résultats empiriques. L’étude apporte un élément de compréhension au phénomène de surnombre d’entreprises faiblement bénéficiaires observées. Il est ainsi intéressant de souligner que, en France, (1) parmi les entreprises publiant des résultats faiblement bénéficiaires, les entreprises en surnombre représentent chaque année 5 à 10 % de la population totale des entreprises cotées. (2) Cette proportion est relativement stable chaque année mais tend à diminuer depuis la fin des années 1990. (3) Les montants manipulés pour éviter le seuil sont en forte diminution depuis la fin des années 1990. Enfin, (4) l’étude montre que les sociétés ayant manipulé leurs comptes pour publier un faible bénéfice n’ont pas toutes effectué des manipulations marginales. Certaines peuvent effectuer des manipulations de grande ampleur, notamment (mais pas uniquement) pour éviter de publier de fortes pertes. En conséquence, l’étude conduit à reconsidérer la présomption de manipulation marginale pour éviter un seuil (Burgstahler et Dichev 1997 ; Burgstahler et Eames 2003 ; Das et Zhang 2003 ; Dechow et al. 2003 ; Leuz et al. 2003 ; McNichols 2003 ; Coppens et Peek 2005 ; Beaver et al. 2007) car elle ne peut expliquer la totalité des irrégularités observées.

74

En conclusion, l’étude enrichit la connaissance comptable en apportant des réponses à des questions d’actualité, et en ouvrant des perspectives nouvelles de recherche. Elle interroge notamment le chercheur sur la place accordée à l’étude des seuils comptables. Si les montants manipulés ne sont pas nécessairement marginaux, cela signifie que les mécanismes qui poussent les dirigeants à atteindre ou dépasser un seuil sont des motivations puissantes. Ils méritent toute l’attention des chercheurs et des autorités de régulation comptable dans l’objectif de conforter la confiance dont les utilisateurs des états financiers ont besoin.


Bibliographie

  • Beaver, W.H., McNichols, M.F., Nelson, K.K. (2007). An alternative interpretation of the discontinuity in earnings distributions. Review of Accounting Studies 12 (4) : 525-556.
  • Bisson, B., Dumontier, P., Janin R. (2004). Les entreprises non cotées manipulent-elles leurs résultats ? 3e colloque international : gouvernance et juricomptabilité, Montréal.
  • Brown, L.D. (2001). A temporal analysis of earnings surprises : profit versus losses. Journal of Accounting Research 39 (2) : 221-241.
  • Brown, L.D., Caylor, M.L. (2005). A temporal analysis of earnings management thresholds : propensities and valuation consequences. The Accounting Review 80 (2) : 423-440.
  • Burgstahler, D., Dichev, I. (1997). Earnings management to avoid earnings decreases and losses. Journal of Accounting and Economics 24 (1) : 99-126.
  • Burgstahler, D.C., Eames, M.J. (2003). Earnings management to avoid losses and earnings decrease : are analysts fooled ? Contemporary Accounting Research 20 (2) : 253-294.
  • Burgstahler, D.C., Hail L., Leuz, C. (2006). The importance of reporting incentives : earnings management in european private and public firms. The Accounting Review 81 (5) : 983-1016.
  • Chalayer-Rouchon, S., Degeorge, F., Le Nadant, A.-L. (2001). Faire de la recherche en comptabilité financière. Paris : Vuibert : 235-249.
  • Chen, S., Lin, B.-X., Wang, Y., Wu, L. (2008). The frequency and magnitude of earnings management in China. Applied Economics 40 (24) : 3213-3225.
  • Coppens, L., Peek, E. (2005). An analysis of earnings management by european private firms. Journal of International Accounting, Auditing and Taxation 14 (1) : 1-17.
  • Das, S., Zhang, H. (2003). Rounding-up in reported EPS, behavioral thresholds, and earnings management. Journal of Accounting and Economics 35 (1) : 31-50.
  • Daske, H., Gebhardt, G., McLeay, S. (2003). The distribution of earnings relative to targets in the European Union. Accounting and Business Research 36 (3) : 137-168.
  • Dechow, P.M., Richardson, S.A., Tuna, I. (2003). Why are earnings kinky ? An examination of the earnings management explanation. Review of Accounting Studies 8 (2/3) : 355-384.
  • Degeorge, F., Patel, J., Zeckhauser, R. (1999). Earnings management to exceed thresholds. The Journal of Business 72 (1) : 1-33.
  • Durtschi, C., Easton, P. (2005). Earnings management ? The shapes of the frequency distributions of earnings metrics are not evidence ipso facto. Journal of Accounting Research 43 (4) : 557-593.
  • Glaum, M., Lichtblau, K., Lindemann J. (2004). The extent of earnings management in the US & Germany. Journal of International Accounting Research 3 (2) : 45-77.
  • Healy, P.M., Whalen, J.-M. (1999). A review of the earnings management literature and its implications for standard setting. Accounting Horizons 13 (4) : 365-383.
  • Holland, D., Ramsey, A. (2003). Do australian companies manage earnings to meet simple earnings benchmarks ? Accounting and Finance 43 : 41-62.
  • Jeanjean, T. (1999). La théorie positive de la comptabilité : une revue des critiques. Cahier 99-12 du CEREG, Université Paris-Dauphine.
  • Jeanjean, T. (2001). Incitations et contraintes à la gestion du résultat. Comptabilité – Contrôle – Audit 7 (1) : 61-76.
  • Kasznik, R. (1999). On the association between voluntary disclosure and earnings management. Journal of Accounting Research 37 (1) : 57-81.
  • Leuz, C., Nanda, D., Wysocki, P.D. (2003). Earnings management and investor protection : An international comparison. Journal of Financial Economics 69 (3) : 505-527.
  • Mard, Y. (2004). Les sociétés françaises cotées gèrent-elles leurs chiffres comptables afin d’éviter les pertes et les baisses de résultats ? Comptabilité – Contrôle – Audit 10 (2) : 73-98.
  • McNichols, M.F. (2003). Discussion of why are earnings kinky ? An examination of the earnings management explanation. Review of Accounting Studies 8 (2-3) : 385-391.
  • Roychowdhury, S. (2006). Earnings management through real activities manipulation. Journal of Accounting and Economics 42 (3) : 335-370.
  • Vidal, O. (2007). La gestion du résultat pour atteindre des seuils : un cadre d’analyse. 28e congrès annuel de l’Association Francophone de Comptabilité, Poitiers.
  • Vidal, O. (2008). Gestion du résultat et seuils comptables : impact des choix méthodologiques et proposition d’un instrument de mesure des irrégularités. Doctorat en sciences de gestion, Paris : École des Hautes Études Commerciales de Paris.

Notes

[1]

En anglais : « Earnings Manipulations to avoid small losses ».

[2]

En anglais : « Earnings Manipulations to avoid losses ».

[3]

Cet article est parfois cité à tort par certains auteurs qui l’assimilent aux articles présumant une faible manipulation.

[4]

On parle aussi de « pas », de « classe d’observation » ou de « classe d’effectifs ». En anglais, les articles utilisent les expressions « interval width », « bin width » ou « interval range ».

[5]

Appelées aussi « ruptures » ou « pics ».

[6]

« Smooth » en anglais.

[7]

Les données dites « brutes » correspondent aux résultats mis à l’échelle par un indicateur de taille (Total actif) mais non centrés-réduits. Il ne faut pas confondre la « réduction » (ou mise à l’échelle) par un indicateur de taille, de la réduction par l’écart type. Ces deux réductions sont faites successivement.

[8]

Ce logiciel, édité par la société Palisade, est depuis 2008 totalement intégré dans le logiciel @risk et n’est plus disponible séparément. Il comprend un catalogue de 63 lois.

[9]

Ceux pour lesquels les distances du Chi2, de Kolmogorov-Smirnov, et de Anderson-Darling sont les plus faibles.

[10]

La distribution étant centrée sur la médiane, les deux demi-distributions comprennent donc exactement le même nombre d’effectifs.

[11]

La loi de distribution de Pareto2 est dérivée de la loi plus connue de Pareto, appelée aussi loi des 20/80. Son allure est similaire, mais moins « creusée ».

[12]

La loi Pareto2 n’étant définie que pour des valeurs positives, la partie négative (partie gauche de la courbe) de la distribution a été transposée (en multipliant les valeurs par –1) avant d’être ajustée.

[13]

L’intérêt de la démarche doit être mis en relation avec les mesures effectuées jusqu’alors dans la littérature. L’estimation par une loi Pareto2 proposée permet de répondre au vagabondage méthodologique qui conduit les auteurs à estimer les effectifs théoriques soit par symétrie, soit par inter(extra) polation locale (généralement linéaires, parfois exponentielles, rarement logarithmiques) réalisées sur des largeurs d’intervalle ad’hoc.

[14]

Plus précisément, puisque nous étudions la distribution de la variable Résultat mise à l’échelle par (Actif Total – Résultat), si R/(A–R)=0,007 alors R=(0,007/1,007) x A soit R=0,00695 x A.

[15]

Les mesures n’ont pas été menées sur des largeurs supérieures à 0,1 (soit un résultat supérieur à 10 % du total actif).

[16]

L’évolution constatée est indépendante de l’accroissement de la volatilité des résultats observés à partir de 1999. Tout d’abord, observons que la volatilité est maximale en 1999 alors que l’irrégularité gauche est minimum. Plus techniquement, l’allure de la loi théorique de distribution est ajustée à partir de distributions centrées réduites (donc la volatilité est neutralisée). Ensuite, chaque année, la loi utilisée pour mesurer les irrégularités dépend des paramètres annuels. L’instrument de mesure intègre donc le fait que la volatilité puisse évoluer et le neutralise.

Résumé

Français

De nombreuses études internationales se sont intéressées aux motivations qui conduisent les entreprises à publier des résultats faiblement supérieurs à certains seuils, comme le résultat nul. Ces études se fondent sur des mesures « non paramétriques » qui présentent des limites méthodologiques. La seule hypothèse est que l’allure de la distribution est supposée lisse en absence de manipulation.
Cette étude tente de déterminer une loi mathématique de distribution des résultats afin de mesurer les effectifs attendus (et donc les irrégularités) de manière « paramétrique ». Une telle approche permet (1) de mieux mesurer les irrégularités autour des seuils, (2) de mieux comparer les seuils comptables dans le temps et dans l’espace, et (3) d’évaluer les montants manipulés.
Le principal résultat empirique de l’étude est de constater que, contrairement au postulat généralement admis, si les entreprises faiblement bénéficiaires en surnombre évitent de publier une perte, alors cet évitement ne concerne pas uniquement des entreprises qui auraient été faiblement déficitaires en absence de manipulation. Les motivations qui poussent les entreprises à atteindre ou dépasser un seuil comptable méritent donc une attention accrue de la part des chercheurs en comptabilité.

Mots-clés

  • gestion du résultat
  • seuil comptable
  • loi de distribution des résultats
  • mesure paramétrique des irrégularités de distribution
  • évitement des petites pertes

English

Earnings management to avoid losses: are the amounts significant?Threshold studies in accounting use non-parametric methods to measure irregularities around the zero earning threshold. More precisely, the discontinuity is measured by the difference between an observed population and a theoretical population locally estimated by interpolation of adjacent intervals. The sole hypothesis is that the distribution is supposed to be smooth in the absence of earnings management.
The originality of this study lies in its identification of a mathematical function for the distributions of earnings in order to measure the theoretical population in a parametric way. Such an approach allows to better measure discontinuities around thresholds, to better compare thresholds in space and over time, and to evaluate the amounts manipulated.
The principal empirical result of this study is to observe that, if the irregular small profit firms avoid losses, the amounts manipulated are not necessary small. The study questions the postulate of “marginal manipulation” in earnings management to avoid thresholds.

Keywords

  • earnings management
  • accounting threshold
  • earnings distribution function
  • parametric earnings distribution discontinuity measure
  • small losses avoidance

Plan de l'article

  1. Introduction
  2. 1 - Les études non paramétriques sur les seuils
    1. 1.1 - Le postulat de manipulation marginale
    2. 1.2 - Les limites méthodologiques des mesures non paramétriques
  3. 2 - Une démarche paramétrique pour estimer les montants manipulés
    1. 2.1 - D’une distribution empirique à une loi mathématique
      1. 2.1.1 - Hypothèses
      2. 2.1.2 - Nature de la loi de distribution
      3. 2.1.3 - Agrégation des distributions
      4. 2.1.4 - Traitement de la zone inquiétante
    2. 2.2 - Ajustement de la loi
  4. 3 - Mise en œuvre dans le contexte des entreprises françaises cotées
    1. 3.1 - Détermination empirique de la loi de distribution
      1. 3.1.1 - Construction de la distribution théorique
      2. 3.1.2 - Ajustement de la distribution par une loi mathématique
      3. 3.1.3 - Contrôle auprès de populations européennes
    2. 3.2 - Estimation des montants manipulés
      1. 3.2.1 - Détermination du nombre d’entreprises manipulatrices
      2. 3.2.2 - Détermination du nombre d’entreprises déficitaires manquantes
      3. 3.2.3 - Remise en cause de la présomption de manipulation marginale
  5. 4 - Conclusion

Pour citer cet article

Vidal Olivier, « Gestion du résultat pour éviter de publier une perte : les montants manipulés sont-ils marginaux ? », Comptabilité - Contrôle - Audit, 3/2010 (Tome 16), p. 11-39.

URL : http://www.cairn.info/revue-comptabilite-controle-audit-2010-3-page-11.htm
DOI : 10.3917/cca.163.0011


Article précédent Pages 11 - 39 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback