Accueil Revues Revue Numéro Article

Comptabilité - Contrôle - Audit

2005/1 (Tome 11)


ALERTES EMAIL - REVUE Comptabilité - Contrôle - Audit

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 23 - 38 Article suivant

Introduction

1

Le phénomène de la surcharge d’information est d’actualité dans ce monde où la disponibilité de nouvelles technologies de l’information rend la production d’information de plus en plus rapide et de moins en moins coûteuse. La conséquence observable de ceci est que les gestionnaires sont actuellement « submergés » de données. Le domaine financier et comptable n’échappe pas à ce phénomène. Depuis la fin des années 1960, les entreprises sont tenues de divulguer de plus en plus d’information financière. Cette obligation est justifiée, selon le Financial Accounting Standards Board (FASB), par l’hypothèse que la présentation d’une quantité plus importante de renseignements facilite la prise de décision (FASB, 1976). Elle résulte aussi de la réaction des autorités législatives et boursières à la suite des récents scandales de malversations financières impliquant Enron, WorldCom et d’autres entreprises.

2

Cette surabondance de divulgations comptables et financières a soulevé des questions quant à la capacité des utilisateurs à assimiler cette importante quantité de données. Le phénomène de la surcharge d’information a été invoqué ; en effet, il a été démontré en psychologie que l’abondance de données peut nuire à la prise de décision (voir entre autres Schroder, Driver et Streufert, 1967) [1][1] Snowball (1979) fait une revue détaillée des recherches.... La théorie de la rationalité limitée développée par Simon (1987) pourrait expliquer ce phénomène. Selon cette théorie, les décisions prises par l’être humain ne sont pas optimales à cause, entre autres, de la limitation de sa capacité à transformer l’information. On commence à s’inquiéter de la surcharge d’information financière tant du côté des chercheurs que des professionnels comptables aux États-Unis (Groves, 1994 ; Cook et Sutton, 1995), au Royaume-Uni (auteur anonyme dans Management Accounting, 1995) et au Canada [monographie commandée par le Comité des normes comptables de l’ICCA sur l’objectif du rapport annuel aux actionnaires pour répondre notamment aux inquiétudes concernant la surcharge d’information (ICCA, 1992, note 48, p. 246)].

3

Ainsi, Groves (1994) s’alarmait de l’augmentation constante des divulgations requises (mesurées par le nombre moyen de pages du rapport annuel aux actionnaires) depuis 1972. Selon ses calculs, ce nombre de pages a augmenté à un taux annuel composé de 3,1 %. Si cette tendance se maintient, le nombre de pages du rapport annuel en l’an 2012, selon les projections de Groves, serait 234 % plus élevé que celui de 1972 (83 % plus élevé que celui de 1992). Bien que le rapport annuel aux actionnaires contienne à la fois des données narratives et des données quantitatives, ces dernières ont aussi augmenté.

4

L’objectif de la présente étude est d’analyser si la surabondance des données financières quantitatives fournies aux utilisateurs par l’intermédiaire des rapports financiers influence la qualité de la prédiction faite par ces utilisateurs. Nous définissons la qualité de la prédiction comme étant l’exactitude de la prédiction et l’optimalité de la prédiction (la comparaison de la performance prédictive de l’être humain par rapport à celle d’un modèle statistique). La principale contribution de l’étude est la précision des caractéristiques informationnelles des données disponibles, qui sont la pertinence et la redondance. Nous y concevons et testons des hypothèses sur l’influence de chacune de ces caractéristiques sur la qualité de la prédiction. Le présent document est structuré de la façon suivante : dans la section 1 sont décrites les études qui ont observé le phénomène de surcharge d’information dans une tâche financière. Nous formulons ensuite quatre hypothèses (2) sur, d’une part, la relation entre les données disponibles et les données pertinentes, redondantes et non pertinentes, et d’autre part, la relation entre chacune des variables énumérées précédemment et la qualité de la prédiction. La section 3 contient une description du plan de recherche. Elle est suivie d’une section (4) portant sur les résultats. Enfin, nous nous intéresserons aux conclusions et aux limites de la présente recherche.

1 - Le phénomène de surcharge d’information dans un contexte de prédiction financière

5

Schroder et al. (1967) ont développé un modèle qui relie la quantité d’information disponible au traitement de l’information par les humains. Ce modèle, appelé « modèle de la courbe en U inversé », prédit que lorsque l’information disponible augmente, le preneur de décision hausse d’abord son niveau de traitement de l’information, mais seulement jusqu’à un certain point optimal. Si la quantité d’information disponible continue d’augmenter et dépasse ce point optimal, le niveau de traitement de l’information cesse de croître et commence à diminuer : le preneur de décision fait alors face à ce qu’on appelle l’effet de surcharge d’information. Le niveau de traitement de l’information est défini comme étant la quantité de données effectivement utilisées lors de la prise de décision. Ce modèle a été appliqué dans le domaine financier et comptable afin de prédire l’influence de la quantité d’information disponible sur la qualité de la prédiction financière.

1.1 - Les études antérieures

6

Les études antérieures traitant de l’effet de la surcharge d’information dans un contexte financier et comptable se divisent en deux catégories : celles qui examinent l’effet de la quantité de données disponibles sur le niveau de traitement de l’information et celles qui testent directement l’influence de la surcharge d’information sur la qualité de la prédiction. Dans la première catégorie d’études, Shields (1980 et 1983) et Chewning et Harell (première partie, 1990) constatent une relation en forme de courbe en U inversé entre la quantité de données disponibles et la quantité de données effectivement utilisées ou traitées.

7

Les résultats constatés par les études qui entrent dans la deuxième catégorie ne sont pas toujours convergents. Ainsi, Snowball (1980) et Simnett (1996) n’ont constaté aucun changement significatif de la qualité de la prédiction à différents niveaux de charge d’information. En revanche, Casey (1980), Shields (1983), Iselin (1988 et 1993), Chewning et Harell (deuxième partie, 1990), Hwang et Lin (1999) et Gadenne et Iselin (2000) ont constaté une influence négative de la quantité d’information disponible sur la qualité de la prédiction. Cependant, à l’exception des résultats obtenus par Shields (1983), la relation entre la quantité de données disponibles et la qualité de la prédiction n’est pas en forme de courbe en U inversé, tel que prédit initialement par Schroder et al. (1967) : la qualité de la prédiction reste stable si on passe d’une quantité faible à moyenne de données disponibles et diminue si cette dernière continue à augmenter à un niveau élevé. Notons aussi que, selon certaines études, seuls certains types de données influencent de façon négative la qualité de la prédiction : les données de dimensions diverses ou répétitives selon Iselin (1988) et Hwang et Lin (1999) et les données non pertinentes selon Iselin (1993) et Gadenne et Iselin (2000).

1.2 - Les données redondantes

8

Selon Belkaoui (1984), une quantité élevée de données redondantes (données n’apportant aucune nouvelle information) peut nuire à la qualité de la prédiction. Les études antérieures traitant de la surcharge d’information n’ont pas identifié cette caractéristique des données et n’en ont pas tenu compte. Ces études classent plutôt les données disponibles en deux groupes : le groupe de données « utiles » à la prédiction et le groupe de l’ensemble des autres données, les seules à nuire à la qualité de la prédiction. Selon Iselin (1993) et Gadenne et Iselin (2000), les données du deuxième groupe sont non pertinentes, alors que pour Iselin (1988) et Hwang et Lin (1999), ce sont des données de dimensions diverses ou des données répétitives. Selon nos observations, une reclassification des données disponibles en trois catégories (la catégorie des données pertinentes, la catégorie des données redondantes et la catégorie des données non pertinentes) permet de dégager la tendance suivante : il semble que la présence des données redondantes soit associée systématiquement dans les études antérieures à la détérioration de la qualité de la prédiction.

2 - Les hypothèses

9

La figure 1 résume les hypothèses développées dans la présente étude.

Figure 1 - Relation entre la quantité d’information disponible et la qualité de la prédictionFigure 1
10

Les données dont disposent les décideurs sont classées en trois catégories correspondant aux caractéristiques suivantes : tout d’abord, les données pertinentes sont celles qui sont appropriées ou qui jouent un rôle distinctif dans le processus de décision ; ensuite, nous avons les données non pertinentes, qui ne sont pas du tout appropriées à la prise de décision ; enfin, entre ces deux catégories existe celle des données redondantes, données qui sont appropriées mais superflues. Ces dernières sont des données qui expriment sous une forme différente le même contenu informationnel que les données classées comme étant pertinentes (ainsi, les données définies comme étant pertinentes peuvent être remplacées par des données redondantes correspondantes). Ces caractéristiques des données disponibles peuvent être mesurées de façon objective à l’aide de techniques statistiques et de façon subjective par l’intermédiaire de la perception des preneurs de décision. Selon Iselin (1993) et Gadenne et Iselin (2000), ces deux mesures présentent une validité de convergence. Nous utilisons dans cette étude la mesure subjective, c’est-à-dire la mesure perceptuelle. Ainsi, nous prédisons que :

11

H1 : Plus la quantité de données dont dispose le décideur pour sa prédiction est grande, …

12

H1a :… plus il perçoit de données pertinentes.

13

H1b :… plus il perçoit de données redondantes.

14

Hc :… plus il perçoit de données non pertinentes.

15

Les données pertinentes ou perçues par les décideurs comme étant pertinentes ne nuisent pas à la qualité de la prédiction, quelle que soit la quantité disponible. Les études qui ont isolé l’effet des données pertinentes n’ont pas observé de détérioration de la qualité de la prédiction lorsqu’on a augmenté la quantité de ces données (Iselin, 1993 ; Simnett, 1996 ; Gadenne et Iselin, 2000). Par conséquent, nous prédisons que :

16

H2 : Lorsqu’on augmente la quantité de données perçues comme étant pertinentes par le décideur, la qualité de sa prédiction ne change pas.

17

Les données redondantes ont des effets positifs et négatifs sur le processus décisionnel selon Belkaoui (1984) et Gilliland et Schmitt (1993). Les effets positifs sont : (1) la limitation de la recherche d’information sans qu’il y ait une diminution substantielle de l’exactitude prédictive de la prédiction, (2) une attention sélective très élevée, (3) une simplification de la représentation mentale du problème à résoudre, prévenant ainsi la surcharge d’information, (4) une facilité de substitution des pièces d’information entre elles, et (5) une diminution de la non-fiabilité des pièces d’information en ayant des mesures multiples des mêmes variables. À l’inverse, les effets négatifs des données redondantes sont : (1) la difficulté de choisir entre des pièces d’information qui sont corrélées, (2) un gaspillage sur le plan de l’effort d’attention consacré aux pièces d’information qui ne sont pas marginalement prédictives, (3) la présence de pièces d’information trop nombreuses entraînant une confiance excessive en la prédiction prise, et (4) la difficulté d’apprentissage par la rétroaction de résultat lorsque les pièces d’information sont corrélées entre elles.

18

L’effet positif 5 ci-dessus est confirmé par les résultats empiriques d’études en vérification traitant de la révision séquentielle de la croyance (Ashton et Ashton, 1988). Les effets négatifs, quant à eux, sont confirmés empiriquement par Lindell et Stewart (1974) et Schmitt et Dudycha (1977) dans des études utilisant des tâches autres que des prédictions financières. Nous avons vu dans la section précédente que l’analyse des résultats des études antérieures à la lumière des caractéristiques des données disponibles semble suggérer que la quantité de données redondantes peut nuire à la qualité de la prédiction si on l’augmente au-delà d’un certain point jugé optimal, point à partir duquel la capacité cognitive limitée du décideur est dépassée. Concrètement, les données redondantes ne peuvent pas être analysées indépendamment des données pertinentes. En effet, une donnée n’est redondante que relativement à une autre donnée pertinente. Casey (1980), Shields (1983), Iselin (1988 et 1993), de même que Gadenne et Iselin (2000) constatent que la qualité de la prédiction reste stable si on passe d’une quantité faible à moyenne de données disponibles et commence seulement à se détériorer si cette dernière continue à augmenter à un niveau élevé. C’est pourquoi nous prédisons la relation suivante (voir aussi l’illustration de la figure 2 ci-dessous).

Figure 2 - Relation prédite entre la quantité de données pertinentes et redondantes et la qualité de la prédictionFigure 2
19

H3 : Au-delà d’un certain seuil, soit le passage d’une quantité moyenne à une quantité élevée, la quantité de données perçues comme étant pertinentes et redondantes par le décideur réduit la qualité de sa prédiction.

20

Enfin, les données perçues comme étant non pertinentes ne devraient pas influencer la qualité de la prédiction. Ces données semblent être mises de côté par le décideur dans son processus de décision et, par conséquent, n’affectent pas sa capacité cognitive. Aussi prédisons-nous que :

21

H4 : Lorsqu’on augmente la quantité de données perçues comme étant non pertinentes par le décideur, la qualité de sa prédiction ne change pas.

3 - Plan de recherche

22

Afin de tester les hypothèses énoncées dans la section précédente, l’auteur s’est livré à une expérience à laquelle ont participé 95 étudiants d’un programme de maîtrise professionnelle en administration. Les sujets, qui simulaient une prise de décision d’octroi d’un prêt commercial, ont lu six demandes de crédit qui contenaient, outre divers renseignements de base, des données financières réelles sur deux ans de six entreprises canadiennes de fabrication. La quantité de données disponibles a été modifiée de façon qu’elle soit faible, moyenne ou élevée, ce qui a donné lieu à trois versions des demandes de crédit. Chaque prêteur prévoyait la santé financière, en terme de défaillance financière ou non, des six entreprises emprunteuses. Les prêteurs inscrivaient ensuite sur une échelle de 100 points comment ils percevaient la quantité de données pertinentes, non pertinentes et redondantes contenues dans les données financières disponibles (c’est la mesure de nos variables intermédiaires). Ils répondaient enfin à des questions d’ordre général, démographique et technique qui ont été utilisées dans la présente étude comme variables de contrôle. Nous avons utilisé un plan d’expérience formel (true experimental design). Pour ce faire, les unités-tests, les participants ou sujets de l’étude, sont affectées de façon aléatoire aux traitements. L’expérience s’est déroulée dans des salles de classe et a duré une heure. Les sous-sections qui suivent décrivent les démarches qui furent nécessaires lors de la conception du questionnaire utilisé.

3.1 - Les données financières disponibles

23

Les données disponibles étaient constituées selon les trois niveaux de rapports financiers suivants :

  1. Niveau faible : les douze ratios financiers divulgués annuellement par Dun & Bradstreet Canada. Ces ratios sont les plus susceptibles d’être connus des utilisateurs de l’information financière. En plus des ratios des entreprises demandant les prêts, ceux de la moyenne du secteur d’activité de chaque entreprise ont aussi été fournis.

  2. Niveau moyen : les ratios ci-dessus, plus le bilan et l’état des résultats.

  3. Niveau élevé : les ratios, le bilan et l’état des résultats ci-dessus, plus l’état des flux de trésorerie.

    Les données contenues dans les rapports financiers sont fournies sous forme comparative sur deux ans. La variation en pourcentage entre les deux années a aussi été préalablement calculée. Gadenne et Iselin (2000) ont fourni aux participants de leur étude des ratios, le bilan et l’état des résultats. L’ajout dans la présente étude de l’état des flux de trésorerie vise deux objectifs : fournir une quantité plus élevée de données disponibles et générer des données redondantes.

3.2 - Vérification de l’efficacité de la manipulation de la quantité de données disponibles

24

La quantité de données disponibles constitue la variable indépendante de notre plan de recherche. Les différents niveaux de quantité de données disponibles constituent les traitements expérimentaux. Afin de pouvoir manipuler la quantité de données disponibles, ces dernières doivent être dénombrables. Les rapports financiers que nous présentons aux participants ne contiennent que des données numériques, notamment pour qu’il soit possible de les dénombrer facilement [2][2] Nous entendons par « données non numériques » les parties... afin d’être en mesure de satisfaire à ce critère. Les données contenues dans les états financiers ont été dénombrées en comptant le nombre de lignes de données numériques uniques.

25

Les caractéristiques des données disponibles, qui constituent nos variables intermédiaires, sont mesurées par la perception des participants à l’étude. Nous avons toutefois mesuré aussi les caractéristiques des données disponibles selon la mesure objective, celle résultant de techniques statistiques, de la même façon que l’ont fait Iselin (1993) et Gadenne et Iselin (2000). Dans cette étude, l’objectif de l’utilisation de la mesure objective est de vérifier l’efficacité de la manipulation des niveaux de quantité d’information contenue dans les trois rapports.

26

Les données pertinentes objectives sont obtenues par une analyse discriminante pas à pas (stepwise discriminant analysis) : ce sont les variables significatives résultant de ce modèle discriminant utilisant comme variable dépendante la variable dichotomique constituée par la santé financière de l’entreprise (en défaillance financière ou non). Les données redondantes objectives sont des données fortement corrélées avec les données pertinentes objectives et qui sont aussi significatives lorsqu’on les substitue aux données pertinentes correspondantes dans le modèle discriminant. Les données non pertinentes objectives sont constituées des données restantes (celles qui ne sont ni pertinentes ni redondantes). Le tableau 1 ci-dessous montre les quantités de données objectives telles que mesurées dans la présente étude. Ainsi, les quantités de données pertinentes, redondantes et non pertinentes augmentent lorsque les quantités de données disponibles augmentent.

Tableau 1 - Quantités objectives de données contenues dans les rapports financiers(*)Tableau 1

(*) R : ratios financiers ; RBE : ratios financiers + bilan + état des résultats ; RBEF : ratios financiers + bilan + état des résultats + état des flux de trésorerie.

3.3 - Sélection des six entreprises incluses dans le cas de demande de prêt

27

Les six entreprises, deux en défaillance financière et quatre en bonne santé, ont été sélectionnées à l’aide d’un échantillonnage stratifié proportionnel à partir d’une population initiale de trente entreprises (10 en défaillance financière et 20 en bonne santé financière) [3][3] Ces entreprises sont listées à la Bourse de Montréal....

28

Les données de vingt-quatre entreprises (l’échantillon d’estimation : 16 en bonne santé et 8 en défaillance financière) ont été utilisées afin d’identifier et de mesurer la quantité de données objectives. Les données des six entreprises restantes (quatre en bonne santé et deux en défaillance financière) ont servi à valider les inférences statistiques et ont été incorporées dans le cas de demande de prêt.

3.4 - La qualité de la prédiction

29

Dans la présente étude, la qualité de la prédiction est définie par l’exactitude de la prédiction et par l’optimalité de la prédiction. L’exactitude est mesurée par le nombre de prédictions correctes sur les six prédictions faites par chaque répondant. L’optimalité de la prédiction, quant à elle, est mesurée par la comparaison entre la performance prédictive de l’être humain et celle d’un modèle statistique qui est ici une analyse discriminante : c’est la différence entre le nombre de prédictions correctes d’un modèle statistique et le nombre de prédictions correctes faites par l’individu. Ainsi, une valeur négative, nulle ou positive de cette mesure signifie respectivement que l’individu a mieux fait, a fait aussi bien ou a fait moins bien que le modèle statistique [4][4] Pour l’ensemble des 95 répondants de l’étude, l’exactitude.... En termes de performance du modèle statistique, nous avons mesuré les coefficients de prévisibilité préconisés par le modèle d’influences convergentes ou Lens Model de Brunswick (1952) [5][5] Le coefficient de prévisibilité mesure le degré de.... Ces coefficients étaient de 0,63 pour le modèle utilisant les données du bilan, de 0,63 aussi pour le modèle utilisant les données du bilan et de l’état des résultats et de 1,00 pour le modèle utilisant les données du bilan, de l’état des résultats et de l’état des flux de trésorerie. Autrement dit, plus les données comptables fournies aux modèles statistiques sont complètes, plus ces modèles statistiques prédisent efficacement les défaillances financières.

4 - Résultats et analyse

4.1 - Statistiques descriptives de l’échantillon

30

Le tableau 2 ci-dessous résume les caractéristiques descriptives des 95 étudiants de la maîtrise en administration qui ont participé de façon volontaire à l’étude.

Tableau 2 - Caractéristiques descriptives de l’échantillonTableau 2

4.2 - Hypothèse 1 : relation entre la quantité de données disponibles et les quantités de données pertinentes, redondantes et non pertinentes

31

Une analyse de variance, puis un test de comparaisons multiples (test de Duncan) ont été utilisés afin de tester l’hypothèse 1 [6][6] La statistique F utilisée dans l’analyse de variance.... Les quantités de données pertinentes, redondantes et non pertinentes sont mesurées par la perception des décideurs sur une échelle de 100 points. Les tableaux 3 et 4 ci-après résument les résultats des hypothèses 1a, 1b et 1c. L’analyse montre que la quantité de données disponibles influence les quantités perçues de données pertinentes, redondantes et non pertinentes : les probabilités associées à la statistique F des analyses de variance sont toutes à un niveau significatif (tableau 3).

Tableau 3 - Relation entre la quantité de données disponibles et la quantité de données selon leurs caractéristiquesTableau 3
32

Le tableau 4 montre que les décideurs perçoivent qu’il y a surtout une nette différence entre les quantités de données pertinentes, redondantes et non pertinentes contenues dans le rapport financier de niveau faible et le rapport financier de niveau élevé. Ces résultats soutiennent les hypothèses 1a, 1b et 1c.

Tableau 4 - Relation entre la quantité de données disponibles et la quantité de données selon leurs caractéristiques. Test de comparaisons multiplesTableau 4

Note : pour chaque caractéristique des données, les groupes expérimentaux sont :

Élevée = quantité élevée de données, Moyenne = quantité moyenne de données,

Faible = quantité faible de données

4.3 - Hypothèses 2 à 4 : effet des caractéristiques des données sur la qualité de la prédiction

33

Afin de tester les hypothèses portant sur les effets des caractéristiques des données disponibles sur la qualité de la prédiction, nous utilisons des régressions multiples. L’annexe 1 décrit les modèles de régression utilisés ainsi que la définition des variables. Le tableau de l’annexe 2 résume les résultats obtenus. Nous y constatons que lorsque la variable dépendante est mesurée par l’exactitude de la prédiction (modèle 1), les régressions ne sont pas significatives (R2 ajustés et statistiques F faibles et probabilités correspondantes supérieures à 0,10). En revanche, lorsque la variable dépendante est mesurée par l’optimalité de la prédiction (modèle 2), toutes les régressions sont fortement significatives. Il semble, selon les résultats de la présente étude, que le fait de prendre comme référence la prédiction d’un modèle statistique faite à partir des mêmes informations que celles disponibles à l’être humain enlève certains « bruits » et se traduit par une meilleure spécification des modèles de régression. Ainsi, l’interprétation des résultats des hypothèses 2 à 4 est fondée uniquement sur la deuxième définition de la qualité de la prédiction, soit l’optimalité.

4.3.1 - Hypothèse 2 : effet de la quantité de données pertinentes sur la qualité de la prédiction

34

Selon les prédictions de cette hypothèse, les coefficients des variables représentant les quantités élevée, moyenne et faible de données ne devraient pas être sensiblement différents de zéro. Les résultats obtenus sont tels que prévus (tableau de l’annexe 2, caractéristique des données = PERT) : la quantité de données perçues comme étant pertinentes n’influence pas la qualité de la prédiction.

4.3.2 - Hypothèse 3 : effet de la quantité de données pertinentes et redondantes sur la qualité de la prédiction

35

Selon les prédictions de cette hypothèse, seul le coefficient de la variable représentant les quantités élevées de données devrait être différent de zéro et de signe positif. Rappelons que selon la mesure de l’optimalité de la prédiction, un signe positif signifie que l’être humain a fait moins bien qu’un modèle statistique en matière de prédiction de défaillance financière.

36

Le tableau de l’annexe 2 avec PERTRED comme caractéristique des données montre que le coefficient de la variable décrite précédemment est de 0,02 et est significatif au niveau = 0,04. Ainsi, ces résultats soutiennent l’hypothèse 3 : la qualité de la prédiction commence à se détériorer lorsque la quantité de données pertinentes et redondantes passe d’une quantité moyenne à une quantité élevée.

4.3.3 - Hypothèse 4 : effet de la quantité de données non pertinentes sur la qualité de la prédiction

37

Selon les prédictions de cette hypothèse, les coefficients des variables représentant les quantités élevée, moyenne et faible de données ne devraient pas être sensiblement différents de zéro. Le tableau de l’annexe 2 avec NPERT comme caractéristique des données montre que les résultats obtenus sont tels que prévus : la quantité de données perçues comme étant non pertinentes n’influence pas la qualité de la prédiction.

Discussion et conclusion

38

Le but de la présente étude consiste à démontrer que les données disponibles pour le décideur se décomposent en données pertinentes, redondantes et non pertinentes et que lorsqu’on dépasse un certain point jugé optimal, l’ajout d’une quantité de données redondantes nuit à la qualité de la prédiction. La qualité de la prédiction a été mesurée de deux façons : 1) par l’exactitude de la prédiction ; 2) par la comparaison entre la performance prédictive de l’humain et celle d’un modèle statistique.

39

Ainsi, les résultats montrent que l’augmentation de la quantité de données disponibles au-delà de la quantité jugée supportable a pour effet une détérioration de la qualité de la prédiction. Il semble que la capacité cognitive de l’être humain est atteinte et dépassée lorsqu’il est en présence de beaucoup trop d’information. La contribution de la présente étude consiste à isoler les influences respectives des données pertinentes, redondantes et non pertinentes. Il a été constaté que seules les données redondantes nuisent à la qualité de la prédiction. Lorsque les données disponibles sont en quantité élevée, l’être humain semble reconnaître les données non pertinentes et ne les prend pas en compte dans son processus de traitement de l’information. En revanche, les données redondantes semblent être prises en compte en même temps que les données pertinentes, ce qui contribue à l’atteinte et au dépassement de la capacité limitée à traiter l’information.

40

Ces principales constatations seront utiles aux préparateurs de l’information comptable et financière. En effet, dans le but d’optimiser leur processus de divulgation d’information, il semble que la meilleure stratégie consisterait à cibler les utilisateurs, à identifier les données pertinentes à une tâche donnée et à fournir seulement ces données. De plus, l’utilisation d’une aide à la prédiction serait justifiée dans un contexte où on ne peut pas réduire la surcharge d’information, car c’est précisément dans ce contexte que les modèles statistiques font mieux que les humains.

41

Cependant, les résultats obtenus sont assujettis à plusieurs restrictions. Tout d’abord, afin de pouvoir dénombrer la quantité de données disponibles, l’auteur s’est limité aux données numériques. Pour cette raison, les résultats ne sont pas généralisables aux données sous forme narrative comme les notes des états financiers ou les commentaires de la direction inclus dans le rapport annuel aux actionnaires. Ces informations mériteraient d’être analysées dans un contexte de surcharge d’information. De plus, une expérience de type « laboratoire » permet d’isoler l’influence des variables pertinentes à l’étude. Cependant, elle est éloignée du contexte de la prise de décision dans la vie professionnelle. Les résultats de la présente étude ne pourraient par conséquent être généralisés avant que des études de type « enquête sur le terrain » ne viennent les confirmer.

42

L’étude dont nous avons livré ici les résultats pourrait être poursuivie dans de nombreuses voies. Il serait d’abord intéressant d’étendre l’étude à l’utilisation de données autres que numériques : données sous forme narrative, sous forme graphique ou sous un autre support médiatique. Il serait aussi pertinent d’inclure des données autres que financières dans une étude traitant de défaillance financière afin de se rapprocher plus de la réalité : des données sur la concurrence ou sur le secteur d’activité, par exemple. Enfin, dans un but pratique, il serait aussi approprié d’aller au-delà de la constatation de l’effet négatif de la surcharge d’information et de tester de façon empirique des moyens de la supprimer ou du moins de l’atténuer.


Annexe

Annexe 1 - Modèles de régressions multiples

43

Afin de tester les hypothèses portant sur les effets des caractéristiques des données disponibles sur la qualité de la prédiction, nous utilisons des régressions multiples. Leur forme est la suivante :

dans laquelle :

QUALITÉ :

qualité de la prédiction (exactitude de la prédiction ou optimalité de la prédiction)

QUANTITÉ :

quantité de données à analyser (pertinentes ou PERT, pertinentes plus redondantes ou PERTRED et non pertinentes ou NPERT)

GP1 :

variable qualitative dichotomique (1 si groupe « Élevée » et 0 si autres)

GP2 :

variable qualitative dichotomique (1 si groupe « Faible » et 0 si autres)

COVAR :

variables indépendantes utilisées comme covariables (par exemple, lorsque c’est l’effet de la quantité de données pertinentes qui est analysé, les quantités de données redondantes et de données non pertinentes sont utilisées comme covariables)

PCTD :

perception du répondant du pourcentage de défaillance financière dans la population des entreprises canadiennes de fabrication de laquelle l’échantillon de six entreprises étudiées a été tiré (utilisée ici comme variable de contrôle)

44

Après transformation, pour le groupe « Élevée », l’équation 1 devient :

45
46

Pour le groupe « Moyenne », l’équation devient :

47
48

Enfin, pour le groupe « Faible », l’équation devient :

49
50

Les coefficients des régressions des équations 2, 3 et 4 s’interprètent comme suit :

  • (?0 + ?2), ?0 et (?0 + ?3) sont les ordonnées à l’origine des droites correspondant respectivement aux groupes « Élevée », « Moyenne » et « Faible » ;

  • (?1 + ?4), ?1 et (?1 + ?5) sont les pentes des droites correspondant respectivement aux groupes « Élevée », « Moyenne » et « Faible ».

Ainsi, les tests des hypothèses relatives à l’effet des quantités de données sur la qualité de la prédiction se feront par l’analyse des pentes des droites de régression correspondant aux groupes « Élevée », « Moyenne » et « Faible ». Nous identifions pour chaque hypothèse le signe et l’amplitude prévus de chacun des coefficients correspondant aux groupes « Élevée » (?1 + ?4), « Moyenne » (?1) et « Faible » (?1 + ?5). Les statistiques utilisées sont les statistiques t ou F selon les coefficients analysés.

51

Les modèles de régression utilisés dans la présente étude isolent l’effet des variables analysées dans une hypothèse donnée (par l’utilisation des autres variables comme covariables) et contrôlent la perception des répondants sur le pourcentage de défaillance financière (PCTD) dans la population des entreprises canadiennes de laquelle les six entreprises du cas ont été tirées. Les corrélations entre les variables indépendantes ne sont pas très élevées, ce qui satisfait au critère d’utilisation de covariables [7][7] La corrélation la plus élevée est entre les variables....

Annexe 2 - Résultats des régressions multiples


Bibliographie

  • Ashton A.H. et Ashton R.H. (1988), « Sequential Belief Revision in Auditing », The Accounting Review, octobre, p. 623-641.
  • Anonyme (1995), « A Bridge too Far? », Management Accounting, janvier, p. 37.
  • Belkaoui A. (1984), « The Effects of Diagnostic and Redundant Information on Loan Officers’ Predictions », Accounting and Business Research, été, p. 259-256.
  • Brunswick E. (1952), The Conceptual Framework of Psychology, université de Chicago, Chicago.
  • Casey J.C. Jr. (1980), « Variation in Accounting Information Load: The Effect on Loan Officers’ Predictions of Bankruptcy », The Accounting Review, vol. 55, n° 1, janvier, p. 36-49.
  • Chewning E.G. Jr. et Harrell A. (1990), « The Effect of Information Load on Decision Makers’ Cue Utilization Levels and Decision Quality in a Financial Distress Decision Task », Accounting Organizations and Society, vol. 15, n° 6, p. 527-542.
  • Cook M. et Sutton M.H. (1995), « Summary Annual Reporting : A Cure for Information Overload », Financial Executive, janvierfévrier, p. 12-15.
  • Cormier D., Magnan M. et Morard B. (1994), « L’utilisation de techniques statistiques dans l’évaluation de la pérennité de l’entreprise », Document de travail # 94-01 : département des sciences comptables, université du Québec à Montréal, janvier.
  • Dun et Bradstreet Canada (1986 à 1993), Key Business Ratios/Principaux coefficients des entreprises, Dun & Bradstreet Canada, Toronto.
  • Financial Accounting Standards Board (1976), Discussion Memorandum : Tentative Conclusions on Objectives of Financial Statements of Business Enterprises, Financial Accounting Standards Board, Stamford, CT.
  • Gadenne D. et Iselin E.R. (2000), « Properties of Accounting and Finance Information and Their Effects on the Performance of Bankers and Models in Predicting Company Failure », Journal of Business Finance and Accounting, janvier, p. 155-193.
  • Gilliland S.W. et Schmitt N. (1993), « Information Redundancy and Decision Behavior: A Process Tracing Investigation », Organizational Behavior and Human Decision Processes, mars, p. 157-180.
  • Hwang M.I. et Lin J.W. (1999), « Information Dimension, Information Overload and Decision Quality », Journal of Information Science, vol. 25, n° 3, p. 213-218.
  • Institut canadien des comptables agréés (1992), L’information à inclure dans le rapport annuel aux actionnaires, Institut canadien des comptables agréés, Toronto.
  • Iselin E.R. (1988), « The Effects of Information Load and Information Diversity on Decision Quality in a Structured Decision Task », Accounting, Organizations and Society, vol. 13, n° 2, p. 147-164.
  • Iselin E.R. (1993), « The Effects of the Information and Data Properties of Financial Ratios and Statements on Managerial Decision Quality », Journal of Business Finance and Accounting, janvier, p. 249-266.
  • Lindell M.K. et Stewart T.R. (1974), « The Effects of Redundancy in Multiple-cue Probability Learning », American Journal of Psychology, vol. 87, n° 3, p. 393-398.
  • Neter J., Wasserman W. et Kutner M.H. (1990), Applied Linear Statistical Models, 3e édition, Irwin, Homewood, IL.
  • Roves R.J. (1994), « Financial Disclosure: When More Is Not Better », Financial Executive, mai-juin, p. 11-14.
  • Schmitt N. et Dudycha A.L. (1975), « A Reevaluation of the Effect of Cue Redundancy in Multiple-cue Probability Learning », Journal of Experimental Psychology : Human Learning and Memory, vol. 104, n° 3, p. 307-315.
  • Schroder H.M., Driver M.J. et Streufert S. (1967), Human Information Processing, New York, Holt, Rinehart & Winston.
  • Shields M.D. (1983), « The Effects of Information Supply and Demand on Judgment Accuracy : Evidence from Corporate Managers », The Accounting Review, vol. 58, n° 2, avril, p. 284-303.
  • Shields M.D. (1980), « Some Effects of Information Load on Search Patterns Used to Analyze Performance Reports », Accounting, Organizations and Society, vol. 5, n° 4, p. 429-442.
  • Simnett R. (1996), « The Effect of Information Selection and Task Complexity on Predictive Accuracy, Confidence and Calibration of Auditors », Accounting, Organizations and Society, octobre-novembre, p. 699-719.
  • Simon H.A. (1987), « Bounded Rationality », in EATWELL J., MILGATE M. et Newman P. (éd.), The New Palgrave: A Dictionary of Economics, The Stockton Press, New York.
  • Snowball D. (1979), « Information Load and Accounting Reports : Too Much, or Just Right? », Cost and Management, mai-juin, p. 22-28.
  • Snowball D. (1980), « Some Effects of Accounting Expertise and Information Load: An Empirical Study », Accounting, Organizations and Society, vol. 5, n° 3, p. 323-338.

Notes

[1]

Snowball (1979) fait une revue détaillée des recherches effectuées en psychologie sur la surcharge d’information.

[2]

Nous entendons par « données non numériques » les parties du rapport autres que le corps des états financiers : les notes aux états financiers, les graphiques et les commentaires de la direction par exemple. Les libellés des postes des états financiers (encaisse, impôts reportés, bénéfice net, etc.), qui ne sont pas à proprement parler des données numériques, sont présentés.

[3]

Ces entreprises sont listées à la Bourse de Montréal entre 1986 et 1993. Elles ont été sélectionnées sur la base de leur santé financière indiquée par leur rendement boursier conformément à la méthodologie utilisée par Cormier, Magnan et Morard (1994).

[4]

Pour l’ensemble des 95 répondants de l’étude, l’exactitude moyenne est de 4,67 et l’optimalité moyenne de 0,67. Comme cette dernière mesure est significativement supérieure à zéro (t = 5,89, p = 0,00), dans la présente étude et conformément aux résultats d’autres études, l’humain fait en moyenne moins bien qu’un modèle statistique.

[5]

Le coefficient de prévisibilité mesure le degré de corrélation multiple entre, d’une part, la variable expliquée (la santé financière d’une entreprise) et, d’autre part, les variables explicatives.

[6]

La statistique F utilisée dans l’analyse de variance demeure fiable même au cas où les conditions de normalité et d’homoscédasticité des variables ne seraient pas remplies : il suffit que les groupes expérimentaux soient sensiblement de la même taille et que cette dernière soit élevée (Neter et al., 1990).

[7]

La corrélation la plus élevée est entre les variables « données pertinentes » et « données pertinentes et redondantes » (corrélation significative de 0,52). Cependant, ces deux variables ne sont jamais utilisées ensemble.

Résumé

Français

Dans un contexte de surcharge d’information, la psychologie cognitive nous apprend que le fait d’augmenter la quantité d’information disponible nuit à la qualité de la prédiction. Il est essentiel de faire la distinction entre données pertinentes, redondantes et non pertinentes, et d’examiner leurs effets respectifs sur la qualité de la prédiction. L’auteur pose l’hypothèse selon laquelle seules les données redondantes nuisent à la qualité de la prédiction. Il s’est livré à une expérience dans le cadre de laquelle les sujets simulaient une prise de décision d’octroi d’un prêt commercial. La quantité de données disponibles a été modifiée de façon qu’elle soit faible, moyenne ou élevée, ce qui a donné lieu à trois versions de la demande de crédit. Chaque prêteur prévoyait la santé financière de six entreprises emprunteuses. L’expérience a permis de constater que l’augmentation de la quantité de données redondantes nuit à la qualité de la prédiction. Selon les résultats obtenus, une stratégie d’information possible consisterait à cibler les utilisateurs et à leur fournir seulement les données pertinentes à leur tâche. Les résultats démontrent aussi l’utilité des aides à la prédiction dans un contexte de surcharge d’information.

Mots-clés

  • surcharge d’information
  • données pertinentes et redondantes
  • expérience en laboratoire
  • prédiction de défaillance financière

English

Information characteristics–Information overload and prediction qualityIn a context of information overload, the cognitive psychology shows that the fact of increasing the quantity of available information harms in prediction quality. It is essential to make the distinction between relevant, redundant and not relevant data and to examine their respective effects on prediction quality. The author predicts that only redundant data damages prediction quality. The author conducted an experiment study within the framework of which the subjects simulated a commercial loan decision. The quantity of available data was manipulated so that there is a weak, an average or a high level, which gave place to three versions of the application for credit. Each lender predicted the financial health of six companies borrowers. The results of the study show that the increase of the quantity of redundant data harms in prediction quality. The obtained results suggest that a possible information dissemination strategy would consist in targeting the users and in supplying them only the relevant data in their task. The results demonstrate as well the utility of prediction aids in a context of information overload.

Keywords

  • information overload
  • relevant and redundant data
  • laboratory experiment
  • prediction of financial failure

Plan de l'article

  1. Introduction
  2. 1 - Le phénomène de surcharge d’information dans un contexte de prédiction financière
    1. 1.1 - Les études antérieures
    2. 1.2 - Les données redondantes
  3. 2 - Les hypothèses
  4. 3 - Plan de recherche
    1. 3.1 - Les données financières disponibles
    2. 3.2 - Vérification de l’efficacité de la manipulation de la quantité de données disponibles
    3. 3.3 - Sélection des six entreprises incluses dans le cas de demande de prêt
    4. 3.4 - La qualité de la prédiction
  5. 4 - Résultats et analyse
    1. 4.1 - Statistiques descriptives de l’échantillon
    2. 4.2 - Hypothèse 1 : relation entre la quantité de données disponibles et les quantités de données pertinentes, redondantes et non pertinentes
    3. 4.3 - Hypothèses 2 à 4 : effet des caractéristiques des données sur la qualité de la prédiction
      1. 4.3.1 - Hypothèse 2 : effet de la quantité de données pertinentes sur la qualité de la prédiction
      2. 4.3.2 - Hypothèse 3 : effet de la quantité de données pertinentes et redondantes sur la qualité de la prédiction
      3. 4.3.3 - Hypothèse 4 : effet de la quantité de données non pertinentes sur la qualité de la prédiction
  6. Discussion et conclusion

Pour citer cet article

Rakoto Philémon, « Caractéristiques de l'information, surcharge d'information et qualité de la prédiction », Comptabilité - Contrôle - Audit, 1/2005 (Tome 11), p. 23-38.

URL : http://www.cairn.info/revue-comptabilite-controle-audit-2005-1-page-23.htm
DOI : 10.3917/cca.111.0023


Article précédent Pages 23 - 38 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback