Accueil Revue Numéro Article

Economie & prévision

2008/2-3 (n° 183-184)



Article précédent Pages 153 - 174 Article suivant
1

À la suite des critiques de Sims (1980) et de Lucas (1976), les modèles Vectoriels Auto-Régressifs (VAR) et les modèles d’Équilibre général intertemporels stochastiques (DSGE) se sont progressivement imposés, au moins à un niveau académique. Jusqu’à très récemment, les modèles VAR et DSGE sont restés largement spécialisés, chacun ayant un rôle et donnant lieu à une utilisation spécifique. Cependant, ce partage des rôles a été progressivement remis en cause. Ainsi le caractère a-théorique de la méthodologie VAR a rapidement laissé place à une interprétation structurelle des résultats. En effet, les modèles VAR permettent, moyennant l’introduction d’un nombre minimal de restrictions, d’identifier certains chocs structurels (voir Sims, 1980,1992, Christiano, Eichenbaum et Evans, 1999, Blanchard et Quah, 1989, Gali, 1999, Christiano, Eichenbaum et Evans, 2005) et d’en dériver les effets sur les variables agrégées. En conséquence, les modèles VAR ont d’abord pris un ascendant considérable sur les modèles DSGE dans la mesure où ils ont été perçus comme des guides extrêmement utiles pour la modélisation théorique. De plus, la première génération de modèles DSGE imposait tant de contraintes sur les données qu’ils s’ajustaient mal aux observations. Ceci a longtemps entretenu l’idée qu’ils constituaient essentiellement des curiosités théoriques de peu d’utilité dans une démarche quantitative. Cependant, de nombreux efforts ont été entrepris pour améliorer les spécifications existantes de sorte que ces modèles se sont progressivement imposés comme des outils utiles pour la prévision et l’analyse quantitative de la politique économique. Ces modèles ont ainsi gagné en crédibilité auprès de nombreuses institutions, notamment auprès des banques centrales. Smets et Wouters (2003) ont ainsi développé un modèle DSGE monétaire avec rigidités réelles et nominales dans la lignée de celui proposé par Christiano, Eichenbaum et Evans (2005) et l’ont estimé pour la Zone euro. Un résultat empirique assez remarquable ressort de leur étude : le modèle DSGE “domine’’en termes de prévision un modèle VAR correspondant. Ce résultat tient en partie au fait que le modèle proposé par Smets et Wouters est d’une grande taille et fait intervenir de très nombreux paramètres et de chocs exogènes. Cependant, l’idée que les modèles VAR continuent de dominer des modèles DSGE de taille modeste incluant un petit nombre de frictions continue à persister.

2

L’objet de cet article est précisément de réévaluer cette croyance et de montrer que des modèles DSGE réels incorporant un seul mécanisme intertemporel supplémentaire (et donc un seul paramètre supplémentaire) sont capables de fournir un ajustement aux données similaire à celui d’un modèle VAR. Nous considérons différents modèles dynamiques concurrents : un modèle VAR, un modèle DSGE sans frictions, un modèle DSGE avec coûts à l’ajustement sur l’investissement et un modèle DSGE avec persistance des habitudes de loisir. Ces modèles sont estimés par une méthode de maximum de vraisemblance sur données américaines incluant le taux de croissance de la productivité horaire et les heures travaillées sur la période 1959 :I–2003 :IV. Il ressort de nos estimations que le modèle sans frictions est rejeté au profit d’un modèle intégrant des coûts à l’ajustement ou un mécanisme de persistance des habitudes. De plus, les deux modèles avec frictions fournissent une log-vraisemblance très proche de celle du modèle VAR. Différentes statistiques et critères de choix de modèles concurrents viennent confirmer ces résultats. Il apparaît même que ces modèles DSGE dominent dans certains cas le modèle VAR, notamment pour la prévision hors échantillon. Ces résultats empiriques suggèrent que les modèles DSGE doivent être préférés aux modèles VAR, notamment lorsqu’il s’agit d’identifier les chocs structurels et leurs effets sur la dynamique agrégée.

3

L’analyse quantitative des fluctuations agrégées s’est, dans une large mesure, développée autour de modèles macroéconométriques de relativement grande taille. Ces modèles sont, par exemple, utilisés par les administrations ou les institutions publiques à des fins d’évaluation quantitative de différentes options possibles pour la conduite de la politique économique, mais aussi à des fins de prévision économique.

4

Jusqu’au début des années soixante-dix, il existait un relatif consensus sur le modèle théorique de référence – le modèle Offre Globale/Demande Globale en présence de certaines rigidités nominales – la méthodologie statistique d’évaluation et son utilisation. La modélisation macroéconométrique ne donnait alors lieu qu’à peu de controverses.

5

À la suite des critiques de Sims (1980) et de Lucas (1976), deux autres types de modélisation se sont progressivement imposées, au moins à un niveau académique : les modèles Vectoriels auto- régressifs (VAR) et les modèles d’Équilibre général intertemporels stochastiques (DSGE). Ces deux approches ont développé et proposé des outils quantitatifs originaux permettant de renouveler l’analyse des fluctuations. D’un côté, l’approche VAR permet de modéliser la dynamique de différentes variables agrégées à l’aide d’un faible nombre de restrictions, la sélection du modèle ne s’effectuant que sur la base de critères statistiques. D’un autre côté, les modèles DSGE offrent une modélisation parcimonieuse et rigoureuse de la dynamique économique et des anticipations.

6

Jusqu’à très récemment, les modèles VAR et DSGE sont restés largement spécialisés, chacun ayant un rôle et donnant lieu à une utilisation spécifique. Les modèles VAR sont des outils statistiques et descriptifs qui fournissent un très bon ajustement aux données. Il est alors possible de réaliser facilement des exercices de prévision à différents horizons des variables macroéconomiques à partir de la représentation récursive du modèle VAR sans avoir à formuler des hypothèses supplémentaires sur l’environnement économique. Les modèles DSGE sont, quant à eux, utilisés pour mener différents exercices théoriques et appliqués dans un cadre immune à la critique de Lucas.

7

Cependant, ce partage d es rôles a été progressivement remis en cause. Ainsi le caractère a-théorique de la méthodologie VAR a rapidement laissé place à une interprétation structurelle des résultats. En effet, les modèles VAR permettent, moyennant l’introduction d’un nombre minimal de restrictions, d’identifier certains chocs structurels (voir Sims, 1980,1992, Christiano, Eichenbaum et Evans, 1999, Blanchard et Quah, 1989, Gali, 1999, Christiano, Eichenbaum et Evans, 2005) et d’en dériver les effets sur les variables agrégées. En conséquence, les modèles VAR ont d’abord pris un ascendant considérable sur les modèles DSGE dans la mesure où ils ont été perçus comme des guides extrêmemen t utiles pour la modélisation théorique [1]  Un premier exemple connu et bien admis est l’identification... [1] . Ainsi, les fonctions de réponses des variables macroéconomiques à des chocs structurels identifiés par le modèle VAR constituent une référence que tout modèle théorique doit reproduire au mieux. Rotemberg et Woodford (1997) et Christiano et alii (2005) proposent même d’estimer et de tester des modèles DSGE sur la base de ces réponses. Les paramètres du modèle DSGE sont estimés de façon à minimiser un indicateur de distance entre les réponses du modèle théorique à un choc monétaire et celles issues d’un modèle VAR structurel. Dans cette optique, les implications quantitatives des modèles VAR s’avèrent indispensables pour des macroéconomistes qui s’intéressent à la construction et à l’évaluation de modèles dynamiques. De plus, la première génération de modèles DSGE imposait tant de contraintes sur les données qu’ils s’ajustaient mal aux observations. Ceci a longtemps entretenu l’idée qu’ils constituaient essentiellement des curiosités théoriques de peu d’utilité dans une démarche quantitative. Cependant, de nombreux efforts ont été entrepris pour améliorer les spécifications existantes de sorte que ces modèles se sont progressivement imposés comme des outils utiles pour la prévision et l’analyse quantitative de la politique économique. Ces modèles ont ainsi gagné en crédibilité auprès de nombreuses institutions, notamment auprès des banques centrales. Smets et Wouters (2003) ont ainsi développé un modèle DSGE monétaire avec rigidités réelles et nominales dans la lignée de celui proposé par Christiano et alii (2005) et l’ont estimé pour la Zone euro. Un résultat empirique assez remarquable ressort de leur étude : le modèle DSGE “domine’’ en termes de prévision un modèle VAR correspondant. Ce résultat tient en partie au fait que le modèle proposé par Smets et Wouters est d’une grande taille et fait intervenir de très nombreux paramètres [2]  La qualification de la taille d’un modèle reste forcément... [2] . Plus encore, le nombre de chocs exogènes de ce modèle excède largement le nombre de variables observables. L’expérience montre alors que la densité marginale du modèle diminue avec le nombre de chocs (voir Del Negro, Schorfheide, Smets et Wouters, 2006). Cependant, l’idée que les modèles VAR continuent de dominer des modèles DSGE de taille modeste incluant un petit nombre de frictions continue à persister.

8

L’objet de cet article est précisément de réévaluer cette croyance et de montrer que des modèles DSGE réels incorporant un seul mécanisme intertemporel supplémentaire (et donc un seul paramètre supplémentaire) sont capables de fournir un ajustement aux données similaire à celui d’un modèle VAR. Il ne s’agit pas ici de “ressusciter’’le modèle canonique des cycles réels (King et Rebelo, 2000), mais seulement de déterminer le degré de rigidité réelle supplémentaire permettant à ce type de modèle de fournir un ajustement satisfaisant aux données. Nous considérons différents modèles dynamiques concurrents : un modèle VAR, un modèle DSGE sans frictions, un modèle DSGE avec coûts d’ajustement sur l’investissement et un modèle DSGE avec persistance des habitudes de loisir. Ces modèles sont estimés par une méthode de maximum de vraisemblance sur données américaines incluant le taux de croissance de la productivité horaire et les heures travaillées sur la période 1959 :I–2003 :IV. Il ressort de nos estimations que le modèle sans frictions est rejeté au profit d’un modèle intégrant des coûts à l’ajustement ou un mécanisme de persistance des habitudes. De plus, les deux modèles avec frictions fournissent une log-vraisemblance très proche de celle du modèle VAR. Différentes statistiques et critères de choix de modèles concurrents viennent confirmer ces résultats. Il apparaît même que ces modèles DSGE dominent dans certains cas le modèle VAR, notamment pour la prévision hors échantillon. Ces résultats empiriques suggèrent que les modèles DSGE doivent être préférés aux modèles VAR, notamment lorsqu’il s’agit d’identifier les chocs structurels et leurs effets sur la dynamique agrégée.

9

L’article est organisé comme suit. Dans une première partie, nous exposons brièvement les modèles dynamiques considérés dans cette étude. La seconde partie présente la méthode d’estimation et les différents critères statistiques de choix entre modèles concurrents. Les résultats empiriques sont exposés dans une troisième partie. La quatrième partie discute l’identification des chocs structurels. Une dernière partie conclut.

Les modèles concurrents

10

Cette section présente les différents modèles utilisés pour l’analyse de la dynamique jointe de la productivité et des heures travaillées. Nous retenons essentiellement deux approches. La première, l’analyse VAR, s’inscrit dans la lignée des travaux économétriques initiés par Sims (1980) et se veut descriptive et agnostique. La seconde se revendique structurelle et théoriquement fondée.

Le modèle VAR

11

La modélisation VAR s’attache essentiellement à révéler la structure d’autocorrélation des données à des fins essentiellement prédictives. Il s’agit donc de caractériser au mieux la dynamique jointe des variables modélisées – ici le taux de croissance de la productivité et les heures travaillées – afin de révéler la loi les ayant engendrées. La démarche est exclusivement descriptive et a-théorique. L’objectif est donc de maximiser le pouvoir prédictif du modèle.

12

Soit le processus centré{ }YttT=1, où Yt est un vecteur de dimension ny, la représentation VAR de Yt est simplement fournie par :

A L I A L A L( ) ( ... )= − − − est un polynôme en 1 l’opérateur retard L, et désigne le nombre de retard du VAR. Les racines du polynôme matriciel A L( ) sont toutes supposées de module supérieur à l’unité. εt désigne le vecteur des innovations canoniques du processus. εt est de moyenne nulle et de matrice de variance-covariance Et t ( ) 'ε ε =Σ.

Un modèle sans frictions

13

Nous présentons ici une version minimale d’un modèle d’équilibre général stochastique sous anticipations rationnelles. Nous considérons une économie fermée peuplée par une infinité d’agents rationnels à durée de vie infinie [3]  La population est supposée constante et normalisée... [3] . Les agents sont tous supposés identiques et font face à la même structure d’information et aux mêmes sources de chocs structurels. Nous faisons donc l’hypothèse d’existence d’un agent représentatif dont les préférences intertemporelles sont représentées par la fonction d’utilité :

où β∈ ( , )0 1 est le taux d’actualisation subjectif, Ct la consommation réelle et Nt les heures travaillées. Et représente l’opérateur d’espérance conditionnelle à l’ensemble d’information de la période t, c’est-à-dire au moment où les ménages doivent prendre leur décision de consommation et d’offre de travail. Suivant Hansen (1985), la décision d’offre de travail ne porte pas sur un nombre d’heures variable, mais sur la probabilité variable de travailler un nombre d’heures donné. Le travail est donc indivisible. La situation de chaque agent est alors déterminée par une loterie avec assurance complète du revenu, de sorte que la désutilité du travail est linéaire (voir Hairault, 1992). L’utilité des agents est soumise à des chocs stochastiques, χt, déplaçant l’offre de travail du ménage. Ce choc sur les préférences est supposé suivre un processus stationnaire autorégressif d’ordre un :

avec | | ,ρ σχ < >1 0, et εχ, t un processus iid de moyenne nulle et de variance unitaire.

14

De la même façon que nous avons fait l’hypothèse d’existence d’un ménage représentatif, et pour les mêmes raisons, nous supposons qu’il existe une entreprise représentative produisant un bien final homogène en quantité Yt. La production de ce bien est assurée par une technologie à rendements constants mettant en œuvre le capital physique, Kt, accumulé dans l’économie et les heures offertes par le ménage, Nt. La technologie est représentée par la fonction de production Cobb-Douglas :

oùα ∈ ( , )0 1. La variable zt représente un choc sur la productivité globale des facteurs. Ce choc est supposé suivre un processus de type marche aléatoire avec dérive de la forme

avec σz >0, et εz t, un processus iid de moyenne nulle et de variance unitaire. La variable εz t, est supposée orthogonale à εx t q,− quel que soit q. Le terme constant γz représente la dérive dans le processus marche aléatoire et capture la composante déterministe de la croissance. Le bien homogène Yt peut être utilisé à des fins de consommation ( )Ct et d’investissement ( )It. Ce dernier donne lieu à l’accumulation du capital physique utilisé dans le processus de production. Cette accumulation est représentée, de façon standard, par une loi d’inventaire permanent de la forme :

où δ∈ ( , )0 1 est le taux de dépréciation constant du capital.

15

La condition d’équilibre sur le marché des biens s’écrit :

Gt représente les dépenses publiques financées par une taxe forfaitaire. Sans perte de généralité, la composante stationnaire des dépenses publiques est supposée constante au cours du cycle, i.e. G z G t t / exp( ) = [4]  L’effet d’une part variable et stochastique stationnaire... [4] .

16

Ce modèle servira de référence dans la suite de l’analyse. Il intègre en effet les éléments constitutifs de la vaste majorité des modèles d’équilibre général dynamique utilisés à des fins de prévision : caractère intertemporel des décisions, rationalité des comportements, accumulation du capital, chocs stochastiq ues affectant l’env iron nement économique des agents. Il importe toutefois de noter que les propriétés dynamiques de ce modèle sont relativement pauvres. Il est en particulier établi (cf. Cogley et Nason, 1995) que ce modèle possède un mécanisme de propagation des chocs très faible et engendre peu de persistance des fluctuations. Aussi, diverses voies ont été empruntées par la littérature pour enrichir la dynamique réelle du modèle. Nous en présentons deux qui ont été largement retenues en macroéconométrie appliquée.

Extensions

17

Nous considérons deux voies d’enrichissement des mécanismes de propagation des chocs. La première a récemment été introduite par Christiano et Fisher (2003), Christiano et alii (2005) et Eichenbaum et Fisher (2005). Elle repose sur l’idée que la dynamique de cette classe de modèles est largement déterminée par l’accumulation du stock de capital physique. L’accumulation de capital est régie par la relation :

où la fonction S(.) prend en compte l’existence de coûts à l’ajustement. S(.) est une fonction croissante strictement convexe. Elle satisfait aux conditions suivantes :

En conséquence, l’état stationnaire du modèle ne dépend pas de ce paramètre. En revanche, la dynamique du modèle est étroitement liée aux valeurs prises par ϕ. Il importe de noter que c’est parce que les coûts de l’ajustement portent sur les flux de capital plutôt que sur le stock de capital, que la persistance du modèle est affectée. Dans le cas où les coûts portent sur le stock de capital, seule la volatilité de l’investissement est modifiée et la persistance n’est que très peu altérée. Ceci se comprend aisément dans la mesure où la spécification retenue ici pénalise les variations du niveau d’investissement plutôt que celles du stock de capital.

18

La seconde extension que nous considérons porte sur un autre comportement clé du modèle : l’offre de travail. Cette modification déjà présente dans l’article originel de Kydland et Prescott (1982) [5]  Dans leur article, Kydland et Prescott (1982) calibrent... [5] consiste en l’introduction d’un phénomène de persistance des habitudes dans la consommation de loisir. Plusieurs modélisations de ce phénomène peuvent être envisagées. Nous retenons une version simplifiée de Bouakez et Kano (2006) [6]  Ces auteurs considèrent en effet une modélisation avec... [6] . Les préférences du ménages sont alors représentées par

où ψ ∈ ( , )0 1 est le paramètre réglant le degré d’habitudes. Il apparaît ainsi que les décisions d’offre de travail ne sont plus séparables temporellement. Une conséquence directe de cette hypothèse est que la décision d’offre de travail dépend des décisions passées, présentes et futures anticipées comme le montre l’équation définissant le comportement optimal :

Wt désigne le taux de salaire réel. L’existence d’un phénomène d’habitude portant sur le loisir crée donc de la persistance dans l’offre de travail dans la mesure où l’agent cherche à lisser son comportement en termes de loisir, et ainsi le profil temporel du temps qu’il consacre aux activités productives. Cette persistance se transmet alors directement à l’activité de production, et est partiellement renforcée par l’accumulation de capital.

19

Dans un premier temps, chaque modèle est stationnarisé par sa composante de croissance exp( )zt. Leur résolution est ensuite assurée en log-linéarisant le système d’équations aux différences finies qui en caractérise la dynamique autour de son état stationnaire. Le système linéarisé est alors résolu par une technique standard et fournit une représentation espace-état du modèle de la forme :

où ε ( , )> N 0 Σ. Yt désigne ici le vecteur de dimension ( )ny ⋅1 constitué par les variables directement observables par l’économètre – dans notre cas les heures travaillées et le taux de croissance de la productivité. Xt est le vecteur ( )nx ⋅1 des v ariab les d’état du mo dèle : X K z t t t t ≡( , , )'χ pour le modèle sans friction, et X K z t t t t t ≡( , , , )'Γ χ pour le modèle avec friction (Γt I= dans le modèle avec coûts d’ajustement, et t−1 Γt N= pour le modèle avec persistance des t−1 habitudes). Enfin, εt est le vecteur ( )nε ⋅1 des innovations des chocs ( , ), , ε εχz t t.

Estimation et critères de choix de modèles

20

Nous présentons la méthode d’estimation et de tests des modèles dynamiques concurrents de la section précédente. La méthode d’estimation retenue est, pour chaque modèle, le maximum de vraisemblance à information complète. À partir de la valeur estimée des paramètres, nous considérons ensuite différents critères de choix de modèles.

Méthode d’estimation

21

Nous exposons ici brièvement la mise en œuvre de la méthode d’estimation par maximum de vraisemblance des modèles de cycle proposés dans la partie précédente [7]  Il faut noter que cette méthode s’applique également... [7] . Il faut noter que cette méthode s’applique également au modèle VAR. La solution obtenue par approximation log-linéaire des différents modèles d’équilibre général dynamiques s’exprime sous la forme générique suivante :

oùε ( , )> N 0 Σ.θ désigne le vecteur, de taille( )nθ ⋅1, des paramètres à estimer. Dans ce qui va suivre, seul un sous-ensemble des paramètres des modèles est estimé. En conséquence, le vecteurθ est composé de deux sous-vecteurs de paramètres θ θ θ=( , ), où θ 1 21 est étalonné avant l’estimation et seul θ est 2 réellement estimé. En conséquence, le vecteur de paramètres θ que l’on cherche à estimer est de 2 dimension n n θ θ <. Pour simplifier la présentation, 2 nous n’effectuons pas cette distinction par la suite. M M M( ), ( ), ( )θ θ θ sont des matrices de taille Y X E conformes aux dimensions des vecteurs dont les coefficients sont des fonctions non-linéaires compliquées des paramètres à estimer.

22

L’économètre observe le vecteur de données{ }Ytti T==1, que nous supposons ici centré et stationnaire. À partir de la représentation espace-état de la solution de chaque modèle, et sachant que les innovations εt sont normalement distribuées, la distribution conditionnelle du vecteur de variables observables Yt est normale :

Y Y i= =1{ ; ,...}. X E X t ( | )= I et t t i− −1 t t t| − −1 1 P E X X X X t t (( )( )')= − −, o ù I t t t t t t| | |− − −1 1 1t−1 représente l’ensemble d’information utilisé pour la prévision. Nous pouvons alors écrire la densité conditionnelle de Yt pour une date quelconque t T∈ ( , )1

et en déduire la log-vraisemblance de l’échantillon de données t T=1,...,.

23

Pour une valeur donnée des paramètres θ des modèles, l’évaluation de la log-vraisemblance nécessite la connaissance de deux quantités X et t t|−1 P. X correspond à la prévision à un pas de t t|−1t t|−1 l’état du système, tandis que P est la matrice de t t|−1 variance-covariance de l’erreur de prévision associée. Chacune de ces deux quantités peut être obtenue par application du filtre de Kalman [8]  Voir l’annexe A pour plus de détails. [8] . Les paramètres des différents modèles sont alors estimés en maximisant la log-vraisemblance à l’aide d’algorithmes usuels d’optimisation. Lorsque l’algorithme a convergé, les écart-types des paramètres estimés peuvent être obtenus en calculant la covariance du gradient.

24

Concernant le modèle VAR, les paramètres peuvent être plus facilement obtenus à l’aide des moindres carrés ordinaires appliqués à chaque équation. En effet, en l’absence de restrictions inter-équations sur les matrices du système autorégressif, A pour i i=1,..., , et la matrice de variance-covariance des erreurs, Σ, l’estimation par les moindres carrés ordinaires équation par équation est équivalente à l’estimation par le maximum de vraisemblance sur l’ensemble du système (Gouriéroux et Monfort, 1990) [9]  Tout modèle VAR d’ordre peut se réécrire sous la forme... [9] .

Critères de Choix de Modèles et Tests

25

Nous présentons ici différents critères de choix de modèles concurrents non-emboîtés. Ces différents critères sont des fonctions réelles définies pour les modèles dyn amiqu es en comp étition su r l’échantillon ayant servi à l’estimation { }Ytti T==1. Le choix peut alors s’effectuer en regardant, pour un ou tous les éléments de{ }Ytti T==1, le modèle qui maximise ou minimise un critère donné. Ces critères sont évalués à convergence, θT, de la procédure d’estimation. Ces différents critères ont des performances convenables dans la pratique, même si leurs fon dements théoriques ne s ont pas complètement établis (voir Gouriéroux et Monfort, 1989).

26

À partir de l’estimation, il est possible de comparer les log-vraisemblances des différents modèles en compétition. Cette comparaison permet alors de sélectionner un modèle sur sa capacité à s’ajuster aux données. Cependant, ce critère n’intègre pas le caractère parcimonieux du modèle. Avec le critère d’information d’Akaike (AIC), le maximum de la log-vraisemblance est pénalisé d’une valeur égale au nombre de paramètres estimés. Le modèle choisi est alors celui qui donne le maximum de

Différentes modifications du critère d’Akaike ont été proposées. Selon le critère de Schwarz, le modèle choisi est celui donnant le maximum de

Il apparaît ici que le critère BIC pénalise d’avantage le nombre de paramètres que le critère AIC lorsque la taille de l’échantillon est suffisamment grande (T>8) ce qui est vérifié en pratique. De la même façon, le critère de Hannan et Quinn pénalise d’avantage encore les modèles non parcimonieux

Lorsque le modèle est linéaire dans les variables, ce qui est le cas pour tous les modèles envisagés dans l’article, un critère classique simple est le coefficient de détermination. En notant ( ), , | Y M X i t I Y T t t = θ1 le vecteur de valeurs ajustées pour la variable i ny =1,..., sélectionnée dans Yt, le coefficient de détermination est donné par :

Plus la prévision de la variable Y est proche de sa i t, réalisation, plus le coefficient de détermination est proche de l’unité. On pourra alors retenir le modèle ayant le meilleur coefficient de détermination, c’est-à-dire celui fournissant les meilleures prévisions Yi t,. Un avantage de cette approche est de permettre de juger la qualité d’ajustement du modèle aux données pour les variables observables. Elle permet ainsi de préciser les éventuels échecs de la modélisation proposée. Dans le cas où les erreurs sont normalement distribuées, on peut utiliser le coefficient de détermination pour construire une statistique de Fisher qui correspond à l’absence de pouvoir explicatif du modèle concernant la variable Yi t,. Cette statistiqu e est d onnée par F T R R i i i = − −( dim ) / (dim ( ))θ θ 2 2 1. Elle est une fonction croissante de Ri2 et elle permet de tester simplement le pouvoir prédictif de différents modèles. Le coefficient de détermination simple augmente avec le nombre de variables explicatives, ce qui limite son utilisation comme critère de choix entre différents modèles linéaires. En pratique, on peut lui préférer un coefficient ajusté par le nombre de paramètres. Celui-ci est défini par R R T T n i i2 2 1 1= − − −( )( /( ) θ [10]  L’interprétation du R2 (ou du R2 ) est toutefois délicate.... [10] .

27

Nous complétons finalement ces différents critères en évaluant les propriétés du terme d’erreur de prévision à un pas d’une variable i de Y Y Y i t i t i t i t, , , , ( )ε = −. Plus précisément, il s’agit d’évaluer l’absence d’autocorrélation dans le processus de ce terme d’erreur estimé. En effet, la présence d’erreurs autocorrélées est révélatrice d’une erreurde spécification tant dans les modèles de cycle – mécanismes internes de persistance insuffisants – que dans le modèle VAR – nombre insuffisant de retards. Pour tester l’indépendance temporelle des erreurs, nous utilisons la statistique de Box-Pierce, BP(k), et de Lyung-Box, LB(k), où k est le nombre de retards retenu. Sous l’hypothèse nulle d’absence d’autocorrélation ces statistiques sont distribués selon une loi de Chi-deux à k degrés de liberté.

Résultats

28

Cette section présente les résultats d’estimation des modèles proposés et une évaluation de leurs qualités prédictives.

Estimation

29

L’étude est menée sur données trimestrielles américaines couvrant la période 1959 :I-2002-IV (voir la figure 1). Les modèles d’équilibre général dynamique rencontrent peu de difficulté à rendre compte des fluctuations agrégées sur le marché des biens. En revanche, leur échec à expliquer les fluctuations sur le marché du travail est maintenant bien connu et documenté. En particulier, ils échouent dans la reproduction des comouvements entre heures travaillées et productivité du travail. Il est alors naturel d’évaluer les différents modèles sur leur capacité à rendre compte de cette dynamique. Aussi, dans la lignée des travaux de Gali et Rabanal (2004), la croissance de la productivité est mesurée par le taux de croissance de la productivité horaire dans l’industrie et les services. Les heures travaillées sont ici définies par le produit du taux d’emploi [11]  Le taux d’emploi est ici mesuré par l’emploi rapporté... [11] et des heures effectives individuelles. Le taux d’emploi est ici mesuré par l’emploi rapporté à la population civile non-institutionnelle âgée de 16 ans et plus. Cette définition est conforme à celle du modèle (voir Christiano, Eichenbaum et Vigfusson, 2004). Le produit par tête peut alors simplement être obtenu en multipliant la productivité horaire par les heures ainsi définies.

30

La présence des heures travaillées pose un problème spécifique soulevé par plusieurs études : celui de la non-stationnarité des heures. Nous suivons la recommandation de Christiano et alii (2004) et utilisons les heures en niveau lors de l’estimation du VAR. Deux raisons motivent ce choix. La première est que les résultats ne sont que très partiellement affectés par ce changement de représentation en pratique. La seconde est plus structurelle et renvoie aux modèles théoriques proposés. Dans chacun de ces modèles, les heures travaillées sont, tout comme dans les données, mesurées par le nombre d’heures travaillées par tête. Il s’agit ainsi d’une quantité bornée qui ne peut pas, asymptotiquement, présenter de dérive. Les heures sont donc, au moins dans le modèle théorique, stationnaires. Les données sont centrées. L’application de tests du rapport de vraisemblance nous conduit, sans ambiguïté, à retenir 4 retards dans le VAR.

Figure 1  - données utilisées Figure 1
31

L’estimation des modèles structurels est réalisée pour la même période. Nous n’estimons pas l’ensemble des paramètres des modèles. En effet, les modèles DSGE sont sujets à des problèmes d’estimation largement liés à des problèmes d’identification de l’ensemble des paramètres. Aussi, afin de minimiser l’occurrence de tels problèmes nous avons pris le parti de n’estimer que les paramètres liés aux processus exogènes, et ceux ne pouvant pas être déterminés en utilisant les restrictions imposées par l’état stationnaire du modèle. Ceci nous a conduit à séparer l’ensemble des paramètres du mod èle en deux parties θ α β δ γ ν={ , , , , / , } z g y etθ ρ σ ,σ ϕ χ χ ={ , ,( z ouψ )}. 1 2 La première, collectée dans le vecteurθ, est fixée en 1 référence à des études antérieures ou de façon à reproduire certains ratios de long terme observés. (voir le tableau 1) [12]  Il est connu depuis les travaux de Cogley et Nason... [12] .

Tableau 1  - paramètres fixés Tableau 1
32

Ainsi α est fixé de façon à reproduire la part de la rémunération salariale dans la valeur ajoutée américaine sur la période considérée (64%). Le facteur d’escompte, β, est fixé à 0,99. Le taux de dépréciation δ est de 2,5% par trimestre, soit un déclassement du capital de 10% par an. γz est fixé de façon à reproduire le taux de croissance moyen de la productivité sur la période. De façon similaire, la part des dépenses gouvernementales est étalonnée à sa contrepartie empirique sur la période. Ces paramètres sont communs à toutes les versions du modèle. Enfin, ν est fixé à zéro dans le modèle sans frictions réelles et le modèle à coûts d’ajustement. ν est fixé à l’unité dans le modèle avec persistance des habitudes en référence à l’étude de Bouakez et Kano (2006).

33

Le tableau 2 reporte les valeurs estimées des paramètres structurels pour les différents modèles concurrents, ainsi que la log-vraisemblance associée à chacun des modèles.

34

Une première observation se dégage du tableau 2. L’ensemble des paramètres est estimé avec précision. Ce résultat a deux raisons essentielles. La première tient au faible nombre de paramètres estimés. En restreignant notre attention aux processus des chocs et aux mécanismes de propagation centraux des modèles, nous autorisons une meilleure identification des paramètres. La seconde tient au caractère des mécanismes estimés. Les mécanismes introduits dans les modèles enrichissent la propagation des chocs et la persistance de leurs effets. Or, il est bien connu depuis les travaux de Cogley et Nason (1995) que le modèle de cycle réel canonique présente des mécanismes de propagations trop faibles au regard des données. Il n’est donc pas surprenant que les paramètres les caractérisant apparaissent significatifs lors de leur estimation. Une seconde observation tient à la constance de la volatilité du choc de productivité entre les expériences menées. Quel que soit le modèle considéré, la volatilité du choc s’établit à 1,4% par trimestre. Cette valeur est très proche de la valeur obtenue dans différentes études précédentes (voir Hansen, 1997, Chari, Kehoe et Mc Grattan, 2005). En revanche, la volatilité et la persistance du choc de préférences varie sensiblement entre les modèles. En effet, en l’absence de frictions réelles, la difficulté à reproduire la persistance observée des heures travaillées conduit l’algorithme à augmenter la persistance du choc de préférences, tandis que, pour reproduire leur volatilité, l’écart-type du choc de préférences est sensiblement réduit. Lorsque les mécanismes de propagation sont renforcés dans le modèle (modèle à coûts d’ajustement), la persistance et la volatilité du choc de préférences sont sensiblement réduites. En effet, les coûts d’ajustement lissent les fluctuations de l’investissement et ainsi de la production. La demande de travail est plus lisse et ainsi les heures travaillées à l’équilibre héritent de cette persistance. L’effet est encore renforcé lorsque le mécanisme de persistance porte directement sur les décisions d’emploi (persistance des habitudes). Cependant, dans ce cas, la décision d’offre de travail étant directement lissée, une plus forte volatilité du choc de préférences est nécessaire pour reproduire la volatilité des heures.

Tableau 2  - résultats des estimations Tableau 2
35

Le niveau de la log-vraisemblance atteint par chacun des modèles indique que le modèle VAR semble dominer l’ensemble des modélisations structurelles proposées. Il importe cependant de noter que le modèle VAR nécessite l’estimation de 19 paramètres alors que le plus complet des modèles structurels ne nécessite d’estimer que 4 paramètres. Il convient donc de nuancer quelque peu le succès du Var, et nous reviendrons sur ce point dans la prochaine section. En revanche, les résultats indiquent clairement que le modèle sans frictions réelles est dominé par les deux autres modèles. La conclusion du test est claire. Le modèle sans frictions est rejeté par les données [13]  Un test de rapport de vraisemblance montre que la restriction... [13] . Il est également intéressant de noter que les modèles avec frictions conduisent à une vraisemblance identique. Ceci suggère qu’un modèle introduisant les deux frictions ferait face à de sévères problèmes d’identification, ce qui doit nous conduire à nous interroger sur l’identification des macro-modèles récents introduisant plusieurs rigidités réelles [14]  L’estimation d’un modèle combinant persistance des... [14] .

Évaluation des modèles

36

La partie précédente a fourni une première évaluation des performances des modèles en termes de pouvoir prédictif. Le modèle VAR semble dominer l’ensemble des modèles structurels concurrents. Cette section propose d’affiner l’analyse précédente en intégrant un critère de parcimonie dans la décision et en évaluant directement le caractère prédictif de chacun des modèles [15]  Une approche complémentaire repose sur la comparaison... [15] .

37

Dans un premier temps, le tableau 3 revient sur le critère de log-vraisemblance évoqué à la section précédente en proposant un critère tenant compte à la fois du niveau de log-vraisemblance atteint par le modèle et d’un élément de parcimonie. Le tableau reporte donc les critères AIC, BIC et HQ décrits dans une section précédente. Plusieurs conclusions s’imposent. Tout d’abord, ces indicateurs confirment les mauvais résultats obtenus avec un modèle n’intégrant aucune friction réelle. En revanche, ils nous conduisent à réviser sensiblement notre jugement sur le modèle VAR. Ce dernier est pénalisé par son manque relatif de parcimonie. Si le critère AIC indique que le modèle VAR domine encore les modèles structurels intégrant des frictions réelles, les critères BIC et HQ nous indiquent en revanche que le modèle à frictions réelles domine clairement le modèle VAR. En effet, par construction, ces critères pénalisent plus fortement le manque de parcimonie que le critère AIC. Dès lors le modèle VAR, qui nécessite l’estimation de 19 paramètres, est fortement pénalisé relativement au modèle structurel. Les résultats indiquent également qu’il n’est pas possible de discriminer entre les modèles à coûts d’ajustement ou de persistance des habitudes sur la base des critères d’information fondés sur la vraisemblance.

Tableau 3  - qualité de prédiction Tableau 3
38

La démarche a-théorique prônée par Sims (1980), en caractérisant la loi jointe des données, fournit un ou til d e prév ision puissant. Il est donc particulièrement important d’évaluer le VAR sur ses capacités prédictives. La figure 2 compare les données à leur prévision à un pas réalisée par le VAR ou par le modèle structurel. Les graphiques montrent clairement que l’ensemble des modèles permet de reproduire correctement le profil des heures travaillées. En revanche, le taux de croissance de la productivité, prédit à la fois par le VAR ou les différents modèles structurels, apparaît trop lisse au regard des données. Cet excès de lissage est particulièrement flagrant pour le modèle sans frictions réelles. En effet, la modélisation de l’offre de travail à la Hansen (1985) présente la particularité que la productivité du travail est essentiellement proportionnelle à la consommation à l’équilibre. Le modèle s’articulant autour du modèle de revenu permanent, il n’est pas surprenant d’engendrer un profil temporel lisse de la produ ctivité. L’introduction de la persistance des habitudes sur le loisir permet de pallier partiellement cette insuffisance. Le taux de croissance de la productivité présente un profil similaire à celui observé dans le modèle VAR. Il convient toutefois de qualifier ce résultat. Le tableau 4 reporte ainsi des critères prédictif standard – R R 2 2,, et test de Fisher.

Tableau 4  - mesure de prédiction Tableau 4
Figure 2  - prédiction à 1 pas Figure 2
39

Le R2 des différents modèles montre clairement que tous les modèles permettent de reproduire le profil des heures de façon satisfaisante. L’ensemble des modèles présente un R2 supérieur à 0,9. Il convient cependant d’insister sur le fait que le modèle sans frictions réelles possède des qualités prédictives inférieures à celles des modèles à friction ou du VAR. Il est également intéressant de noter que le modèle avec persistance des habitudes domine légèrement le modèle VAR, quel que soit le critère retenu. Les qualités prédictives sont en revanche beaucoup plus décevantes lorsque l’attention se porte sur le taux de croissance de la productivité. Aucun modèle ne permet de prédire l’évolution du taux de croissance de la productivité, confirmant ainsi l’impression graphique laissée par la figure 2. Ainsi le modèle VAR présente un R2 inférieur à 0,1. Le R2 renforce cette conclusion, le VAR étant alors légèrement dominé par l’ensemble des modèles structurels. Le test de Fisher indique alors que seul le modèle avec persistance des habitudes est statistiquement valide au seuil de 10%. Ainsi, les qualités prédictives du modèle structurel apparaissent meilleures que celles délivrées par le modèle VAR, tout en proposant clairement une interprétation structurelle des résultats.

40

Ces résultats suggèrent que la productivité est essentiellement exogène dans ce modèle. En effet, l’examen de l’équilibre sur le marché du travail nous montre que celle-ci est essentiellement une fonction des chocs, de la consommation et du capital. Le mécanisme de substitution intertemporelle conduit à lisser le comportement de ces deux dernières variables – le lissage du capital étant renforcé par la présence de coûts à l’ajustement. Il n’est donc pas surprenant que la dynamique de la productivité soit essentiellement capturée par l’évolution des chocs, en particulier du choc technologique.

41

Il importe maintenant de vérifier que les erreurs de prévision ne présentent pas d’autocorrélation. Une telle évaluation permet en effet de jauger de la bonne spécification – en particulier de la dynamique – des modèles proposés. Les figures 3 et 4 reportent l’autocorrélation des erreurs de prévision à un pas de chacun des modèles pour le taux de croissance de la productivité d’une part et les heures travaillées d’autre part.

42

L’examen graphique montre que si les modèles structurels présentent sensiblement plu s d’autocorrélation des erreurs que le modèle Var, cette autocorrélation n’est pas significative au seuil de 5% (seuil en ligne pointillée). Ce résultat est confirmé par le tableau 5 qui reporte les tests de Box-Pierce et de Lyung-Box pour différents nombres de retard. Quel que soit le nombre de retards pris en compte pour le calcul de la statistique, les résultats indiquent que tous les modèles présentent des erreurs de prévision du taux de croissance de la productivité non autocorrélées aux seuils de 10% et de 5%. Les seules exceptions sont le modèle structurel sans frictions ou avec coût d’ajustement sur l’investissement lorsque le nombre de retard est important (k = 20).

Figure 3  - autocorrélation des erreurs de prévision (productivité) Figure 3
Figure 4  - autocorrélation des erreurs de prévision (heures travaillées) Figure 4
43

L’examen du profil d’autocorrélation des erreurs de prévision des heures travaillées par le modèle sans friction démontre clairement l’échec du modèle structurel. Le profil de la fonction d’autocorrélation est proche de celui d’un processus à composante AR(1) de coefficient de persistance égal à 0,61. Ainsi, le modèle échoue à prévoir les heures travaillées à un pas. Cet échec n’est pas surprenant dans la mesure où 4 retards sont nécessaires pour blanchir les résidus du VAR, alors que le modèle sans frictions réelles ne possède pas de mécanismes de propagation et de persistance importants. Dès que la dynamique du modèle est enrichie par des mécan ismes de persistan ce, la fonction d’autocorrélation des erreurs de prévision présente un profil semblable à celui obtenu pour le modèle VAR. En particulier, le modèle VAR, tout comme les modèles structurels avec frictions, présente une autocorrélation significative aux ordres 8,13 et 16. Le modèle à coûts à l’ajustement présente une autocorrélation à l’ordre 1 significativement différente de zéro (0,22), indiquant la présence d’une composante MA(1) dans le processus des erreurs de prévision. Cette composante est corrigée par le modèle avec persistance des habitudes qui présente un profil d’autocorrélation similaire à celui du VAR. Le modèle de persistance des habitudes supplante légèrement le modèle VAR pour des ordres d’autocorrélation élevés. Ainsi, les statistiques de Box-Pierce et de Lyung-Box conduisent au rejet de l’hypothèse nulle d’absence d’autocorrélation des erreurs de prévision du VAR pour un ordre élevé de retards. En revanche, le modèle avec persistance des habitudes ne rejette pas l’hypothèse nulle.

44

L’exercice de prévision est maintenant étendu à des prévisions hors échantillon. Chaque modèle est estimé de façon récursive vers l’avant. Un exercice de prévision à 1,4 et 8 trimestres est alors mené pour chaque estimation à partir du point terminal de chacun des sous échantillons. La date terminale varie entre 1997 :I et 1999 :IV. Le tableau 6 reporte alors les moyennes de l’erreur moyenne (EM), de l’erreur absolue moyenne (EAM) et de l’erreur quadratique moyenne (EQM) associées à chaque modèle pour un horizon de k =1,4 et 8 périodes pour les douze échantillons sur lesquels chaquemodèle a été estimé.

45

L’évolution de la productivité est toujours mieux prédite par les modèles structurels. En particulier les modèles avec friction s – mo dèle à coûts d’ajustement (MCI) et modèle avec persistance des habitudes (MHP) – dominent clairement le modèle VAR pour la prévision de la productivité. Ceci est vrai quel que soit l’horizon de prévision et quel que soit le critère d’évaluation retenu. Ce résultat doit être sensiblement mitigé en ce qui concerne les heures travaillées. Le modèle VAR présente en effet des performances supérieures pour la prévision à un trimestre de l’évolution des heures travaillées. En revanche, les modèles DSGE avec frictions permettent une prévision de meilleure qualité à des horizons supérieurs. En effet, les modèles DSGE tire ici avantage de leur cohérence interne en termes de propriété de long terme.

Tableau 5  - autocorrélation des erreurs de prévision Tableau 5
46

Au terme de cette section, il apparaît que les modèles structurels de taille réduites peuvent rivaliser avec les modèles VAR tant du point de vue de leur capacité à rendre compte de la vraisemblance des données, que de leur pouvoir prédictif. Il convient cependant de se garder de conclure à la domination des modèles structurels sur la modélisation VAR dans la mesure où les tests précédents concluent d’avantage à une propriété d’équivalence qu’à une stricte domination. La partie suivante fournit un ex emple supplémentaire de l’avantage des modèles structurels sur les modèles VAR.

Tableau 6  - prévision à k pas Tableau 6

Analyse structurelle

47

Au-delà de la capacité des modèles à prévoir l’évolution future des variables modélisées, il est également intéressant de fournir une interprétation économique des résultats. Il convient alors de se tourner vers l’analyse structurelle du modèle. Le modèle structurel fournit par construction un outil permettant une telle interprétation. Dans les modèles proposés dans la présente étude, les comportements de l’ensemble des variables sont entièrement spécifiés et les modèles permettent l’analyse de l’ensemble des agrégats macroéconomiques dans un cadre unifié. En particulier, il est possible d’étudier la dynamique de chacun des agrégats – outre ceux sur lesquels est conduite l’estimation – suite à des chocs sur la productivité totale des facteurs et/ou sur les préférences des agents. Une telle analyse n’est pas directement possible dans le cadre de lamodélisation VAR dans la mesure où les résidus des équations constitutives du VAR ne sont pas structurels. Une approche communément retenue dans la littérature consiste alors à réécrire les résidus comme une combinaison de chocs structurels orthogonaux qu’il convient alors d’identifier.

48

La représentation VAR de la dynamique du processus centré { } ,Y Y t tT t=1 est simplement donnée par :

A L I A L A L( ) ( ... )= − − − est un polynôme en 1 l’opérateur retard L, et désigne le nombre de retard du VAR. εt désigne le vecteur des innovations canoniques du processus. εt est de moyenne nulle et de matrice de variance covariance Et t { } 'ε ε =Σ. L’économiste est alors intéressé non par les innovations canoniques εt du VAR mais par des innovations structurelles, ηt. Il est admis que les innovations canoniques s’écrivent comme une combinaison linéaire des innovations structurelles :

S est une matrice non singulière. Étant donné que les données ne nous renseignent que sur les innovations canoniques, il convient de formuler certaines hypothèses sur ηt. Il est commun d’imposer l’orthogonalité des chocs structurels ainsi qu’une condition de normalisation telle que E I t t ny { } 'η η =. Ainsi, l’identification de la matrice S est assurée en résolvant :

Cependant, Σ n’impose que n n y y ( ) /+1 2 contraintes et ne permet pas ainsi d’identifier les ny2 éléments de S. Il convient alors d’imposer certaines restrictions. Dans la mesure où le VAR comprend 2 variables, Σ impose 3 restrictions. Il est donc n écess aire d’intro duire une restrictio n supplémentaire. À des fins de cohérence, le modèle VAR structurel est spécifié et identifié en conformité avec les modèles théoriques. Dans tous les modèles structurels, le choc technologique est supposé suivre une marche aléatoire avec dérive, et exerce ainsi un effet sur la dynamique de long terme de l’ensemble des variables soumises aux processus de croissance. En revanche le choc de préférences n’a qu’un effet transitoire. Nous suivons donc Blanchard et Quah (1989) et Gali (1999) et identifions le choc technologique comme le seul choc ayant un effet à long terme sur la productivité horaire. L’autre choc sera donc identifié au choc temporaire. En définissant C L A L S( ) ( )=−1 et en considérant que Yt est composé du taux de croissance de la productivité et des heures travaillées (dans l’ordre indiqué), l’identification du choc permanent impose que la matrice C (1) soit triangulaire inférieure. Dans ce cas, C (1) est fourni par la décomposition de Choleski de la matrice A A( ) ( )'1 1 1 1− − Σ. C( )1 peut ainsi être obtenu simplement à partir de l’estimation du modèle VAR. La matrice de passage, S, entre résidus canoniques, εt, et chocs structurels, ηt, est alors donnée par S A C= ( ) ( )1 1. La forme moyenne mobile infinie structurelle est alors

On en déduit alors les fonctions de réponse du modèle VAR aux chocs structurels.

49

Les figures 5 et 6 reportent les fonctions de réponse de la productivité en niveau, des heures travaillées et du produit par tête en niveau à un choc technologique et à un choc de préférences pour chacun des modèles [16]  Étant donnée la définition des variables, la réponse... [16] . L’analyse des réponses montre que le modèle VAR et le modèle sans frictions (MSF dans le graphique) diffèrent largement du point de vue de la d ynamiq ue qu’ils eng end rent. Plusieurs interprétations de ce résultat sont possibles. La première est que le schéma d’orthogonalisation des chocs dans le VAR ne permet pas d’identifier correctement les chocs technologiques et les chocs de préférences. Une seconde est que le modèle sans frictions n’est pas le bon modèle. L’analyse précédente a montré que cette dernière interprétation est la bonne dans la mesure où le modèle sans frictions ne présente pas de bonnes performances en prévision. En revanche, le modèle VAR et le modèle avec persistance des habitudes (MHP dans le graphique) engendrent une dynamique des heures très similaire. Ainsi, les fonctions de réponse aux deux chocs (i) sont de même ampleur tout au long de la trajectoire, (ii) présentent toutes deux un profil en cloche avec un pic à l’horizon 5 pour le modèle structurel et 6 pour le VAR suite à un choc technologique, et 5 pour les deux modèles, suite à un choc de préférences. Ceci vient confirmer l’analyse précédente qui concluait à l’équivalence entre les capacités prédictives du modèle VAR et du modèle structurel. Les deux modèles engendrent la même dynamique en réponse aux deux chocs. Ceci semble également suggérer que la décomposition à la Blanchard et Quah (1989) permet de bien identifier le choc technologique et le choc de préférences dans le modèle VAR, dans la mesure où les profils des réponses des heures à ces deux chocs sont semblables.

Figure 5  - fonctions de réponse – Choc technologique Figure 5
Figure 6  - fonctions de réponse – Choc de préférence Figure 6
Tableau 7  - corrélation VAR – Modèle Structurel Tableau 7
Figure 7  - décomposition historique (modèle sans frictions réelles) Figure 7
Figure 8  - décomposition historique (modèle avec coûts à l’ajustement) Figure 8
Figure 9  - décomposition historique (modèle avec persistance des habitudes) Figure 9
50

L’analyse de la dynamique de la productivité vient cependant nuancer cette conclusion. En effet, si le profil des fonctions de réponse de la productivité est très similaire à court terme entre les deux modèles, il diffère sensiblement à plus long terme. Ainsi, l’effet de long terme d’un choc de productivité est beaucoup plus faible dans le VAR que dans le modèle structurel quelle que soit la version considérée. Ce phénomène se retrouve alors dans la dynamique du produit. De la même façon, le modèle structurel engendre plus de persistance en réponse à un choc de préférences qu’à un choc transitoire dans le VAR. Ces résultats remettent en question la capacité du modèle VAR à iden tifier correctemen t tant les chocs technologiques que les chocs de préférences.

51

Afin d’illustrer ce phénomène, nous reconstruisons l’évolution conditionnelle des variables àchacun des chocs. Ceci revient à reconstruire, par exemple, la série de productivité sous l’hypothèse que seuls les chocs de productivité se sont réalisés. Dans le modèle VAR, ces séries sont obtenues en utilisant la représentation moyenne mobile infinie structurelle du mo dèle VAR. Étant donn é le schéma d’orthogonalisation retenu, ηt est composé d’un choc technologique,ηz t, et d’un choc de préférences ηχ, t. La série conditionnelle au choc technologique (resp. choc de préférences) est alors simplement reconstruite en imposant ηχ, t =0(resp. ηz t, = 0) pour tout t. Dans le modèle structurel, nous procédons de la même façon en utilisant la représentation espace-état. Les chocs technologiques et les chocs de préférences sont obtenus en appliquant un lissage de Kalman sur le modèle.

52

La corrélation entre l’innovation structurelle ηz t, du modèle VAR et les chocs technologiques de chacun des modèles est remarquablement élevée. Elle s’élève à 0,93 quel que soit le modèle. Ceci est confirmé par l’analyse des corrélations entre les séries conditionnelles issues du VAR et du modèle structurel et illustré par les figures 7-9 qui reportent le graphe des séries conditionnelles obtenues dans le modèle structurel contre celles obtenues dans le modèle VAR.

53

L’analyse des graphiques montre que les séries de produ ctivité et d’emploi reconstruites conditionnellement au seul choc technologique sont alignées le long de la droite à 45°.

54

La corrélation entre les séries issues du VAR et des modèles structurels est élevée. Ainsi cette corrélation s’élève à 0,95 pour l’évolution de la produ ctivité conditio nnelle au seul choc technologique, cette corrélation est un peu plus faible pour l’emploi dans la mesure où elle s’élève à 0,83 dans le modèle avec persistance des habitudes – modèle qui possède de bonnes propriétés en termes (i) de vraisemblance, (ii) de prévision et (iii) d’autocorrélation des résidus. Ceci semble indiquer que le modèle VAR permet d’identifier au moins aussi bien le choc technologique que le modèle structurel.

55

En revanche, les séries de productivité et d’heures travaillées conditionnelles au choc de préférences présentent une corrélation négative entre le VAR et le modèle structurel. Ceci est illustré par les graphiques 7–9. Ainsi, le modèle VAR ne permet pas d’identifier correctement le choc de préférences [17]  Ce résultat ne contredit pas les résultats précédents... [17] . Il n’autorise donc pas une analyse structurelle de la composante transitoire des données. Ceci s’explique avant tout par la faible corrélation existante entre la composante transitoire du modèle VAR et le choc de préférences issu du modèle structurel (0,17). Ceci est une illustration de la difficulté des modèles VAR à identifierséparément une composante permanente et une composante transitoire très persistante. Ainsi, les chocs identifiés par le modèle VAR et les fonctions de réponses associées doivent être interprétés avec prudence.

Conclusion

56

Les travaux récents en macroéconométrie appliquée ont montré que des modèles DSGE de grande taille incluant des frictions réelles et nominales présentaient des qualités prédictives satisfaisantes, dominant celles des modèles VAR (voir Smets et Wouters, 2003). Cet article a montré que des modèles réels de taille réduite incluant un degré minimal de frictions réelles pouvaient concurrencer les modèles VAR pour la prévision de certaines variables agrégées (dans ce cas, la productivité horaire du travail et les heures travaillées). Nous montrons en particulier qu’une modélisation structurelle intégrant un phénomène de persistance des habitudes de loisir permet de prévoir au moins aussi bien qu’un modèle VAR incluant pourtant une dynamique plus fournie. Au delà, le modèle DSGE autorise une véritable interprétation structurelle des chocs et de la dynamique qu’ils engendrent, ce que ne permet pas toujours le modèle VAR.


Annexe

Annexe A : évaluation de la log-vraisemblance

57

En appliquant l’opérateur espérance à l’équation (4), il vient simplement :

De la même façon, la matrice de variance-covariance des erreurs de prévision peut être obtenue par :

L’algorithme doit cependant être initialisé par X0 0| et P0 0|. Dans la mesure où le modèle est log-linéarisé autour de l’état stationnaire, déterministe, nous supposons que l’état initial du système correspond à cet état stationnaire. Ainsi, X0 0 0 | = e t P0 0| est don né p ar la matrice d e variance-covariance P* à l’état stationnaire

Le calcul de Xt t|−1 et Pt t|−1 nécessite celui de Xt t| et Pt t|. Ces deux dernières quantités sont obtenues par le filtre de Kalman (voir Hamilton, 1994) pour plus de détails). En définissant la matrice de gain

le meilleur prédicteur de Xt sachant l’information disponible au début de la période t (Xt t| ) est alors donné par

et la matrice de variance covariance associée, Ptt|, par

La log-vraisemblance pour la période t est alors


BIBLIOGRAPHIE

  • Blanchard O.J. et Quah D. (1989). “The Dynamic Effects of Aggregate Supply and Demand Disturbances”, American Economic Review, 79 (4), pp. 655–673.
  • Bouakez H. et Kano T. (2006). “Learning-by-Doing or Habit Formation ?”, Review of Economic Dynamics, à parraître.
  • Chari V.V., Kehoe P.J. et McGrattan E.R. (2005). A Critique of Structural VARs Using Real Business Cycle Theory, Working Paper 631, Federal Reserve Bank of Minneapolis, 2005.
  • Christiano L.J. et Fisher J.D.M. (2003). Stock Market and Investment Goods Prices : Implications for Macroeconomics, Working Paper 10031, NBER.
  • Christiano L.J., Eichenbaum M. et Evans C.L. (1999). “Monetary Policy Shocks : What Have we Learned and to What End ?”, in M. Woodford et J. Taylor, Eds, Handbook of Macroeconomics, North-Holland, chapitre 3.
  • Christiano L.J., Eichenbaum M. et Evans C.L.(2005). “Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy”, Journal of Political Economy, 113 (1), pp. 1-45.
  • Christiano L.J., Eichenbaum M. et Vigfusson R. (2004). “What Happens After a Technology Shock ?”, mimeo, Northwestern University.
  • Cogley T. et Nason J.M. (1995). “Output Dynamics in Real-Business-Cycle Models”, American Economic Review, 85 (3), pp. 492-511.
  • Del Negro M., Schorfheide F. , Smets F. et Wouters R.
  • (2006). “On the Fit and Forecasting Performance of New Keynesian Models”, Journal of Business and Economic Statistics, à paraître.
  • Eichenbaum M. et Fisher, J.D.M. (2005). “Fiscal Policy in the Aftermath of 9/11”, Journal of Money, Credit and Banking, 37 (1), pp. 1-22.
  • Eichenbaum, M., Hansen L. et Singleton K. (1988). “A Time Analysis of Representative Agent Models of Consumption and Leisure Choice under uncertainty”, Quarterly journal of Economics, 79 (4), pp. 733-48.
  • Gali J. (1999). “Technology, Employment, and the Business Cycle : Do Technology Shocks Explain Aggregate Fluctuations ?”, American Economic Review, 89 (1), pp. 249-271.
  • Gali J. et Rabanal P. (2004). “Technology Shocks and Aggregate Fluctuations : How Well Does the RBS Model Fit Postwar U.S. Data ?”, Working Paper 10636, NBER.
  • Gouriéroux C. et Monfort A. (1989). Statistique et modèles économétriques, Paris : Economica, 1989.
  • Gouriéroux C. et Monfort A. (1990). Séries temporelles et modèles dynamiques, Paris : Economica, 1990.
  • Hairault J.O. (1992).” Présentation et évaluation du Courant des Cycles Réels”, Économie et Prévision, n°106, pp. 1-22.
  • Hamilton J.D. (1994). Times Series Analysis, Princeton (NJ) : Princeton University Press.
  • Hansen G. (1985). “Indivisible Labor and the Business Cycles”, Journal of Monetary Economics, 16 (3), pp. 309-27.
  • Hansen G.D. (1997). “Technical Progress and Aggregate Fluctuations”, Journal of Economic Dynamics and Control, 21, pp. 1005-1023.
  • King R et Rebelo S. (2000). “Resuscitating Real Business Cycles”, in J. Taylor et M. Woodford, editeurs, Handbook of Macroeconomics, Elsevier.
  • Kydland F.E. et Prescott E.C. (1982). “Time to Build and Aggregate Fluctuations”, Econometrica, 50, pp. 1345-1370.
  • Lucas R. (1976). “Econometric Policy Evaluation : A Critique”, Carnegie Rochester Conference Series on Public Policy, 1, pp. 19-46.
  • Rotemberg J. et Woodford M. (1997). “ A n Optimization-Based Economet ric F ramework for the Evaluation of Monetary Policy”, in B. Bernanke et J. Rotemberg, Eds, NBER Macroeconomics Annual, Cambridge (MA) : MIT Press, pp. 297–346.
  • Sims C. (1980). “ Macroeconomics and Reality ”, Econometrica, 1980,48 (1), pp. 1-48.
  • Sims C. (1992). “Interpreting the Macroeconomic Time Series Facts : The Effects of Monetary Policy”, European Economic Review, 36 (5), pp. 975-1000.
  • Smets F. et Wouters R. (2003). “An Estimated Stochastic Dynamic General Equilibrium Model of the Euro Area”, Journal of European Economic Association, 1, pp. 1123-1175.

Notes

Nous tenons à remercier J.P. Laffargue ainsi qu’un rapporteur pour leurs nombreuses remarques et suggestions. Nous demeurons seuls responsables d’éventuelles erreurs et omissions. Celles-ci n’engagent en aucun cas la Banque de France.

[(*)]

TSE (CNRS-Gremaq et IDEI) et Banque de France (Division de la Recherche)

[(**)]

TSE (CNRS-Gremaq et IDEI) et Banque de France (Division de la Recherche) E-mail : ppatrick. feve@ univ-tlse1. fr

[(1)]

Un premier exemple connu et bien admis est l’identification des réponses de l’économie à des chocs sur la politique monétaire. Les résultats empiriques issus des modèles VAR ont fortement influencé le développement de modèles théoriques avec des rigidités nominales. Un autre exemple plus récent et controversé est l’identification d’une amélioration technologique sur l’emploi.

[(2)]

La qualification de la taille d’un modèle reste forcément arbitraire. Par grande taille, nous entendons relativement au modèle DSGE de référence qui ne fait que rarement intervenir plus de dix paramètres. À titre de comparaison, le modèle de Smets et Wouters (2003) fait intervenir plus de trente de paramètres.

[(3)]

La population est supposée constante et normalisée à l’unité.

[(4)]

L’effet d’une part variable et stochastique stationnaire des dépenses publiques est similaire, dans ce modèle, à celui d’un choc sur les préférences.

[(5)]

Dans leur article, Kydland et Prescott (1982) calibrent le processus de persistance des habitudes de façon à renforcer la substitution intertemporelle dans l’offre de travail. Cette approche a été remise en cause notamment par Eichenbaum, Hansen et Singleton (1988) qui établissent, sur données agrégées américaines, que l’offre de travail est sujette à une forte complémentarité intertemporelle.

[(6)]

Ces auteurs considèrent en effet une modélisation avec formation d’un stock d’habitudes.

[(7)]

Il faut noter que cette méthode s’applique également au modèle VAR.

[(8)]

Voir l’annexe A pour plus de détails.

[(9)]

Tout modèle VAR d’ordre peut se réécrire sous la forme (3) – (4) et alors être estimé en maximisant la log-vraisemblance.

[(10)]

L’interprétation du R2 (ou du R2 ) est toutefois délicate. En effet, seule une approximation (log-) linéaire du modèle structurel est estimée. Sous l’hypothèse que l’approximation soit de bonne qualité, l’utilisation du R2 est justifiée. Toutefois, il convient de garder à l’esprit que le vrai processus générateur des données est un modèle dynamique non-linéaire dans les variables. Dans ce contexte, le coefficient de détermination doit être interprété avec prudence. Cette même remarque s’applique pour l’utilisation de la statistique de Fisher.

[(11)]

Le taux d’emploi est ici mesuré par l’emploi rapporté à la population civile non-institutionnelle âgée de 16 ans et plus.

[(12)]

Il est connu depuis les travaux de Cogley et Nason (1995) que la manipulation de ces paramètres ne permet pas d’enrichir les mécanismes de propagation des chocs de ces modèles. L’information contenue dans les fluctuations des autres variables du modèle (consommation, investissement) ne permet pas de lever les problèmes d’identification des paramètres θ1.

[(13)]

Un test de rapport de vraisemblance montre que la restriction ϕ =0 dans le modèle avec coûts d’ajustement est rejetée par les données.

[(14)]

L’estimation d’un modèle combinant persistance des habitudes et coûts à l’ajustement sur l’investissement conduit à une estimation très imprécise du paramètre de coûts à l’ajustement, même si un test de rapport de vraisemblance conduirait à ne pas rejeter la significativité du mécanisme à un seuil de 5% (vraisemblance obtenue : 1252,74, à comparer à 1250,76 dans le tableau 2).

[(15)]

Une approche complémentaire repose sur la comparaison des modèles par les tests de modèles non-emboîtés (par exemple les tests d’englobement).

[(16)]

Étant donnée la définition des variables, la réponse du produit par tête est obtenue en additionnant celles des heures et de la productivité horaire.

[(17)]

Ce résultat ne contredit pas les résultats précédents (vraisemblances identiques des modèles VAR et DSGE, et effets des chocs technologiques identiques), puisque la contribution des chocs de préférences à la volatilité des séries est faible (voir tableau 2).

Résumé

Français

L’objet de cet article est de comparer les performances relatives desmodèlesVARetDSGE.Les modèles sont estimés par maximum de vraisemblance sur le taux de croissance de la productivité horaire du travail et les heures travaillées aux Etats-Unis pour la période 1959-2003. Nous montrons que les modèles DSGE, lorsqu’ils intègrent suffisamment de rigidités réelles (coûts d’ajustement sur l’investissement ou persistance des habitudes de loisir) ont des qualités prédictives au moins égales à celles d’un modèle VAR. Ces résultats empiriques suggèrent que, de par leur caractère structurel, les modèles DSGE doivent être préférés aux modèles VAR, notamment lorsqu’il s’agit d’identifier les chocs structurels et leurs effets sur la dynamique agrégée.

Mots-clés

  • Modèles VAR
  • Modèles DSGE
  • Méthode d’évaluation quantitative
  • Identification

English

VAR or DSGE Models: which Should One Choose? This article compares the performance of VAR and DSGE models.We use themaximum likelihood method to estimate the models for the growth rates of U.S. hourly labor productivity and hours worked in 1959-2003.We show that DSGE models, when they include sufficient real rigidities (such as adjustment costs for investment and persistence of leisure habits), display predictive qualities at least equal to those of aVARmodel. These empirical results suggest that structural characteristics make DSGE models preferable to VAR models, especially for identifying structural shocks and their effects on aggregate dynamics.

Keywords

  • VAR models
  • DSGE models
  • quantitative assessment method
  • identification

Plan de l'article

  1. Les modèles concurrents
    1. Le modèle VAR
    2. Un modèle sans frictions
    3. Extensions
  2. Estimation et critères de choix de modèles
    1. Méthode d’estimation
      1. Critères de Choix de Modèles et Tests
  3. Résultats
    1. Estimation
    2. Évaluation des modèles
  4. Analyse structurelle
  5. Conclusion

Pour citer cet article

Collard Fabrice, Fève Patrick, « Modèles VAR ou DSGE : que choisir ? », Economie & prévision 2/ 2008 (n° 183-184), p. 153-174
URL : www.cairn.info/revue-economie-et-prevision-2008-2-page-153.htm.


Article précédent Pages 153 - 174 Article suivant
© 2010-2014 Cairn.info
back to top
Feedback