CAIRN.INFO : Matières à réflexion

Introduction

1Cet article propose de mesurer la dégradation des performances de la politique monétaire conventionnelle à la suite de la crise financière de 2007. D’un point de vue factuel, la réaction des banques centrales au krach boursier a tout d’abord consisté en une baisse importante de leur taux d’intérêt directeur accompagné de mesures de politique monétaire non conventionnelles. L’objectif de ces dernières était de renforcer les canaux de transmission de la politique monétaire et d’augmenter la liquidité sur le marché monétaire pour soutenir le crédit bancaire.

2De fait, la pratique conventionnelle de la politique monétaire qui faisait consensus pendant la période de grande modération [1] a été supplantée par des mesures mieux adaptées à un environnement financier dégradé. Même si les décisions ont différé d’une banque centrale à l’autre pour tenir compte des spécificités de l’environnement financier  [2], elles s’articulent en trois catégories (Clerc [2009]) : 1) les mesures d’assouplissement quantitatif visant à suppléer aux dysfonctionnements du canal du taux d’intérêt en augmentant la liquidité des banques afin de les conduire à octroyer des crédits ; 2) les mesures d’orientation des anticipations des taux futurs consistant à s’engager sur la trajectoire future de leur taux directeur pour orienter les anticipations du marché et rapprocher les taux d’intérêt à moyen et long termes de ce taux de court terme ; 3) les mesures d’assouplissement du crédit afin de contourner le blocage du canal du crédit en conduisant la banque centrale à financer directement l’économie par l’achat de titres.

3La BCE a initialement essayé d’amortir les conséquences de la crise en agissant sur les taux d’intérêt. Contrairement aux États-Unis, au Japon ou au Royaume-Uni, la BCE s’est engagée dans une politique de quantitative easing très tardivement. Elle s’est, au départ, plutôt attachée à utiliser de manière non conventionnelle la politique de taux d’intérêt : modification du corridor (resserrement, puis déplacement vers le bas) grâce à différentes politiques (LTRO, SMP, OMT, etc.). La politique non conventionnelle commence véritablement en décembre 2011, avec la mise en place du programme VLTRO à trois ans, mais surtout en septembre et décembre 2014 avec le lancement des nouveaux programmes T-LTRO.

4L’objectif de cette étude est de reprendre la grille de lecture offerte par le modèle de synthèse de la nouvelle économie keynésienne (NEK) qui prévalait avant la crise pour évaluer cette baisse de performance de la politique monétaire conventionnelle au sein de la zone euro. On s’intéresse plus particulièrement aux conséquences de la crise financière sur l’arbitrage entre la variance de l’activité et la variance de l’inflation. Cette mesure de la performance de la politique monétaire initialement proposée par la courbe de Taylor [1979], a été reprise par Cecchetti, Flores-Lagunes et Krause [2006] et Boivin et Giannoni [2006] pour apprécier les gains associés à l’adoption du ciblage d’inflation par les pays de l’OCDE dans les années 1990. Nous étendons cette démarche à la période qui a suivi la crise financière afin de mesurer la baisse de la performance de la politique conventionnelle. Pour cela nous estimons un modèle de la NEK sur des données des pays de la zone euro sur la période allant du 1er trimestre 1999 au 1er trimestre 2015 par le maximum de vraisemblance bayésien. Nous distinguons trois sous-périodes caractérisées par des performances macroéconomiques distinctes (la période qui a précédé la grande modération, la période de la grande modération puis la période débutant après le déclenchement de la crise financière).

5Pour apprécier l’impact de la crise financière sur la performance de la politique monétaire dans la zone euro, nous procédons en deux étapes. Dans un premier temps, nous estimons la courbe de Taylor qui caractérise la combinaison optimale de la variance de l’activité et de la variance de l’inflation sur la période qui a suivi la crise financière, et nous la comparons à celle qui prévalait pendant la grande modération. Dans un second temps, nous évaluons l’évolution trimestrielle de l’efficacité de la politique monétaire, en distinguant les fluctuations dues au déplacement de la courbe de Taylor et celles provenant de l’écart entre la pratique constatée de la politique monétaire (estimée sur la base d’une règle simple) et la règle optimale.

6Nos résultats s’attachent tout d’abord à caractériser l’évolution de l’arbitrage optimal entre la variance de l’activité et la variance de l’inflation défini par la courbe de Taylor. Les résultats montrent également que la règle de taux d’intérêt optimale réagit plus fortement à la fois à l’évolution des prix (compte tenu du risque de déflation, l’élasticité du taux d’intérêt au taux d’inflation passe de 1,75 à 1,91) et à l’évolution de l’activité (l’élasticité de l’évolution optimale du taux d’intérêt à cette variable passe de 0,021 à 0,32). De fait, l’arbitrage décrit par la courbe de Taylor s’avère plus favorable à l’activité après la crise financière que durant la période de grande modération. Au-delà de cette détérioration de l’environnement au sein duquel est menée la politique monétaire, une seconde série de résultats mesure la détérioration de la performance de la politique monétaire en termes d’écart à la frontière efficace. Si l’on retrouve la très nette amélioration de l’efficacité de la politique conventionnelle soulignée par Cecchetti, Flores-Lagunes et Krause [2006] et Boivin et Giannoni [2006] pendant la période de la grande modération (en fait entre 2002 et 2007), on observe un très net décrochage de celle-ci à partir de 2009. De manière notable, les écarts à la courbe de Taylor dépendent depuis cette date pour l’essentiel de la plus forte variance de l’activité, phénomène original comparé aux deux autres sous-périodes de notre étude.

7Le plan de l’article est le suivant : la première section rappelle les principales conclusions de l’analyse conventionnelle qui prévalait avant 2007. La deuxième présente notre démarche économétrique. La troisième est consacrée à l’étude de la courbe de Taylor et à l’évolution de l’efficacité de la conduite de la politique monétaire en comparant la période qui a suivi la crise de 2007 à la grande modération. La dernière conclut.

Le monde d’hier : un retour sur le modèle de synthèse de la nouvelle économie keynésienne

8Le cadre d’analyse de la NEK [3] qui prévalait avant la crise financière [4] repose sur une description de l’économie fondée sur une relation de Phillips nouvelle keynésienne (du côté offre) et sur une relation IS intertemporelle (du côté de la demande). Ce cadre permet de comparer deux pratiques de la politique monétaire fondées sur le contrôle du taux d’intérêt : la première utilise une règle monétaire simple (telle la règle de Taylor) qui décrit la réaction du taux d’intérêt à l’évolution de l’écart de production et de l’inflation ; la seconde est basée sur la minimisation d’une fonction de perte représentant les préférences de la société en termes de stabilisation de ces deux variables sous contrainte de l’arbitrage inflation-activité [5]. La parcimonie de ce cadre d’analyse permet une présentation rapide des mécanismes à l’origine de la politique monétaire conventionnelle et une distinction de la politique simple d’une règle optimale (qui sert de fondement à l’estimation de la frontière d’efficacité) [6].

Le secteur privé de l’économie

9La première équation (courbe IS intertemporelle) décrit une relation négative entre la demande agrégée et le taux d’intérêt : en maximisant son bien-être, le ménage va allouer son revenu de façon intertemporelle entre consommation et épargne en fonction du taux d’intérêt par un phénomène de lissage. Selon cette relation d’Euler, une hausse du taux d’intérêt incite le ménage à épargner, alors qu’une baisse l’incite à consommer [7]. Dans cet article, nous prenons en compte les habitudes de consommation, et la version log-linéarisée de la relation d’Euler permet d’obtenir une version hybride de la relation IS qui relie l’écart de production courant (ŷt) à sa valeur passée (ŷt–1), à sa valeur future anticipée (Etŷt+1), au taux d’intérêt réel courant equation im1, et à un choc de demande εDt :

10

equation im2

11Dans cette équation, le paramètre 0 ≤ h < 1 est le niveau d’inertie de l’écart de production (résultant des habitudes de consommation des ménages), σC > 0 représente l’élasticité de substitution intertemporelle de la consommation et le choc de demande est un processus autorégressif d’ordre 1 de la forme :

12

equation im3

13où 0 ≤ ρD < 1 est un terme autorégressif, l’innovation se décrivant par equation im4. Ce choc pousse le ménage à accroître ses dépenses de consommation en sortant de son lissage de consommation, ce qui stimule la production et l’inflation.

14La deuxième équation est la nouvelle courbe de Phillips. Comme dans sa version originelle (Phillips [1958]), la relation de Phillips combinée à la loi d’Okun permet d’obtenir un lien direct entre écart de production et taux d’inflation. Le fondement microéconomique de cette relation est décrit du point de vue d’une firme proposant un bien différencié imparfaitement substituable aux autres biens dans le panier de consommation des agents. Dans ce cadre de concurrence monopolistique, cette firme ne peut ajuster son prix de vente que de manière discontinue dans le temps (selon le mécanisme de Calvo [1983]), créant de fait une rigidité nominale. Une fois ce comportement agrégé sur l’ensemble des firmes et après log-linéarisation, cette nouvelle courbe de Phillips lie le taux d’inflation courante (equation im5) à l’inflation passée (equation im6), à l’inflation anticipée (equation im7), à l’écart de production courant (ŷt) et à un choc d’offre qui pousse les prix à la hausse (εSt). Elle a la forme suivante :

15

equation im8

16Dans cette équation, le paramètre 0 ≤ ξ < 1 représente le degré de persistance de l’inflation tel que décrit par Galí et Gertler [1999], 0 ≤ β < 1 est le facteur d’escompte, 0 ≤ θ < 1 est le degré de rigidité des prix tandis que σL > 0 est l’élasticité frischienne. Le choc d’offre est un processus autorégressif d’ordre 1 de la forme :

17

equation im9

18où 0 ≤ ρS < 1 est le terme autorégressif tandis que l’innovation se décrit par equation im10 Ce choc capte tous les mouvements de prix exogènes au modèle tels que les chocs sur le prix des matières premières.

La politique monétaire

19Dans ce cadre, la règle monétaire suivie par les autorités permet de préciser l’évolution du taux d’intérêt permettant d’atteindre l’équilibre macroéconomique. Deux types de règles monétaires sont prises en compte : les règles simples (qui décrivent comment la politique monétaire est menée de manière pragmatique par les banques centrales) et les règles de politique monétaire optimale (qui décrivent comment la politique monétaire devrait être menée sur la base d’une maximisation du bien-être des agents).

20La règle simple habituellement prise en compte dans les modèles de la NEK est la règle de Taylor, qui relie le taux d’intérêt nominal choisi par la banque centrale au taux d’inflation et au niveau de l’écart de production de l’économie. Elle s’écrit :

21

equation im11

22Le paramètre 0 ≤ ρ < 1 mesure le degré de lissage du taux d’intérêt, ϕπ ≥ 1 est le degré de réaction de la politique monétaire au taux d’inflation et ϕy à l’écart de production. Une valeur ϕπ ≥ 1 (principe de Taylor) est nécessaire au caractère stabilisateur de cette règle, afin qu’une variation du taux d’intérêt nominal se traduise par un ajustement du taux d’intérêt réel qui affecte l’écart de production (via la relation IS) et donc l’inflation (via la relation de Phillips). Le choc de taux d’intérêt εRt est un processus autorégressif d’ordre 1 de la forme :

23

equation im12

24où 0 ≤ ρR < 1 est le terme autorégressif tandis que l’innovation se décrit par equation im13 Ce choc capte toutes décisions de politique monétaire qui sortent de la règle de Taylor (ancrage des anticipations d’inflation, politique de forward guidance, etc.).

25En cas de mise en œuvre d’une règle simple, le modèle de synthèse de la nouvelle économie keynésienne se compose des relations 1, 2 et 3, et permet de calculer les variances de l’inflation et de la production correspondant à une conduite de la politique monétaire conventionnelle telle que celle généralement mise en œuvre par la plupart des banques centrales des pays de l’OCDE sur les trois dernières décennies.

26La règle de politique monétaire optimale est quant à elle généralement définie en termes de règle d’objectif (tel que l’arbitrage optimal entre l’inflation et l’écart de production) pouvant être atteint compte tenu des caractéristiques de l’économie. La politique monétaire est alors fondée sur la minimisation d’une fonction de perte par les autorités tenant compte de l’écart de production et de l’inflation telle que :

27

equation im14

28Le paramètre 0 ≤ γ < 1 représente la préférence de la banque centrale pour la stabilité des prix et (1 – γ) celle pour la stabilité de l’écart de production [8]. Cette fonction est minimisée sous contrainte de l’arbitrage inflation-activité autorisé par la structure productive de l’économie et résumé par la relation de Phillips [9]. La combinaison des conditions du premier ordre solution de ce problème permet d’établir la règle d’objectif suivie par les autorités :

29

equation im15

30Comme indiqué dans cette relation, le taux marginal de substitution entre l’inflation et l’écart de production dépend de paramètres reliés aux préférences des autorités en termes de biais de stabilisation et des caractéristiques de la fonction d’offre de l’économie (prenant en compte la rigidité des prix, la préférence pour le présent, l’aversion au risque de consommation et l’élasticité frischienne). La combinaison de cette relation avec la courbe de Phillips permet de relier les fluctuations de l’écart de production ou celles du taux d’inflation lorsque les autorités suivent cette politique :

31

equation im16

32

equation im17

33La règle de taux d’intérêt permettant d’atteindre ce résultat est obtenue en introduisant les relations 6 et 7 dans la relation IS 1. La politique optimale a des implications sur la variance de l’activité et celle de l’inflation. Ainsi que le montrent ces deux équations, l’évolution de ces deux variables ne dépend que des chocs d’offre agrégés. Cette règle de taux neutralise totalement l’impact des chocs de demande sur les fluctuations de l’inflation et de l’écart de production. En cas de choc de demande, la politique monétaire conduite de manière optimale peut atteindre deux objectifs (la stabilité des prix et la fermeture de l’écart de production) et, de fait, permettre une « coïncidence divine » (Blanchard et Galí [2005]).

34Contrairement à un choc de demande, un choc d’offre confronte les autorités à un arbitrage entre la stabilisation des fluctuations de l’activité et celle des fluctuations de l’inflation. Les conditions de cet arbitrage sont définies graphiquement par la courbe de Taylor. Cette relation est définie comme l’ensemble des points caractérisés par la combinaison d’une variance minimale de l’inflation et de l’écart de production. Dans le premier graphique de la figure 1, les points situés en dessous de cette courbe T0T0 (tel le point B) sont inatteignables, tandis que ceux situés au-dessus (tel le point A) sont inefficaces (c’est-à-dire qu’ils offrent une combinaison entre la variance de l’inflation et celle de l’activité moins favorable que sur la courbe). Le long de la courbe de Taylor, chaque point est caractérisé par le fait que les autorités monétaires accordent un poids différent à l’objectif de stabilité des prix γ. Ainsi, dans le deuxième graphique de la figure 1, le passage du point C au point D le long de la courbe T1T1 s’explique par le fait que les autorités accordent un poids moins important à la stabilité des prix par rapport à celle de l’écart de production. De même, dans le deuxième graphique de la figure 1, l’emplacement de la courbe est déterminé par la taille des chocs d’offre subis par l’économie. Ainsi, une plus faible amplitude de chocs d’offre rapproche la courbe de Taylor de l’origine des axes (passage de la courbe T1T1 à la courbe T2T2). Enfin, dans le troisième graphique de la figure 1, la pente de la courbe est affectée par les caractéristiques techniques de l’économie. Une réduction de la variance de l’inflation nécessite une plus forte augmentation de la variance de l’activité le long de la courbe T3T4 (passage du point E au point G) que le long de la courbe T3T3 (passage du point E au point F). De fait, l’élasticité de l’inflation à l’écart de production dans la relation de Phillips NEK donné par l’équation 2 est plus faible le long de la courbe T3T4 que le long de la courbe T3T3.

Figure 1

Représentation graphique de la courbe de Taylor

Figure 1

Représentation graphique de la courbe de Taylor

35Dans la suite de cet article, nous estimons la courbe de Taylor caractérisant la conduite d’une politique monétaire optimale dans la zone euro et précisons dans quelle mesure la pratique observée (à partir de l’estimation d’une règle simple) a dévié de cette politique optimale. L’évolution des performances de la politique monétaire conventionnelle au cours de la période d’analyse (et en particulier à la suite de la crise financière) peut ainsi tenir compte de la modification de l’environnement (c’est-à-dire du déplacement de la courbe de Taylor) et de l’efficience de la mise en œuvre de la politique monétaire (l’écart entre la combinaison des variances obtenues sous la règle simple et celle des variances obtenues le long de la courbe de Taylor).

Estimation du modèle

36Nous estimons le modèle à trois équations en utilisant des techniques bayésiennes et de l’information a priori comme Smets et Wouters [2007]. Nous détaillons successivement les caractéristiques des séries temporelles utilisées, les résultats de l’estimation et la qualité de l’ajustement du MEGIS (modèle d’équilibre général intertemporel stochastique) en comparant les fonctions de réponses impulsionnelles qu’il permet d’obtenir avec celles d’un modèle VAR.

L’environnement macroéconomique

37Le cadre présenté dans la section précédente décrit l’équilibre macroéconomique sur la base de trois variables : l’activité, l’inflation et le taux d’intérêt. Les séries temporelles utilisées pour ces variables dans cet article sont extraites de la base de données Area-Wide Model (AWM) qui est la référence pour les modèles de prévision de la BCE pour la zone euro [10]. L’échantillon couvre la période 1970T1 à 2015T1 et chaque série dispose de 181 observations. Nous utilisons le PIB, le déflateur du PIB et le taux d’intérêt nominal fixé par la banque centrale [11]. Nous enlevons la tendance de la population divisant le PIB par la population active (15-65 ans), puis nous prenons le PIB en termes réels. Nous exprimons le PIB réel par habitant et le déflateur du PIB en termes de croissance. Enfin, le taux d’intérêt est fixé sur une base trimestrielle.

38La figure 2 illustre les séries transformées utilisées dans l’exercice d’ajustement. Ces trois graphiques permettent de résumer simplement l’évolution macroéconomique observée sur l’intégralité de la période de l’analyse.

Figure 2

Séries utilisées dans l’estimation

Figure 2

Séries utilisées dans l’estimation

39Le taux de croissance de la production tend à décroître sur la période (la tendance est représentée en pointillés) et à fluctuer autour d’un taux de croissance moyen de 0,5 % par trimestre. On observe un décrochage notable autour de 2008 correspondant aux conséquences de la crise financière. L’évolution des prix sur la période souligne très nettement la baisse du taux d’inflation à partir du début des années 1980, puis sa stabilisation à un niveau faible à compter de la fin des années 1990. L’évolution du taux d’intérêt est comparable puisque celui-ci baisse à compter de la seconde moitié des années 1980.

40Le tableau 1 présente les résultats du test de Dickey-Fuller augmenté (ADF) pour chaque série en niveau et en log différences. La production et le prix sont stationnaires (au seuil de 10 %) une fois passés en différence première. Le taux d’intérêt est également stationnaire au seuil de 10 % [12]. De fait, nous considérons que les séries de production et de prix en log différences, ainsi que celle du taux d’intérêt sont des processus intégrés d’ordre un.

Tableau 1

Tests de racine unitaire

Tableau 1
Variables en niveaux Variables en log différences t-stat p-value t-stat p-value Production – 2,12 0,53 – 5,87 0,01 Prix – 0,85 0,96 – 3,27 0,08 Taux d’intérêt – 3,24 0,08

Tests de racine unitaire

Note : Les t-statistiques sont données pour l’hypothèse nulle de la présence d’une racine unitaire pour chaque série, basées sur un test ADF avec quatre retards, une constante et un trend.

41Il est nécessaire de s’assurer que les résidus du modèle VAR ne sont pas autocorrélés. Dans le cas contraire, le modèle serait mal spécifié. Le test du portemanteau nous indique que nous ne pouvons pas rejeter l’hypothèse nulle d’absence d’autocorrélation jusqu’à l’ordre 12 dans les résidus du modèle au seuil de 5 %. Pour ce qui est de la détermination du nombre de retards du modèle VAR, nous nous appuyons sur les valeurs de l’AIC et optons pour un ordre égal à 4, ce qui correspond à la solution retenue par Bac [2001].

Calibration et estimation des paramètres

42Dans notre analyse, une partie des paramètres structurels du modèle est calibrée [13]. En relation avec les valeurs communément retenues dans la littérature, nous calibrons le facteur d’actualisation β à 0,995 (correspondant à un taux d’actualisation de 0,5 % par trimestre) et la substituabilité des biens à 6 (ce paramètre n’étant pas correctement identifié car il disparaît lors de la log-linéarisation du modèle).

43Les paramètres qui affectent les dynamiques conjoncturelles sont estimés par le maximum de vraisemblance bayésien (Miao [2014] ; An et Schorfheide [2007]). Cette méthode combine la vraisemblance du modèle économétrique avec des croyances a priori sur les paramètres du modèle et leur distribution de probabilité. Cette approche s’est imposée à la suite des travaux de Smets et Wouters [2003] montrant qu’un MEGIS avec suffisamment de paramètres estimables, de chocs et de rigidités est capable d’expliquer les fluctuations macroéconomiques de la zone euro aussi bien qu’un VAR non contraint. Une autre raison justifiant l’emploi de l’inférence bayésienne vient de ce que les MEGIS sont mal spécifiés et que l’information contenue dans les données est insuffisante. L’ajout de croyances a priori permet de pallier ces carences informationnelles. Le modèle est relié aux données en utilisant les trois équations de mesures suivantes :

44

equation im21

45yobst, πobst et robst présentent respectivement les vecteurs de données du taux de croissance du PIB réel, du taux d’inflation et du taux d’intérêt nominal en écart à la moyenne.

46Les croyances a priori ont été fixées en relation avec les hypothèses le plus souvent retenues dans la littérature. Outre le choix d’un a priori sur la valeur du paramètre, la démarche économétrique nécessite le choix d’une distribution de probabilité pour le paramètre. En suivant la littérature et selon les cas, nous retenons l’une des quatre distributions suivantes : la distribution normale (notée N), la distribution Bêta (notée B, pour les paramètres compris entre 0 et 1), la distribution Gamma inverse (notée IG, destinée à l’estimation de la variance des chocs, ce qui assure des a priori relativement diffus et sur un support positif) et la distribution Gamma (G, pour des a priori encore plus diffus sur un support également positif). La signification de chacun des paramètres estimés, sa valeur et son écart type sont reportés dans le tableau 2.

Tableau 2

Distributions a priori et a posteriori du modèle estimé

Tableau 2
Distributions a priori Distributions a posteriori Mode par sous-période Forme Moy. EC Moy. [5 % ; 95 %] Infl. Mod. Post-crise Paramètres structurels Risque de consommation σC G 2,00 0,50 3,979 [3,062 ; 4,885] – – – Désutilité du travail σL G 2,00 0,75 1,631 [0,656 ; 2,575] – – – Habitudes h B 0,70 0,10 0,421 [0,313 ; 0,527] 0,457 0,420 0,688 Réaction à l’inflation ϕπ N 2,00 0,15 1,979 [1,767 ; 2,198] 2,089 2,155 1,991 Réaction à l’output gap ϕy G 0,15 0,05 0,052 [0,024 ; 0,080] 0,067 0,090 0,161 Lissage du taux d’intérêt ρ B 0,80 0,10 0,835 [0,792 ; 0,880] 0,851 0,819 0,836 Loterie de Calvo θ B 0,50 0,10 0,825 [0,779 ; 0,873] 0,763 0,811 0,912 Indexation des prix ξ B 0,50 0,15 0,122 [0,042 ; 0,199] 0,232 0,163 0,212 Processus de choc Écart type choc d’offre σS IG 0,10 2,00 0,181 [0,118 ; 0,244] 0,326 0,138 0,047 Écart type choc demande σD IG 0,10 2,00 0,047 [0,035 ; 0,059] 0,091 0,033 0,232 Écart type choc de taux σR IG 0,10 2,00 0,182 [0,155 ; 0,209] 0,229 0,113 0,079 Terme AR(1) – offre ρS B 0,80 0,10 0,994 [0,989 ; 0,999] 0,988 0,990 0,775 Terme AR(1) – demande ρD B 0,80 0,10 0,941 [0,914 ; 0,970] 0,842 0,928 0,613 Terme AR(1) – taux ρR B 0,20 0,20 0,471 [0,358 ; 0,581] 0,362 0,292 0,287 Log vraisemblance – 271,35

Distributions a priori et a posteriori du modèle estimé

Note : Moy. représente la moyenne du paramètre, EC l’écart type de la distribution choisie, N décrit une distribution normale, G une distribution Gamma, B une distribution Bêta et IG une distribution Gamma inverse. La colonne « Infl. » est le mode estimé sur la sous-période de grande inflation entre 1970T2-1986T4, « Mod. » sur la sous-période de la grande modération entre 1987T1-2007T4, et « Post-crise » sur la période après-crise entre 2008T1-2015T1.

47Pour les paramètres σC, σL, h, θ, ξ, ϕπ, ϕy et ρ (dont la signification est donnée dans le tableau 2) et les paramètres des processus de choc, nous suivons Smets et Wouters [2003], [2007]. Nos résultats sont dans l’ensemble assez standard, étant donné notre petit modèle avec frictions très limitées, et restent assez proches de ceux de Smets et Wouters [2003] pour la zone euro. Pour l’essentiel des paramètres, les informations données par les séries temporelles permettent d’améliorer l’ajustement (c’est-à-dire les distributions a posteriori diffèrent des distributions a priori). On note toutefois quelques exceptions, telles que l’élasticité du taux d’intérêt au taux d’inflation qui est dominée par sa valeur a priori (comme c’est souvent le cas dans la littérature).

48Le tableau 2 reporte les estimations obtenues pour l’ensemble de l’échantillon, puis détaille le mode estimé pour les paramètres de la règle de Taylor, l’ajustement des prix et les processus de choc pour trois sous-périodes (la sous-période inflationniste préalable à la grande modération 1970T2-1986T4, la grande modération 1987T1-2007T4, et la période de post-crise 2008T1-2015T1). Sur l’ensemble de la période, les valeurs estimées pour les paramètres sont en général en phase avec celles obtenues dans la littérature. La valeur estimée du paramètre d’aversion au risque de consommation (σC = 3,979) nous conduit à rejeter une fonction d’utilité logarithmique (impliquant σC = 1) L’élasticité frischienne (σC = 1,631) et la valeur du paramètre d’habitude de consommation (h = 0,421) sont inférieures aux valeurs postulées, soulignant la relative faible persistance des décisions de consommation en moyenne au sein de la zone. Le paramètre de loterie de Calvo (θ = 0,825) est très proche de la valeur postulée et de celle généralement retenue dans la littérature (qui correspond à des rigidités de prix d’une durée de trois trimestres), tandis que le paramètre d’indexation des prix (ξ = 0,122) a une valeur relativement faible comparée à celle de Smets et Wouters [2003].

49Pour ce qui concerne les paramètres de la règle simple (représentée dans le tableau 2), comme souvent dans la littérature, le choix d’une valeur a priori élevée, correspondant à une politique orientée vers la stabilité des prix, affecte significativement la valeur a posteriori du paramètre (ϕπ = 1,979). La distinction entre sous-périodes montre que le poids affecté à la lutte contre l’inflation dans la règle simple est clairement plus important durant la grande modération (2,155) qu’au cours de la période qui a suivi la crise de 2007 (1,991). À l’inverse, la réaction de la règle simple à l’écart de production (ϕy = 0,052) est très faible sur l’ensemble de la période. Toutefois, on observe qu’une estimation par sous-période [14] fait remonter la valeur de ce paramètre (qui atteint 0,161 pour la sous-période post-crise). À noter que l’inertie de la règle de taux d’intérêt est assez élevée (ρ = 0,835)

50Pour ce qui concerne les processus de chocs, on observe que les écarts types du choc d’offre et de taux d’intérêt sont nettement plus forts que pour les chocs de demande. En ce qui concerne la persistance des chocs, les valeurs des processus autorégressifs sont en accord avec les valeurs généralement observées dans la littérature (forte persistance des chocs d’offre, moyenne persistance des chocs de demande et faible persistance des chocs de politique monétaire). Comme attendu, la période de la grande modération se traduit par une baisse significative de l’écart type des chocs par rapport à la période qui l’a précédée. La période qui a suivi la crise financière se caractérise quant à elle par une très forte augmentation de l’écart type du choc de demande (qui passe de 0,033 à 0,232). De même, l’autocorrélation des chocs d’offre et de demande baisse de manière significative au cours de la sous-période de post-crise (de 0,990 à 0,775 pour le choc d’offre et de 0,928 à 0,613 pour le choc de demande).

Les fonctions de réponse impulsionnelles

51On apprécie dans quelle mesure le modèle estimé reflète la diffusion des chocs d’offre et de demande en comparant les fonctions de réponse impulsionnelles bayésiennes du modèle à celles obtenues à l’aide d’un VAR(4). Pour le MEGIS, on reporte les réponses simulées à la suite d’un choc dont la taille est donnée par l’écart type calculé par le modèle. Sur la forme, toutes les réponses du MEGIS sont en accord avec celles généralement obtenues dans la littérature.

52La figure 3 décrit les conséquences d’un choc positif de marge (ηS > 0) qui induit une augmentation de l’inflation. Ce choc permet de représenter les déterminants de l’inflation exogènes au modèle (tels que les chocs sur le prix de l’énergie). Dans le cadre de synthèse retenu dans cet article, ce choc affecte négativement l’activité réelle et augmente le taux d’inflation. Il conduit la banque centrale à augmenter son taux d’intérêt afin de lutter contre l’inflation, ce qui affecte négativement l’activité via la relation IS (le taux d’intérêt réel diminue compte tenu de la réaction plus que proportionnelle du taux d’intérêt nominal au choc d’inflation). La vitesse de retour des agrégats à leur valeur d’équilibre est en partie retardée par la valeur du coefficient d’autocorrélation du choc d’offre, qui est élevée.

Figure 3

Fonctions de réponse à un choc d’offre positif pour le MEGIS et pour le modèle VAR accompagnées de leur intervalle de confiance à 90 %

Figure 3

Fonctions de réponse à un choc d’offre positif pour le MEGIS et pour le modèle VAR accompagnées de leur intervalle de confiance à 90 %

53En comparaison, l’information véhiculée par le VAR(4) indique que la réponse impulsionnelle à un choc d’offre est caractérisée par une chute de l’activité dont la valeur initiale et la durée sont comparables à celles obtenues par le MEGIS. Le profil de diffusion du choc sur l’inflation présenté par le MEGIS est en partie comparable au VAR : les deux modèles diffèrent en ce qui concerne la reproduction de l’ajustement du taux d’intérêt à la suite de ce choc, la réponse impulsionnelle du VAR étant statistiquement non significative.

54La figure 4 décrit les conséquences d’un choc positif de demande (ηD > 0) qui affecte la relation IS du modèle. Ce choc prend en compte les innovations associées des chocs de politique budgétaire ou de préférence des agents qui ne sont pas pris en compte dans la partie déterministe de la relation IS. Comme cela est documenté de manière standard dans la littérature, un choc de demande positif conduit à une augmentation de l’activité et du taux d’inflation dans l’économie, cette dernière étant nécessaire au maintien de l’équilibre sur ce marché. Cette augmentation du taux d’inflation conduit la banque centrale à augmenter son taux d’intérêt, ce qui a un effet positif sur le taux d’intérêt réel. Au fur et à mesure que le temps passe, cette réaction de politique monétaire amortit l’inflation et referme l’écart de production.

Figure 4

Fonctions de réponse à un choc de demande positif pour le MEGIS et pour le modèle VAR accompagnées de leur intervalle de confiance à 90 %

Figure 4

Fonctions de réponse à un choc de demande positif pour le MEGIS et pour le modèle VAR accompagnées de leur intervalle de confiance à 90 %

55Pour l’activité, on peut noter la proximité de la dynamique d’ajustement décrite par le MEGIS avec la réponse impulsionnelle du VAR. Les réponses du VAR sont en décalage avec celles du modèle pour l’inflation et le taux d’intérêt. Dans les deux cas, le profil des fonctions impulsionnelles offertes par les deux modèles reste comparable. L’amplitude des impulsions du MEGIS est significativement plus importante (surtout pour le taux d’inflation). Toutefois, pour les trois variables la persistance de l’ajustement reste comparable.

La contribution des chocs aux fluctuations conjoncturelles

56La figure 5 reporte l’évolution du PIB, du taux d’intérêt et de l’inflation au cours de la période utilisée pour les estimations. Elle reporte le lien entre les fluctuations de chacune des variables et les chocs d’offre, de demande et de politique monétaire. Les résultats sont présentés en écart au trend de croissance moyen sur l’ensemble de la période. De fait, compte tenu de l’évolution macroéconomique observée dans la figure 2, les taux d’intérêt et les taux d’inflation ont une valeur positive au début de la période d’estimation, tandis qu’ils sont nettement négatifs en écart à partir de la première moitié des années 1990, compte tenu de leur baisse tendancielle au cours de la période d’analyse. L’évolution du PIB, quant à elle, fluctue autour de zéro (en particulier, elle ne présente pas la distinction observée pour les taux d’intérêt et d’inflation avant et après les années 1990). La figure 6 permet d’apprécier la nature distinctive de la crise de 2007 qui se traduit par une forte baisse de l’activité et une réaction importante de la politique monétaire conduisant à réduire fortement le taux d’intérêt. L’impact est moins notable sur l’inflation (qui retrouve des niveaux observés pour les années 1990).

Figure 5

Contribution des chocs aux fluctuations des séries de PIB, de taux d’intérêt et d’inflation

Figure 5

Contribution des chocs aux fluctuations des séries de PIB, de taux d’intérêt et d’inflation

57La contribution des chocs est reportée pour chaque variable, en utilisant le modèle à trois équations comme grille de lecture. Comme on le voit, la réaction du taux d’intérêt est principalement affectée par les chocs de demande que subit l’économie, alors que les deux autres variables, activité et inflation, combinent de manière plus équilibrée les chocs d’offre et de demande. La crise de 2007 induit une plus forte variation du PIB, tiré par un choc d’offre et un choc de demande négatifs, tandis que le choc de politique monétaire positif tend à amortir la contribution des deux chocs précédents sur l’activité. Le choc de demande capture en partie les conséquences négatives de la crise financière ayant conduit à la dépression économique. Ce choc est renforcé par un choc déflationniste. La concomitance de ces deux chocs induit de fait une forte dépression de l’activité. La faible réactivité de la politique monétaire constatée ne permet pas d’amortir significativement la réduction de l’activité et la baisse du taux d’inflation.

58Il est possible de compléter cette analyse en comparant l’évolution du taux d’intérêt directeur de la BCE et la valeur obtenue à partir de la règle de Taylor estimée dans cet article (cf. figure 6). Comme on le voit, la stabilisation des chocs aurait nécessité une réduction plus franche de ce taux, voire un taux d’intérêt négatif en fin de période [15]. Ainsi, en tenant compte du fait qu’après 2008 la zone euro a connu un choc de demande négatif qui s’est transformé en choc déflationniste (choc d’offre négatif), la figure 6 montre comment une règle de taux d’intérêt standard peut se révéler inefficace pour faire remonter l’inflation à son niveau d’avant-crise après que la zone euro a subi un choc inflationniste très important. À noter que les deux courbes ne coïncident que temporairement au cours de l’année 2013, et à compter de 2014, la stabilisation macroéconomique aurait nécessité un taux d’intérêt négatif.

Figure 6

Comparaison entre le taux d’intérêt directeur observé et le taux estimé à l’aide de la règle de Taylor

Figure 6

Comparaison entre le taux d’intérêt directeur observé et le taux estimé à l’aide de la règle de Taylor

La courbe de Taylor et l’efficacité de la politique monétaire conventionnelle : quelle rupture avec la crise ?

59Pour apprécier l’impact de la crise financière sur la performance de la politique monétaire dans la zone euro, nous procédons en deux étapes. Dans un premier temps, nous examinons l’arbitrage inflation-activité de la banque centrale en comparant la période d’après-crise avec les deux autres grandes périodes économiques qui l’ont précédée. Dans un second temps, nous évaluons l’évolution trimestrielle de l’efficacité de la politique monétaire, en distinguant les fluctuations dues au déplacement de la courbe de Taylor et celles provenant de l’écart entre la pratique constatée de la politique monétaire et la règle optimale. La règle optimale est obtenue en minimisant la fonction de perte décrite dans l’équation 4. La règle optimale se distingue de la règle estimée par la valeur des paramètres ρ, ϕπ et ϕy de réaction dans la règle monétaire visible dans l’équation 3.

Périodes d’inflation, de grande modération et d’après-crise

60Nous mettons ici en perspective la courbe de Taylor caractérisant l’arbitrage optimal entre la variance de l’activité et celle de l’inflation observée depuis la crise financière (2008T1 à 2015T1), avec celle obtenue pour la période inflationniste (1970T2 à 1986T4) et celle correspondant à la période de la grande modération (1987T1 à 2007T4). Pour chacune des trois sous-périodes nous obtenons une représentation de la courbe de Taylor en combinant les variances obtenues sous une règle optimale pour l’activité et l’inflation en faisant varier la préférence des autorités pour la stabilité des prix γ. Cet exercice nous permet d’apprécier dans quelles mesures l’arbitrage inflation-activité a pu évoluer au cours des cycles de la zone euro (et avant sa création).

61Les courbes de Taylor résultant de nos estimations sont reportées dans la figure 7. Les trois sous-périodes présentent des différences notables. Ainsi, la courbe caractérisant la grande modération est proche de l’origine des axes, témoignant d’une baisse significative des chocs d’offre au cours de cet épisode comparée à la sous-période précédente. La période qui suit la crise financière de 2007 présente des caractéristiques spécifiques. Deux aspects, associés aux caractéristiques de la règle optimale de taux d’intérêt, sont à noter : d’une part, la variance optimale maximale de l’activité décroît très fortement ; d’autre part, la pente est plus raide, traduisant un arbitrage qui se fait désormais plus en faveur de l’activité : la zone euro apparaît ainsi prête à accepter une plus forte augmentation de la variance de l’inflation pour réduire celle de l’activité.

Figure 7

Évolution des courbes de Taylor optimales dans le temps (courbes d’efficience optimales)

Figure 7

Évolution des courbes de Taylor optimales dans le temps (courbes d’efficience optimales)

62Chaque courbe de Taylor de la figure 7 est dessinée en faisant varier γ entre 0 et 1. Il est possible de déterminer un point unique associé à une valeur de γ, noté γW qui maximise le bien-être du ménage [16]. Cette valeur unique de γW nous permet à la fois de calculer une politique monétaire optimale, au sens où elle apporte le maximum d’utilité aux ménages européens, et de donner un aperçu des changements de préférences des banques centrales au cours du temps. Les résultats récapitulant les règles estimée et optimale par sous-période sont reportés dans le tableau 3. La fonction de perte des autorités estimée sur l’ensemble de la période couverte par l’analyse attribue un poids de γW = 0,88 à la variance de l’inflation (ce qui est en ligne avec la valeur γW = 0,8 choisie arbitrairement par Cecchetti, Flores-Lagunes et Krause [2006]). Une analyse par sous-période montre que ce poids tend à augmenter au cours du temps : compte tenu du traitement symétrique des variations de prix (inflation/déflation) dans cette fonction, on peut attribuer l’augmentation de ce poids à la volonté de stabiliser les prix face à un risque accru de déflation, phénomène plus dangereux que l’inflation. Inversement, la grande période d’inflation des années 1970 se traduit par un poids plus faible dans les objectifs de stabilisation des banques centrales nationales.

Tableau 3

Règles de politique monétaire observée et optimale

Tableau 3
Règle monétaire estimée Préférence d’inflation Règle monétaire optimale Période ρ ϕπ ϕy γW ρ* ϕ*π ϕ*y Totale – 1970T2-2015T1 0,84 1,94 0,05 0,88 0,93 35,84 0,23 Inflationniste – 1970T2-1986T4 0,85 2,09 0,07 0,70 0,96 44,76 0,82 Grande modération – 1987T1-2007T4 0,82 2,16 0,09 0,83 0,94 31,39 0,39 Après-crise – 2008T1-2015T1 0,84 1,99 0,16 0,94 0,91 20,17 3,40

Règles de politique monétaire observée et optimale

63La règle optimale évolue entre la période de grande modération et la période qui suit la crise financière. Outre la diminution du poids de réaction à l’inflation ϕ*π (on passe de 31,39 à 20,17), la différence majeure concerne la réaction du taux d’intérêt à l’évolution de l’écart de production qui grimpe après la crise (on passe de 0,39 à 3,40). De fait, la règle optimale se traduit par un poids plus fort sur la stabilité de l’activité. De même, elle devient relativement plus réactive aux développements contemporains (le coefficient d’autocorrélation du taux d’intérêt passe de 0,94 à 0,91).

Évolution de la performance de la politique monétaire

64La courbe de Taylor offre un aperçu sur la conduite d’une politique monétaire optimale. Cependant, empiriquement on observe que la politique monétaire conduite diffère largement de celle souhaitable. Comme on pouvait déjà le voir dans le premier graphique de la figure 1, il existe un écart important entre la politique effective et la politique optimale qui donne une métrique objective à l’efficacité de la politique monétaire conduite.

65Une originalité importante consiste ici à calculer et à analyser l’efficacité de la politique monétaire au cours du temps. Pour apprécier cette performance, nous procédons à l’étude de la courbe de Taylor en employant une fenêtre glissante de quarante trimestres prenant en compte la règle d’intérêt optimale de la période considérée. La première fenêtre débute ainsi en 1970T2 et s’achève en 1980T1, la suivante débute en 1970T3 et se termine en 1980T2, etc., et ce, jusqu’à la fin de l’échantillon. Pour chaque fenêtre t, nous calculons les variances de l’inflation et du PIB des données simulées par le modèle, ainsi que celles des données simulées dans le cas d’une politique monétaire optimale. Dans ce qui suit, nous choisissons par convention de faire correspondre la date de fin de fenêtre aux variances que nous calculons pour chaque t.

66En suivant Cecchetti, Flores-Lagunes et Krause [2006], nous calculons des indicateurs de la performance de la politique monétaire. Nous définissons la performance macroéconomique comme une moyenne des variances de l’activité et de l’inflation pondérée par le paramètre de préférences de l’arbitrage inflation-activité :

67

equation im29

68Cet indice de performance est calculé à l’aide des variances obtenues à partir de la résolution et de l’estimation du modèle sous la règle monétaire estimée (c’est-à-dire un modèle combinant les équations 1, 2 et 3). Le même calcul est effectué avec les valeurs des variances sous le régime monétaire optimal (c’est-à-dire un modèle combinant les équations 1, 2 et 4) [17]. La mesure traduit la variabilité des chocs d’offre :

69

equation im30

70La mesure de l’inefficacité de politique monétaire proposée par Cecchetti, Flores-Lagunes et Krause [2006] combine les équations 8 et 9 comme suit :

71

equation im31

72Ces trois indicateurs Pt, St et Et sont obtenus pour chacune des 139 fenêtres étudiées à partir des données. Plus Et est grand, moins la politique monétaire mise en œuvre est efficace, car elle est éloignée de sa frontière d’efficience.

73Dans le premier graphique de la figure 8, nous reportons en gras l’évolution de l’indice de performance Pt calculé sur la base de la règle estimée et en traits fins l’indice St qui tient compte des valeurs minimales des variances de l’activité et de l’inflation obtenues à l’aide de la conduite d’une politique optimale. L’inefficacité Et s’observe par l’écart entre ces deux indicateurs. Comme cela est représenté dans la figure 1, on retrouve en partie des éléments soulignés précédemment pour l’évolution de l’emplacement de la courbe de Taylor. Sur la base d’une analyse continue de la période, les deux premières sous-périodes ne recoupent pas exactement les dates retenues pour le calcul de la courbe de Taylor précédente : la première période voit sa durée s’allonger (de 1980 à 2002). La période pendant laquelle on peut considérer que la courbe de Taylor est la plus proche des axes (c’est-à-dire la période au cours de laquelle la valeur des chocs d’offre subis dans l’économie est la plus faible) est réduite à 2002-2008. Par contre, on retrouve très nettement le décrochage de la courbe de Taylor à partir de 2008, ce décrochage persistant jusqu’à la fin de la période étudiée dans cet article.

Figure 8

Performance, chocs d’offre et inefficacité

Figure 8

Performance, chocs d’offre et inefficacité

74L’écart entre les deux courbes est reporté dans le second graphique de la figure 8. On voit qu’une fois corrigée de l’amplitude des chocs subis par l’économie, la politique monétaire conventionnelle a vu sa performance évoluer tout au long de la période. Cette évolution de l’efficience peut être répartie en trois sous-périodes : au cours de la première sous-période, on observe une très nette amélioration de l’efficacité de la politique monétaire (l’indicateur calculé se rapproche très clairement de l’origine des axes). La période 2002-2008 qui a été caractérisée par une baisse de l’amplitude des chocs s’est aussi caractérisée par une forte efficience de la politique monétaire. Cette période va durer jusqu’à la crise financière. Par contraste, la période débutant après la crise financière a combiné un éloignement de la courbe de Taylor de l’origine des axes avec une très nette détérioration de l’efficience de la conduite de la politique monétaire (le point de performance s’éloignant de la courbe de Taylor).

75Pour visualiser plus facilement la perte d’efficacité de la politique monétaire conventionnelle à la suite de la crise, on peut calculer la valeur trimestrielle moyenne de la distance E. Sur l’ensemble de la période cette valeur s’établit à 0,348. Au cours des cinq meilleures années de la grande modération (soit entre 2002 et fin 2007), cette valeur baisse à 0,147 avant de remonter à 0,224 à la suite de la crise, soit une détérioration de la performance trimestrielle de 52 %.

76La figure 9 reporte l’évolution des écarts types des chocs d’offre, de demande et de politique monétaire en faisant glisser notre fenêtre t. On observe ainsi très nettement la stabilisation de l’environnement économique qui a caractérisé la grande modération par rapport à la période inflationniste qui l’a précédée. Dans cette représentation, le choc financier est capté à travers une forte innovation du côté de la demande en 2008.

Figure 9

Écart type des chocs d’offre, de demande et de taux d’intérêt

Figure 9

Écart type des chocs d’offre, de demande et de taux d’intérêt

77Ces éléments concernant l’évolution de la performance de la politique monétaire conventionnelle sont complétés par la figure 10 afin d’apprécier dans quelle mesure l’écart des performances à la frontière efficace provient d’une plus forte variance de l’inflation ou de l’activité. La contribution de la volatilité de l’inflation (représentée en gris) et celle de la volatilité de l’activité (représentée en noir) y correspondent à la distance euclidienne entre la performance et le point correspondant sur la courbe de Taylor. Cette distance est définie comme suit :

78

equation im34

79La mesure de la distance se décompose donc en deux parties. La part de la première dans le calcul de la distance est due à l’écart entre la variance de l’inflation observée et celle dans des conditions optimales (Cπt) tandis que la part de la seconde est due à l’écart entre la variance observée du PIB et celle obtenue dans des conditions optimales (Cyt).

80

equation im35

81

equation im36

82Comme on le voit, les trois sous-périodes présentent des différences marquantes en termes de contribution à l’inefficacité de la politique conventionnelle. La période inflationniste se caractérise par une inefficacité engendrée essentiellement par l’inflation. Le tournant des années 1990 marque un changement important : les crises de change au sein du système monétaire européen créent une volatilité de l’activité coûteuse pour l’efficacité de la politique monétaire. En revanche, la fin de la période de la grande modération s’accompagne de la création de la zone euro et de la Banque centrale européenne, digne héritière de la Bundesbank, qui met en place une politique monétaire remarquablement proche de sa frontière d’efficience. Cette période montre un équilibre entre coûts liés à l’inflation et coûts liés à l’activité. Il reprend une place considérable à la suite de la crise financière puisque les écarts à la courbe de Taylor dépendent presque exclusivement de la variance de l’activité. Ce phénomène semble en accord avec l’impact de la crise financière sur l’activité capté par des chocs de demande négatifs sur toute la période (cf. figure 9).

Figure 10

Contributions de la volatilité de l’inflation et de la volatilité de l’activité à la distance euclidienne

Figure 10

Contributions de la volatilité de l’inflation et de la volatilité de l’activité à la distance euclidienne

Conclusion

83Cet article a proposé de revenir sur le cadre conventionnel qui prévalait avant la crise et d’apprécier dans quelles conditions cet environnement économique et la politique monétaire qu’il préconisait ont été affectés à la suite de la transmission de la crise financière.

84La comparaison des performances obtenues par une règle de politique monétaire optimale et de celles obtenues à partir de l’estimation d’une règle simple permet d’apprécier l’évolution de l’efficience de la politique monétaire conventionnelle. Au vu des courbes de Taylor, la période qui suit la crise financière de 2007 présente des caractéristiques spécifiques. En particulier, la pente est plus raide, traduisant un arbitrage optimal qui se fait désormais plus en faveur de l’activité. D’autre part, la crise financière se traduit par une détérioration notable des performances de la politique monétaire, l’écart à la frontière donnée par la courbe de Taylor augmentant de manière significative après la période de la grande modération. Cette évolution va à l’encontre de la très nette amélioration de l’efficacité de la politique monétaire notée au cours de la période 2002-2008. Enfin, l’essentiel de l’écart est expliqué par la plus forte variance de l’activité, phénomène original comparé à la période de la grande modération.

85L’exercice mené dans cet article souffre de plusieurs limites. Tout d’abord, en adoptant une vision qui prévalait avant la crise financière, il reprend l’idée selon laquelle, dans un environnement où il n’y avait pas de chocs importants, il fallait « caler » la croissance et l’inflation sur des trajectoires relativement stables. Dans ce contexte, l’approche théorique de fonder microéconomiquement les politiques économiques optimales à l’aide de fonctions où l’on cherche à minimiser les variances de l’inflation et de la production semblait justifié. Or, la crise de 2008 a été un choc qui a pris plusieurs aspects : un choc récessif qui a eu comme conséquence d’ouvrir durablement l’output gap, un choc déflationniste conduisant les banques centrales à chercher désespérément à retrouver les niveaux d’inflation passés.

86De même, le cadre retenu néglige les frictions financières qui sont au cœur de la littérature qui s’est développée dans une seconde génération, ou l’apparition de la barrière zéro sur les taux d’intérêt nominaux qui apparaît pour la zone euro en fin de période. Néanmoins, au-delà de ces limites, nos résultats soulignent la forte dégradation de la performance de la politique monétaire conventionnelle et permettent de justifier l’utilisation de nouveaux instruments non conventionnels qui s’avèrent nécessaires afin de suppléer à une pratique de la politique monétaire qui était centrée prioritairement sur la stabilité des prix, dans un environnement macroéconomique calme. À ce titre, la nécessité de réduire fortement le taux d’intérêt (voire de suivre une politique de taux négatif) apparaît clairement.

Nous remercions deux référés anonymes ainsi que Pierre Morin qui nous ont permis, par leurs remarques, d’améliorer de manière notable cet article.

Notes

  • [*]
    CREM, UMR CNRS 6211, Université Rennes 1. Correspondance : CREM-CNRS, 7 place Hoche, 35065 Rennes Cedex, France. Courriels : ewen.gallic@univ-rennes1.fr, jean-christophe.poutineau@univ-rennes1.fr (auteur correspondant)
  • [**]
    Université Paris-Dauphine et PSL Research University, Paris. Correspondance : Université Paris-Dauphine, Place du Maréchal de Lattre de Tassigny, 75016 Paris, France. Courriel : gauthier@vermandel.fr
  • [1]
    En suivant Cecchetti et Ehrmann [1999], le consensus partagé par l’essentiel des banques centrales avant la crise de 2007 peut être résumé à l’aide de trois idées : 1) l’objectif principal de la politique monétaire était de maintenir un taux d’inflation faible et stable, cette politique ayant aussi un impact à long terme à travers l’ancrage des anticipations des agents ; 2) la conduite des actions de politique monétaire était basée sur le contrôle d’un taux d’intérêt directeur ; 3) le contrôle des risques financiers était dévolu au niveau microprudentiel par l’instauration de règles prudentielles imposées aux établissements de crédit. La confiance générale qui prévalait avant la crise dans cette vision de la politique monétaire peut en partie s’expliquer par le fait que les économies de l’OCDE connaissaient depuis le début des années 1990 une période de grande modération caractérisée par la baisse des variances de l’inflation et de l’activité. De fait, un an avant la crise financière, Stephen Cecchetti (Cecchetti, Flores-Lagunes et Krause [2006]) n’hésitait pas à déclarer : « Today economists have a much better understanding of how to implement monetary policy than they did as recently as twenty years ago. To succeed in keeping inflation low and stable while at the same time keeping real growth high and stable, central bankers must focus on raising interest rates when inflation goes up and lowering them when inflation goes down. »
  • [2]
    Le programme mis en œuvre par la Banque centrale européenne (BCE) à la suite de la crise financière a pris en compte la nature intermédiée du système financier de la zone euro. La forme de cette politique a évolué dans le temps afin de s’adapter aux conditions macroéconomiques et financières. Au cours d’une première phase (de 2007 à 2013), les mesures de politique monétaire ont essentiellement cherché à lubrifier le fonctionnement du marché financier dans un cadre où les anticipations d’inflation étaient parfaitement ancrées. Le programme de rachat d’actifs financiers mis en œuvre pour assurer la liquidité du secteur bancaire s’est notamment traduit par une augmentation importante du bilan de la BCE. Depuis 2013, les mesures ont été plus directement orientées vers la lutte contre le risque déflationniste dans un contexte où les anticipations de long terme sont orientées à la baisse. Les nouvelles mesures introduites à partir de juillet 2013 ont ainsi consisté en une politique d’orientation des anticipations des taux futurs et en une extension du programme de rachat des dettes privées aux titres de dette souveraine.
  • [3]
    Pour une présentation exhaustive de ce cadre, voir par exemple Clarida, Galí et Gertler [1999] ou De Vroey [2016].
  • [4]
    La crise financière a conduit à amender ce modèle sur trois points principaux. Tout d’abord, elle a conduit à la prise en compte des facteurs financiers et des frictions financières dans la construction du cadre d’analyse avec la redécouverte de l’accélérateur d’investissement. Ensuite, concernant les mesures de politiques monétaires, elle a amené les banques centrales à prendre des mesures de politique « non conventionnelles », c’est-à-dire utilisant d’autres instruments que le taux d’intérêt directeur. Enfin, la troisième innovation majeure a été le développement de politiques macroprudentielles, venant compléter la politique monétaire afin de contenir l’apparition du risque systémique générateur de déséquilibres financiers et portant atteinte aux canaux de transmission de la politique monétaire.
  • [5]
    Les conditions du premier ordre solution de ce problème de minimisation sous contrainte peuvent être combinées pour obtenir une règle d’objectif (l’arbitrage optimal entre l’écart de production et l’inflation) et une règle d’instrument (précisant la réaction optimale du taux d’intérêt directeur aux chocs, compte tenu des préférences sociales en termes de stabilité des prix).
  • [6]
    Il convient de conserver à l’esprit les conséquences économétriques du cadre retenu pour cette analyse. En particulier, la zone est supposée homogène et fermée aux échanges extérieurs, le modèle ignore le capital et la possibilité d’une trappe à liquidité (au cours de la période, la trappe à liquidité définie comme un taux d’intérêt nul n’est observée qu’à la fin de l’analyse, rendant sa modélisation non nécessaire pour le reste de l’étude). Les limites de ce cadre sont connues : dans le modèle proposé, l’absence de capital rend l’évolution de l’emploi, de la consommation, très proche de celle de la production. Les séries de consommation, d’investissement et d’emploi ne sont donc pas incluses dans les cibles empiriques, alors que leurs comportements dans le cycle (volatilité en particulier) sont très différents. Pour une analyse plus exhaustive d’un modèle, voir Smets et Wouters [2003] qui présentent un modèle pour la zone euro ou Poutineau et Vermandel [2015] pour un modèle d’union monétaire hétérogène.
  • [7]
    Pour une discussion des limites de cette hypothèse et de l’importance de la nature du patrimoine de l’agent sur sa consommation, voir Arrondel, Lamarche et Savignac [2014].
  • [8]
    L’équation 5 montre qu’on ne peut avoir une économie sans variabilité de l’écart de production et de l’inflation. La banque doit faire un arbitrage, déterminé par γ. À titre illustratif, on peut imaginer que la Bundesbank a une préférence plus importante pour la lutte contre l’inflation comparativement à celle de la Réserve fédérale américaine.
  • [9]
    Formellement, le problème revient à minimiser la fonction 4 sous 2 par rapport à equation im38 et ŷt. La consolidation des deux conditions du premier ordre obtenues en utilisant le multiplicateur de Lagrange affecté à l’équation 2 permet d’obtenir la relation 5.
  • [10]
    Les données sont calculées par l’agrégation des observations des pays membres de la zone euro avec comme référence pour le poids de chaque pays dans l’agrégation la valeur du PIB aux prix de marché en parité de pouvoir d’achat de 1995. Les données avant 1996 sont obtenues en prenant en compte uniquement les membres de la zone euro à onze (Allemagne, Autriche, Belgique, Espagne, Finlande, France, Irlande, Italie, Luxembourg, Pays-Bas et Portugal), les données subséquentes tiennent également compte des membres de la zone euro élargie à dix-neuf pays (Chypre, Estonie, Grèce, Lettonie, Lituanie, Malte, Slovaquie et Slovénie). Plus de détails sur l’agrégation sont disponibles en annexe 2 du document de travail de la BCE de Fagan, Henry et Mestre [2001].
  • [11]
    Les données sont des moyennes trimestrielles du taux d’intérêt de court terme. Avant la mise en place de la zone euro, la valeur reportée correspond à la moyenne des taux des banques centrales. De ce fait, le profil de la courbe ne reflète qu’imparfaitement le profil de « marche d’escalier » traditionnellement reporté sur données mensuelles.
  • [12]
    Les problèmes de non-stationnarité des données empêchant de calculer la variance-covariance inconditionnelle peuvent être traités en diffusant le filtre de Kalman sur les éléments non stationnaires de la matrice de variance-covariance.
  • [13]
    Certains paramètres sont réputés mal identifiés, c’est-à-dire que lors de l’inférence bayésienne, les données n’apportent aucune information pour déterminer la valeur estimée de ces paramètres. Dès lors, il est convenu de calibrer ces paramètres plutôt que de tenter en vain de les estimer.
  • [14]
    La fonction de vraisemblance combinée aux a priori étant non linéaire, on n’obtient pas nécessairement sur les sous-périodes les mêmes valeurs que sur la période totale (l’espérance d’un paramètre sur toute la période n’est pas forcément la moyenne de ce paramètre sur les sous-périodes). Il suffit par exemple qu’une valeur de l’autocorrélation des chocs bouge pour affecter le résultat.
  • [15]
    Ce phénomène est comparable à celui mis en évidence pour la politique de la Fed après 2009 notamment par Rudebusch [2009].
  • [16]
    Woodford [2003] montre que la fonction d’utilité du ménage peut être réécrite comme une fonction de perte exprimée en termes de volatilité d’inflation et d’output gap de la forme de l’équation 4. En développant la fonction d’utilité du ménage de notre modèle, nous pouvons ainsi déterminer une valeur optimale de γ au sens où elle représente le bien-être du ménage. Plus de précisions sont données dans les annexes techniques de l’article.
  • [17]
    Techniquement, nous minimisons la fonction de perte (maximisant l’utilité du ménage avec γW = 0,88 visible dans le tableau 3) en choisissant pour chaque élément de la fenêtre t les coefficients optimaux ρ*, ϕ*π et ϕ*y.
Français

Cet article évalue dans quelle mesure la crise financière de 2007 a affecté la mise en œuvre d’une politique monétaire conventionnelle dans la zone euro. Cette question est abordée dans un cadre théorique reprenant le modèle de synthèse de la nouvelle économie keynésienne qui prévalait avant la crise de 2007. On observe que la crise a fortement réduit la performance de la politique conventionnelle après la détérioration de l’arbitrage entre la variance de l’inflation et celle de l’activité (telle que définie par la courbe de Taylor), et après la dégradation de son efficacité (telle que mesurée à partir de l’écart à la courbe de Taylor provenant d’une forte augmentation de la contribution de l’output gap). Les valeurs de taux d’intérêt simulées par notre modèle montrent que la BCE aurait dû fixer des taux d’intérêt inférieurs à ceux observés, qui plus est négatifs en fin de période. De nouveaux instruments non conventionnels s’avèrent de fait nécessaires afin de suppléer à une pratique de la politique monétaire qui était centrée prioritairement sur la stabilité des prix, dans un environnement macroéconomique calme.

Références bibliographiques

  • En ligneAn S. et Schorfheide F. [2007], « Bayesian Analysis of DSGE Models », Econometric Reviews, 26 (2-4), p. 113-172.
  • En ligneArrondel L., Lamarche P. et Savignac F. [2014], « Consommation et patrimoine des ménages : au-delà du débat macroéconomique… », Économie et Statistique, 472, p. 21-48.
  • En ligneBac C. [2001], « Arbitrage entre fluctuations de l’inflation et de l’activité au niveau de la zone “euro” », Économie & prévision, 150 (4), p. 47-58.
  • Blanchard O. et Galí J. [2005], « Real Wage Rigidities and the New Keynesian Model », NBER Working Paper, 11806.
  • En ligneBoivin J. et Giannoni M. P. [2006], « Has Monetary Policy Become More Effective? », The Review of Economics and Statistics, 88 (3), p. 445-462.
  • En ligneCalvo G. [1983], « Staggered Prices in a Utility-Maximizing Framework », Journal of Monetary Economics, 12 (3), p. 383-398.
  • Cecchetti S. G. et Ehrmann M. [1999], « Does Inflation Targeting Increase Output Volatility? An International Comparison of Policymakers’ Preferences and Outcomes », NBER Working Paper, 7426.
  • En ligneCecchetti S. G., Flores-Lagunes A. et Krause S. [2006], « Has Monetary Policy Become More Efficient? A Cross-Country Analysis », The Economic Journal, 116 (511), p. 408-433.
  • Clarida R., Galí J. et Gertler M. [1999], « The Science of Monetary Policy: A New Keynesian Perspective », NBER Working Paper, 7147.
  • Clerc L. [2009], « Les mesures non conventionnelles de politique monétaire », Focus, 4, 23 avril, Banque de France.
  • En ligneDe Vroey M. [2016], A History of Macroeconomics from Keynes to Lucas and Beyond, Cambridge, Cambridge University Press.
  • Fagan G., Henry J. et Mestre R. [2001], « An Area-Wide Model (AWM) for the Euro Area », European Central Bank Working Paper, 42.
  • En ligneGalí J. et Gertler M. [1999], « Inflation Dynamics: A Structural Econometric Analysis », Journal of Monetary Economics, 44 (2), p. 195-222.
  • Miao J. [2014], Economic Dynamics in Discrete Time, Cambridge (Mass.), MIT Press.
  • En lignePhillips A. W. [1958], « The Relation between Unemployment and the Rate of Change of Money Wage Rates in the United Kingdom, 1861-1957 », Economica, 25 (100), p. 283-299.
  • En lignePoutineau J.-C. et Vermandel G. [2015], « Cross-Border Banking Flows Spillovers in the Eurozone: Evidence From an Estimated DSGE Model », Journal of Economic Dynamics and Control, 51 (C), p. 378-403.
  • Rudebusch G. D. [2009], « The Fed’s Monetary Policy Response to the Current Crisis », FRBSF Economic Letter, 2009-17.
  • En ligneSmets F. et Wouters R. [2003], « An Estimated Dynamic Stochastic General Equilibrium Model of the Euro Area », Journal of the European Economic Association, 1 (5), p. 1123-1175.
  • En ligneSmets F. et Wouters R. [2007], « Shocks and Frictions in US Business Cycles: A Bayesian DSGE Approach », The American Economic Review, 97 (3), p. 586-606.
  • En ligneTaylor J. B. [1979], « Estimation and Control of a Macroeconomic Model with Rational Expectations », Econometrica, 47 (5), p. 1267-1286.
  • Woodford M. [2003], Interest and Prices Foundations of a Theory of Monetary Policy, Princeton, Princeton University Press.
Ewen Gallic [*]
Jean-Christophe Poutineau [*]
Gauthier Vermandel [**]
  • [**]
    Université Paris-Dauphine et PSL Research University, Paris. Correspondance : Université Paris-Dauphine, Place du Maréchal de Lattre de Tassigny, 75016 Paris, France. Courriel : gauthier@vermandel.fr
Cette publication est la plus récente de l'auteur sur Cairn.info.
Mis en ligne sur Cairn.info le 27/09/2017
https://doi.org/10.3917/reco.hs02.0063
Pour citer cet article
Distribution électronique Cairn.info pour Presses de Sciences Po © Presses de Sciences Po. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...