Home
RIPENSANDO LA POLITICA MACROECONOMICA, MA SU QUALI BASI? E-mail
Economia reale
di Edoardo Gaffeo
05 marzo 2010
blanchard fmiLa proposta ha fatto scalpore, oltre che per il contenuto in sé, soprattutto per la sede dalla quale è stata lanciata. Partendo dall’esperienza della recente crisi globale, un paper firmato da Olivier Blanchard (chief economist del Fondo Monetario Internazionale) e da due suoi colleghi, Giovanni Dell’Ariccia e Paolo Mauro, si propone di rileggere il quadro teorico di riferimento e “ripensare” la politica macroeconomica.

La proposta ha fatto scalpore, oltre che per il contenuto in sé, soprattutto per la sede dalla quale è stata lanciata. Partendo dall’esperienza della recente crisi globale, un paper firmato da Olivier Blanchard (chief economist del Fondo Monetario Internazionale) e da due suoi colleghi, Giovanni Dell’Ariccia e Paolo Mauro, si propone di rileggere il quadro teorico di riferimento e “ripensare” la politica macroeconomica, arrivando ad una conclusione tutt’altro che scontata: se le banche centrali vogliono davvero favorire la stabilità dei prezzi e dell’attività economica aggregata, d’ora in avanti il valore del tasso d’inflazione che esse pongono come obiettivo della politica monetaria deve essere innalzato. Nel caso della BCE e della FED, ad esempio, occorrerebbe passare dall’attuale 2% al 4%.

Per capire sia la ratio che la portata pratica della proposta, è necessario seguire rapidamente il ragionamento svolto da Blanchard e soci. Nonostante le lusinghe contenute nel titolo, occorre segnalare con un po’ di delusione che dal punto di vista teorico abbiamo ben poco di nuovo sotto il sole. Il modello di riferimento continua ad essere quello utilizzato da alcuni anni praticamente da tutte le banche centrali in giro per il mondo (il cosiddetto modello New-Keynesian DSGE), che prevede la presenza di un tasso naturale di disoccupazione ed una curva di Phillips di lungo periodo verticale. Secondo questo approccio, la gestione attiva del tasso di interesse è finalizzata al perseguimento della stabilità dei prezzi – sotto l’ipotesi che ne seguirà in maniera consequenziale la stabilità del PIL (secondo il principio della divine coincidence) – mentre la stabilità del sistema finanziario e il controllo delle bolle speculative deve essere affidata all’attività di regolamentazione prudenziale degli intermediari e dei mercati, eventualmente rivista per tener conto di effetti sistemici.

Considerando da un lato che l’inflazione genera di per sé effetti distorsivi (beneficiando i debitori a scapito dei creditori e alterando i prezzi relativi), e dall’altro che un tasso di inflazione pari a zero è pericoloso (perché il vincolo di non-negatività dei tassi di interesse nominali rende la politica anticiclica inefficace proprio quando serve, facilitando l’insorgere di deflazione durante le fasi recessive), numerose ricerche  hanno indicato come ottimale un tasso di inflazione compreso tra l’1% e il 2% (vedi qui e qui ). Perché nel mondo post-crisi l’obiettivo deve essere alzato, allora? I motivi sono due. Il primo è che nei modelli NK-DSGE utilizzati per quei calcoli si ipotizza di solito un meccanismo di trasmissione della politica monetaria “monco” degli effetti moltiplicativi legati all’acceleratore finanziario, in base al quale una recessione riduce i profitti ed il capitale netto dei prenditori di fondi che, essendo ora più rischiosi per chi presta, sono maggiormente esposti a razionamenti del credito. Se il tasso di inflazione obiettivo è troppo basso, la banca centrale ha un’alta probabilità di sbattere contro il “vincolo zero” del tasso di interesse nominale proprio quando la recessione è amplificata dal meccanismo accelerativo legato all’esacerbarsi dei vincoli finanziari. In condizioni normali, un tasso inflazione attorno al 4% implica tassi di interesse nominali attorno al 6-7%, assegnando alla banca centrale una quantità maggiore di munizioni in caso di necessità.

Il secondo motivo è strettamente legato al primo. Quando la politica monetaria diventa inefficace a causa del “vincolo zero”, l’unica politica macroeconomica anticiclica a disposizione rimane la leva fiscale. Nel caso di situazioni congiunturali eccezionali, si tratta tuttavia di una medicina con effetti collaterali differiti molto rischiosi. È pur vero che sopra la soglia del 3% il tasso di inflazione sembra incidere negativamente sulle prospettive di crescita (vedi qui ), ma le distorsioni di breve e di lungo periodo generate da bilanci pubblici in dissesto e da livelli di indebitamento sovrano fuori controllo sono con ogni probabilità di gran lunga più pericolose. Le recenti fibrillazioni legate al caso Grecia, i timori di contagio ad altri paesi dell’area Euro fortemente indebitati (se non addirittura alla Gran Bretagna e agli USA), e la diffusa incertezza sulle modalità di attuazione di una exit strategy dai massicci interventi di sostegno in deficit spending segnalano che il ragionamento è fondato.

Un’ovvia critica, rilanciata tra gli altri da John Taylor dalle colonne del Wall Street Journal, è legata alla possibilità che l’aumento dei target inflazionistici porti le banche centrali a perdere – in tutto o in parte  la loro capacità di “ancorare” le aspettative inflazionistiche del settore privato: “se dici il 4%, perché non il 5% o il 6%? C’è qualcosa che la gente comprende quando si parla di inflazione zero”. Le parole di Taylor suggeriscono un’idea interessante: quanto maggiore è il tasso d’inflazione fissato come obiettivo, tanto maggiore è la distanza da un vero e proprio “punto focale” che il pubblico utilizza come regola del pollice per farsi i conti in tasca, ancorare le proprie aspettative individuali e coordinarsi (vedi qui ). Perdere contatto dal punto focale significa innescare dinamiche divergenti e pericolose per una variabile come l’inflazione, dotata di un grado di persistenza estremamente elevato. Stabilire se il punto focale sia proprio lo 0% (e non il 2%, o il 4%) è un problema empirico, che Taylor stesso non affronta. Il cambio di prospettiva su cui vale la pena soffermarsi sta tuttavia nell’introdurre aspetti sulla psicologia umana che il modello NK-DSGE (basato sull’idea di comportamenti e aspettative razionali) trascura, e che sono alla base di un filone di letteratura noto come economia comportamentale. Entrare in quest’ottica permette di “aumentare” il quadro teorico di riferimento per la conduzione della politica monetaria, e consente di aggiungere due ulteriori commenti, uno a favore e uno contrario alla posizione di Blanchard, Dell’Ariccia e Mauro.

Il punto a favore della proposta di aumento del target d’inflazione è già stato sollevato da Paul Krugman , e si basa sul fatto che per questioni legate in gran parte ai concetti di giustizia ed equità, i salari nominali sono estremamente rigidi verso il basso. In presenza di un tasso di inflazione molto basso, la necessità di aggiustamenti inter-settoriali dei salari reali implicherebbe tagli ai salari nominali dei settori svantaggiati. Poiché per quanto detto questo non avviene, un’inflazione compressa si accompagna ad un tasso di disoccupazione più elevato. In altri termini, quando il tasso di inflazione è basso (sotto il 4%, secondo alcune stime ) la curva di Phillips non è verticale, ma è inclinata negativamente. Il fenomeno sembra essere rilevante per l’Eurozona, all’interno della quale nell’ultimo decennio le dinamiche dei prezzi (misurati dal delatore del PIL) a livello nazionale si sono mostrate divergenti (Figura 1). Guarda caso, i paesi nei quali i prezzi sono cresciuti più velocemente sono proprio gli stessi nei quali il grado di rigidità dei salari nominali verso il basso risulta più accentuato (vedi qui ). Il processo di convergenza che necessariamente dovrà verificarsi nei prossimi anni per ripristinare una parvenza di ottimalità all’area valutaria sarebbe facilitato se la BCE fosse perciò disposta ad accettare un tasso di inflazione superiore al suo obiettivo attuale.


Figura 1. Deflatore del PIL (2000= 100) per 7 paesi dell’area Euro.

Il secondo commento ha a che vedere con una distorsione cognitiva nota in letteratura come disaster myopia, vale a dire la propensione a sottostimare la probabilità di eventi negativi se questi si sono verificati l’ultima volta in un passato relativamente remoto. In prolungati periodi di stabilità economica e finanziaria (come, per i paesi industrializzati, durante la great moderation occorsa tra il 1984 e il 2007), la sottostima di determinati eventi porta a prendere decisioni relative all’allocazione del capitale, al prezzo e alla valutazione di merito del rischio di credito, e al prezzo (lungo una bolla) degli asset, in grado di rendere il sistema finanziario vulnerabile ad una crisi sistemica (vedi qui ). Il punto è riconosciuto anche da Blanchard et al., e la loro ricetta consiste semplicemente nel proporre un rafforzarmento della capacità di intervento dell’apparato regolamentativo. Potrebbe non bastare, tuttavia, sia per i noti problemi di cattura del regolatore, sia perché i soggetti sottoposti a regolamentazione hanno incentivi potenti ad inventare scorciatoie per aggirare le norme, come la vorticosa creazione di società-veicolo fuori bilancio da parte delle banche ha recentemente dimostrato. In effetti, il Governatore della Bank of Canada ha recentemente argomentato sulla possibilità che la politica monetaria possa “appoggiarsi contro il vento” (leaning into the wind) dell’instabilità finanziaria e usare il tasso di interesse a fini macroprudenziali, accettando una temporanea ed eccezionale deviazione dal target d’inflazione. Un modo alternativo per raggiungere lo scopo potrebbe essere quello di fissare un target d’inflazione estremamente basso (vicino allo 0%), e accettare che il “vincolo zero” sul tasso di policy morda molto più spesso di quanto accaduto negli ultimi 25 anni. La volatilità del PIL che ne risulterebbe sarebbe strumentale nel tenere sotto controllo la creazione di squilibri innescati da euforia e sottovalutazione dei rischi, dal potenziale sistemico devastante.

Ovviamente, per stabilire se una tale misura può essere profittevole in termini di benessere sociale occorrerebbe stimare i costi legati allo scendere di 0,5-1 punti sotto il PIL potenziale per una quindicina di volte su un orizzonte temporale di un trentennio, con quelli generati da una possibile diminuzione assoluta di 6-7 punti percentuali del PIL, con tutti i conseguenti effetti di lungo periodo sulla produttività. Così come per capire quanta maggiore inflazione occorre effettivamente per facilitare il processo di convergenza a livello europeo, dovremmo dotarci di modelli macro con mercati del lavoro regolati da preferenze per l’equità e rigidità nominale dei salari verso il basso. Tutto ciò richiede un notevole lavoro teorico ed empirico. Il punto, in ogni caso, è che trascurare questi e molti altri risultati dell’economia comportamentale nella definizione della politica monetaria può risultare pericolosamente limitante.
  Commenti

Solo gli utenti registrati possono scrivere commenti.
Effettua il logi o registrati.

 
< Prec.   Pros. >