Argomenti di MICROECONOMIA E MACROECONOMIA Sommario 1. 2. 3. 4. 5. 6. 7. 8. 9.
Titolo Scelte intertemporali: decisioni di risparmio e di investimento, tasso di interesse Scelte in condizioni di incertezza Asimmetrie informative Le esternalità positive e negative Studio di caso: Condominio, metafora perfetta del vivere sociale Esercizi su esternalità e beni pubblici Esercizi sul Duopolio La stima di una funzione e le previsioni in campo economico (correlazione e regressione) Temi di Macroeconomia (II livello)
pag. 3 9 12 13 15 18 21 26
- La crescita economica 30 1. Le “fonti” della crescita 2. Il prototipo dei modelli di crescita: Harrod-Domar (di impostazione keynesiana) 3. Il modello di Solow (di impostazione neoclassica) 4. La crescita endogena: premessa - Modelli di crescita endogena 36 0. Premessa 1. Il modello AK e il Learning by doing 2. Modelli con capitale umano 3. Innovazione attraverso la R&S - La teoria del ciclo economico reale 45 - Il modello di Barro-Gordon 46 1. Esposizione del modello 2. Una valutazione critica - La regola di Taylor 49 - La Nuova Macroeconomia Keynesiana 50 1. L’impostazione della NMK 2. I contratti impliciti 3. I salari di efficienza 4. La teoria dei contratti a lungo termine 1
5. La teoria dei contratti periodici 6. I modelli di contrattazione sindacale 7. I modelli insider-outsider 8. Il NAIRU 9. Conclusioni - Una mappa delle scuole in Macroeconomia
10.
Esercizi di Macroeconomia (II livello)
61 63
2
1. Scelte intertemporali: decisioni di risparmio e di investimento, tasso di interesse di G.Garofalo1 Supponiamo che l'orizzonte decisionale del consumatore sia composto da due periodi 1 e 2: R1 e R2 sono i redditi alle due date che assumiamo dati esogenamente; C1 e C2 le spese di consumo (in realtà la spesa è data dalle quantità di beni di consumo alle due date per i rispettivi prezzi; la semplificazione che adotteremo sarà quella di supporre che p1 = 1 € oggi e p2 = 1 € domani; il prezzo del bene è lo stesso nei due periodi, nel senso che non vi è inflazione, e pari ad uno). Da notare che C2 e R2 sono grandezze attese; nel nostro schema però le aspettative sono corrette per cui vi è coincidenza tra grandezze attese e grandezze effettive. S e C 1 = R1, allora C2 = R2. Se, invece, C1 < R1, allora il soggetto risparmia; prestando il reddito risparmiato nel primo periodo al tasso di interesse r, il soggetto può consumare nella seguente misura: C2 = R2 + (R1 - C1) (1 + r) [1.36] Ovviamente è anche possibile che il consumatore nel primo periodo si indebiti (C 1 > R l) sempre al tasso di interesse r, per cui il risparmio è negativo. Il vincolo di bilancio intertemporale del consumatore rappresentativo pone l'eguaglianza tra la somma dei redditi e la somma delle spese di consumo nei due periodi, chiaramente attualizzate (non vi sono dunque eredità), per cui: C1 (1 + r) + C2 = R1 (1 + r)+R 2 [1 .37 ] o indifferentemente:
C1 +
C2 R = R1 + 2 1+ r 1+ r
Risolvendo una delle due ultime espressioni rispetto a C2, otteniamo: C2 = R1 (1 + r) + R2 - C1 (1 + r) [1.38] che ci dà l'intercetta verticale (punto A nella Figura 6), pari a R 1 (1 + r) + R2, , che è il valore futuro della dotazione iniziale, ossia la quantità massima di bene che il soggetto potrebbe consumare nel secondo periodo risparmiando l'intero reddito del periodo corrente. Troviamo ora l'intercetta orizzontale (punto B nella Figura 6) risolvendo rispetto a C1:
C1 = R1 +
R2 1 − C2 1+ r 1+ r
dove R 1 + R2 / (1 + r) è il valore attuale della dotazione iniziale, ossia la quantità massima di bene che egli potrebbe consumare nel periodo iniziale se prendesse a prestito tutto l'ammontare di reddito (bene) che potrà ricevere l'anno successivo. 1
Tratto da G.Garofalo, Economia politica. Corso intermedio con Esercitazioni, Torino, Giappichelli, 1998, pp. 46-52 3
Come risulta dalla [38], la pendenza - negativa - del vincolo è data da (1 + r) che è il fattore di interesse (nel caso più generale, per valori di p1 e p2 diversi da 1, sarebbe [p1 (1 + r)] / p2] ed indica, in termini nominali, il prezzo odierno di una unità monetaria espresso in termini di unità monetarie del periodo futuro e, in termini reali, il numero di unità di bene che potranno essere consumate in più in futuro rinunciando al consumo di una unità di reddito (bene) - che viene prestato - nel periodo corrente. Lungo la linea di bilancio il punto D di coordinate R 1 e R 2 rappresenta la dotazione iniziale del consumatore: se egli si sposta dal punto D verso il basso, ciò significa che egli ha preso a prestito una quantità di bene (dal momento che consuma più quest'anno e meno il prossimo); nel caso opposto si avrà risparmio, nel senso che egli si astiene dal consumare una certa quantità del bene nel corso del periodo corrente, che viene data a prestito, per poter accrescere il proprio consumo differito. Le preferenze del consumatore rappresentativo sono espresse dalla seguente funzione di utilità: U = U (C1 , C2)
[1.39]
con U ' C1 > 0 e U ' C1 > 0 . Differenziando la funzione, possiamo calcolare il valore del SMS intertemporale, che misura la sostituibilità del consumo attuale con il consumo futuro:
dU = U 'C1 ⋅dC1 + U 'C2 ⋅dC 2 = 0
[1.40]
U ' C1 dC 2 =− <0 dC1 U ' C2
[1.41]
da cui:
La rappresentazione grafica della [39] è data nello spazio C1 - C2, da una mappa di curve di indifferenza inclinate negativamente e convesse verso l'origine degli assi. La massimizzazione della [39] soggetta al vincolo rappresentato dalla [37] porta a concludere che in equilibrio il soggetto eguaglia il suo saggio marginale di sostituzione intertemporale con il fattore di interesse:
U 'C1 U ' C2
= 1+ r
[1.42] 4
Nel caso generale, per valori di p1 e p2 diversi da 1 e in presenza di inflazione, a secondo membro abbiamo:
p1 (1 + r ) p2
dove p2 può essere espresso come:
p 2 = p1 (1 + P& ) con P& che indica il tasso di variazione del livello dei prezzi, cioè il tasso d'inflazione. Sostituendo abbiamo il fattore di interesse espresso in termini reali:
1+ r = 1+ ρ 1 + P&
dove ρ (rho) è il tasso d'interesse reale. Dall'ultima eguaglianza possiamo determinare ρ:
ρ=
r − P& 1+ r −1 = 1 + P& 1 + P&
Se P& non è troppo elevato, il denominatore sarà approssimativamente uguale a 1 e: ρ = r - P& Æ r = ρ + P& Quella scritta da ultimo è l'equazione di Fisher che collega i due tassi d'interesse, quello nominale e quello reale. Grazie alle nostre ipotesi semplificatrici, P& = 0 e i due tassi coincidono. Da un punto di vista grafico si tratta di combinare la mappa di indifferenza con la linea di bilancio: l'equilibrio è individuato dal punto di tangenza di quest'ultima con la più alta delle curve di indifferenza accessibili per il consumatore. Figura 6
C2 A E •
R2
D •
R1
B
C1
5
Nel caso prospettato nella Figura 6 il consumatore si sposta dalla posizione iniziale individuata dal punto D in corrispondenza del punto E risparmiando in vista di un maggior consumo futuro: facendo il rapporto tra il livello dei consumi e il livello del reddito alla data 1 abbiamo quella che con terminologia keynesiana definiremmo propensione media al consumo; essa risulta minore dell'unità. Il tasso di interesse è il premio per l'astensione dal consumo presente. Un aumento del tasso di interesse fa sì che la retta di bilancio diventi più inclinata, mentre le sue intercette si spostano verso l'alto, per quanto riguarda quella verticale, e verso sinistra, per quanto riguarda quella orizzontale: complessivamente, quindi, la linea di bilancio si presenta più ripida come la 2 nella Figura 7. Figura 7 C2 •
F E •
2
1 C1
Il consumatore si porterà su una curva di indifferenza più alta modificando le proprie decisioni di consumo e di risparmio: passando dal punto E a F, si ha un minor consumo corrente ed un maggior consumo in futuro. In realtà si sommano un effetto sostituzione (movimento lungo la curva di indifferenza iniziale), che provoca una riduzione di Cl ed un aumento di C2, ed un effetto reddito (passaggio sulla curva di indifferenza più alta), che accresce ulteriormente C2, ma tende a far aumentare anche C1. Quanto più forte è il primo effetto rispetto al secondo, tanto più si nota un legame inverso tra consumo presente e tasso di interesse e, quindi, diretto tra risparmio e tasso d'interesse. Il modello descritto è il più semplice dei modelli intertemporali relativi alle scelte del consumatore. Nella letteratura ne esistono altri che ipotizzano l'esistenza di: a) generazioni sovrapposte, come in Samuelson [1958] (ad ogni data vi sono giovani e vecchi; i primi lavorano, consumano e risparmiano, mentre i secondi non lavorano e vivono con i frutti del risparmio accumulato in precedenza); b) un ciclo vitale, come in ModiglianiBrumberg [1954] (l'individuo pianifica i consumi per l'intero orizzonte temporale, che è scandito in tre fasi: periodo di formazione, vita lavorativa, pensione; fasi caratterizzate da un differente profilo del reddito e della ricchezza); c) un reddito permanente, come in Friedman [1957] (si rinvia direttamente al § 5.1, dove l'argomento sarà affrontato). Un'ultima osservazione riguarda le conseguenze sulle scelte del consumatore della presenza del settore pubblico. La spesa che quest'ultimo effettua e la conseguente imposizione fiscale fanno sì che il reddito rilevante per il consumatore sia quello disponibile che è dato da: YD = Y - T + Q, dove T è la tassazione e Q sono i trasferimenti. 6
Passiamo ora ad esaminare il comportamento dell'impresa rappresentativa relativamente alla scelta di effettuare un investimento produttivo, cioè di accrescere il proprio stock di capitale reale. Le possibilità di produzione dell'impresa nel periodo corrente sono condizionate allo stock iniziale di capitale K1, che supponiamo dato. L'investimento è la spesa per l'acquisto di nuovi beni capitali da impiegare nel periodo successivo per produrre i beni di consumo futuro. L'impresa si procura le risorse necessarie a finanziare tale spesa prendendo a prestito fondi. Da un punto di vista reale ciò significa attingere al risparmio dei consumatori, che rappresenta, dunque, il prerequisito per la spesa di investimento. Il capitale è, per ipotesi, proprietà dei consumatori; il suo uso da parte dell'impresa comporta l'erogazione di servizi produttivi da parte dei consumatori-proprietari del capitale che per questo ricevono un corrispettivo; tale rendimento rappresenta per l'impresa un costo aggiuntivo. I profitti attesi per il secondo periodo in termini reali sono, pertanto, dati da:
π2 = X2 −
w q N2 − K2 P P
[1.43]
dove si ipotizza per semplicità che i prezzi futuri, compreso il salario, siano identici nei due periodi mentre q indica il costo del servizio per l'uso del capitale. La funzione dei profitti viene massimizzata subordinatamente al vincolo rappresentato dalla funzione tecnica di produzione: X 2 = X (N2, K 2 ) [1.44] Sostituendo la [44] nella [43], si ha:
π 2 = X 2 (N 2 , K 2 ) −
w q N2 − K2 P P
Derivando quest'ultima espressione rispetto alla grandezza K2, variabile decisionale, ed eguagliando a zero, otteniamo che:
X ' K2 =
q P
[1.45]
cioè che in equilibrio per l'impresa la produttività marginale del capitale in termini fisici eguaglia il costo, in termini reali, per l'uso del capitale, o, il che è equivalente, il valore della produttività marginale del capitale ( P ⋅ X ' K 2 ) è pari al rendimento nominale dei consumatori per unità di capitale. Poiché il mercato del capitale è per ipotesi in condizioni di concorrenza perfetta qualunque sia il suo segmento, il tasso reale di rendimento del capitale fisico è pari al tasso d'interesse (reale) di mercato sui fondi 7
prestati e presi a prestito (il pareggiamento dei due tassi avviene a seguito di spostamenti del capitale monetario attratto da remunerazioni più alte: ciò determina eccessi di domanda positivi o negativi e quindi variazioni dei prezzi delle attività reali e finanziarie; data la relazione inversa tra prezzi e tassi di rendimento di un'attività, si modificano anche questi ultimi che tendono a convergere):
q =r P
[1.46]
Dalla [45] e dalla [46] segue che il capitale atteso (desiderato) nel secondo periodo è funzione del tasso d'interesse: la relazione è inversa avendo assunto che la produttività marginale del capitale è decrescente. In definitiva, l'investimento, grandezza flusso data dalla differenza tra lo stock di capitale nei due periodi, è funzione inversa del tasso di interesse. I = K2 (r) - K1 =I (r) [1.47] La curva dell'investimento coincide con la curva della produttività marginale del capitale. Come vedremo meglio nel § 9.9, l'analisi precedente è riferita in senso stretto agli investimenti netti: quelli lordi infatti considerano anche la ricostituzione del capitale che si è deprezzato nel corso del ciclo produttivo; tale ricostituzione avviene grazie agli ammortamenti (in tal senso la grandezza Kl andrebbe moltiplicata per 1 meno il tasso di ammortamento). Il tasso d'interesse, se da un punto di vista soggettivo (delle preferenze dei risparmiatore) rappresenta il premio per l'astensione dal consumo corrente, dal punto di vista oggettivo (nella sfera produttiva) coincide con la produttività marginale del capitale: il suo livello dipende quindi dalla struttura delle preferenze intertemporali dei consumatori (parsimonia) e dalle funzioni di produzione prevalenti in futuro (produttività).
8
2. Scelte in condizioni di incertezza di G.Garofalo 2 Molte decisioni in campo economico e nell'esperienza quotidiana, ivi comprese quelle riferite al bene salute, coinvolgono il futuro e devono essere prese in un contesto dominato dall'incertezza. Tale fattore in alcuni casi può essere affrontato con il calcolo delle probabilità (si parla allora di rischio quantificabile in modo probabilistico), in altri è da intendere in senso forte per cui mancano riferimenti precisi per la scelta (in tal caso tendono a valere convenzioni e fattori imitativi per cui cerchiamo di inferire elementi di valutazione da soggetti che riteniamo più informati). Come detto, il rischio viene quantificato attraverso il calcolo delle probabilità. Esso presuppone che di un evento sia possibile disporre di diverse manifestazioni ciascuna associata ad un valore di probabilità circa il suo manifestarsi. Normalizzando a 1 le probabilità complessive, un valore di 0,2 indica una probabilità del 20% che si verifichi un dato valore (le altre possibili manifestazioni avranno, nel complesso, una probabilità residua dell'80%). Se la distribuzione di probabilità è di tipo normale, essa sarà rappresentata da una gaussiana con un valore centrale di massima probabilità e valori minori o maggiori con probabilità via via inferiori: la dispersione attorno al valore mediano è simmetrica verso sinistra e verso destra. Probabilità
Valore
L'area costituita dalla porzione di campana fino ai due punti di flesso rappresenta circa i 2/3 dell'intera distribuzione, per cui, una volta indicati il valore centrale (la media sia 5) e la dispersione (la varianza sia ± 1) vi è una probabilità del 68,26% che il valore che si realizza effettivamente sia compreso tra il primo valore accresciuto o ridotto del secondo (4 e 6). Una curva più affusolata indicherà un maggior grado di confidenza assegnato al realizzarsi di un dato valore (fino ad arrivare all'estremo di una stima puntuale cui viene attribuita una probabilità del 100%). Facciamo un esempio ipotizzando che vi siano tre eventi (il rendimento di un titolo può essere del 3, del 2,6 o del 3,8 per cento) con probabilità pari, rispettivamente, a 0,5, 0,4 e 0,1. Il valore atteso sarà: 0,03 ⋅ 0,5 + 0,026 ⋅ 0,4 + 0,038 ⋅ 0,1 = 0,015 + 0,0104 + 0,0038 = 0,0292 La proprietà di tale valore atteso è che la somma algebrica degli scarti dei valori di partenza da esso, pesati in 2
Tratto da G.Citoni e G.Garofalo, Servizi sanitari. Economia e management, Bologna, Esculapio, 2003, pp. 115-116 9
base alle probabilità, è pari a zero. La misura della dispersione è ottenuta tramite la somma di tali scarti (in questo caso però si prescinde dal segno) elevati al quadrato (si evita in tal modo la compensazione tra scarti di segno opposto, e si dà maggior peso agli scarti maggiori), sempre pesati in base alle probabilità. La cosiddetta varianza sarà data perciò da: (0,0008)2 ⋅ 0,5 + (- 0,0032)2 ⋅ 0,4 + (0,0088)2 ⋅ 0,1 = 0,00000032 + 0,000004096 + 0,000007744 = 0,00001216 Una misura alternativa è data dalla radice quadrata di tale valore, il cosiddetto scarto quadratico medio: nel nostro esempio è pari a 0,003487. La funzione di utilità attesa Attraverso un ulteriore esempio possiamo introdurre la funzione di utilità attesa di von NeumannMorgenstern. Si consideri la scelta di prendere o meno l'ombrello nell'uscire di casa, una decisione apparentemente banale, ma sufficientemente emblematica. Le azioni (prendo/non prendo l'ombrello), tenuto conto degli stati del mondo (piove/non piove, con probabilità relative stimate dall'ufficio meteorologico, poniamo, del 40% e del 60%), comportano delle conseguenze in termini di utilità, di benessere. Assegniamo un punteggio massimo (diciamo 10) alla conseguenza migliore (supponiamo, "prendo l'ombrello e piove") e uno minimo (0) alla conseguenza peggiore (evidentemente, "non prendo l'ombrello e piove"). Per stabilire l'utilità della conseguenza "prendo l'ombrello e non piove" (il fastidio di questa alternativa è ovvio), immaginiamo che sia possibile porla in alternativa ad una lotteria o scommessa che fa vincere 10 se si verifica la precedente conseguenza migliore o 0 se prevale la precedente conseguenza peggiore. Il valore atteso della lotteria è condizionato dalle probabilità che si assegnano al verificarsi dei due eventi, come risulta dalla formula, appunto del valore atteso, vista nell'esempio precedente. Il soggetto razionale deciderà ponendo idealmente le due alternative sui due piatti di una bilancia e vedendo dove pende; regolando le probabilità farà in modo di eguagliare i valori in gioco. Supponiamo che ciò avvenga allorché assegno al verificarsi della conseguenza migliore/peggiore le probabilità, rispettivamente, di 0,3 e 0,7, per cui il valore medio della lotteria è: 10 ⋅ 0,3 + 0 ⋅ 0,7 = 3. Con la stessa procedura si definisce l'utilità dell'ultima conseguenza "non prendo l'ombrello e non piove": poniamo sia 8. Gli elementi in gioco sono riassunti nella tabella: Prendo l'ombrello Non prendo l'ombrello
Piove
Non piove
10
3
0
8
Calcoliamo ora l'utilità attesa delle due azioni tenuto conto delle probabilità che si verifichi l'uno o l'altro stato del mondo (ricordiamo che piove/non piove hanno una probabilità rispettivamente del 40% e del 60%): 10 ⋅ 0,4 + 3 ⋅ 0,6 = 5,8 0 ⋅ 0,4 + 8 . 0,6 = 4,8 10
L'utilità attesa è la media ponderata delle utilità delle conseguenze condizionate alle probabilità degli stati di natura. La regola di massimizzazione induce a scegliere l'alternativa che comporta il valore più alto: nel nostro esempio "prendere l'ombrello" perché 5,8 > 4,8.. La banalità dell'esempio non deve trarre in inganno: certamente nell'esperienza quotidiana non ci mettiamo a fare calcoli così complicati, ma è "come se" li facessimo perché, quando usciamo di casa, nel decidere cerchiamo l'alternativa meno fastidiosa tenuto conto delle previsioni del tempo e di nostri personali elementi di valutazione; i termini della scelta possono essere riferiti a campi più seri, come quello della sanità.
11
3. Asimmetrie informative di G.Garofalo3 Si hanno asimmetrie informative quando in uno scambio sul mercato vi sono soggetti, dal lato della domanda o dell'offerta, che possiedono informazioni riservate che non hanno interesse a rendere note agli altri. La situazione paradigmatica è quella del mercato assicurativo dove il soggetto che intende assicurarsi ha buoni motivi per non rivelare le proprie caratteristiche quanto più a rischio è la propria posizione, e, una volta assicurato, per non svelare quanto il proprio comportamento possa contribuire al verificarsi di un evento sfavorevole. Aspetti analoghi si ritrovano però in molti campi, dal contratto di credito al contratto di lavoro, al rapporto medico-paziente o, ritornando al campo assicurativo, nel caso delle polizze sanitarie. In tali casi si parla di rapporti di agenzia in cui uno o più soggetti (gli "agenti") con i loro comportamenti possono contribuire a determinare la posizione dell'altro (il "principale"). In sanità nella veste di principale troviamo il paziente, nel ruolo di agenti i medici e il personale sanitario in generale. Se l'informazione fosse perfetta e simmetrica, si avrebbe un mercato per ciascuna tipologia di contraente: l'assicurato "buono" e quello "cattivo", il lavoratore operoso e quello scansafatiche, l'impresa che si propone di utilizzare il fido bancario per iniziative che presentano buone prospettive rispetto al debitore a rischio di bancarotta, il medico che prescrive terapie costose per necessità obiettive rispetto a quello che sfrutta l'ignoranza del paziente. In ogni mercato si avrebbe un prezzo, che risulterebbe, ovviamente, più alto per l'oggetto di contrattazione di migliore qualità. L'esistenza delle asimmetrie informative comporta che il prezzo sia unico - una sorta di media dei due - il che tende a favorire gli agenti che offrono "merce" di cattiva qualità. Il processo è detto di selezione avversa perché vengono favoriti i contraenti meno validi (un esempio classico è contenuto alla fine della scheda su La teoria dei giochi nel capitolo 4). Le asimmetrie informative sono all'origine anche dei fenomeni di azzardo morale per cui il comportamento degli agenti successivo alla stipula del contratto può causare un danno alla controparte.
Per evitare questi problemi occorrono meccanismi che siano in grado di rivelare le caratteristiche degli agenti prima della stipula (si pensi ai "segnali" di qualità costituiti dal grado di istruzione e di specializzazione) e nel corso della validità del contratto (monitoraggio in itinere), e che lo incentivino a comportamenti che siano nell'interesse del principale (si pensi alle franchigie o alle clausole bonus-malus in campo assicurativo).
3
Tratto da G.Citoni e G.Garofalo, Servizi sanitari. Economia e management, Bologna, Esculapio, 2003, pp. 117 12
Le esternalità positive e negative di Giuseppe Garofalo4 Tra i diversi tipi di “fallimento del mercato” un ruolo di rilevo è ricoperto dalle esternalità, intese come conseguenze delle azioni individuali che si ripercuotono su altri soggetti, con la precisazione che chi compie l’azione non tiene conto delle ripercussioni del proprio comportamento sul benessere degli altri, che egli non intende comunque modificare in modo deliberato la posizione di questi e che non vengono utilizzati in tale comportamento i prezzi di mercato. Le esternalità possono riguardare la produzione o il consumo ed avere effetti positivi o negativi. Tra gli esempi più rilevanti di esternalità positive abbiamo i vantaggi indiretti prodotti dalle interazioni tra attività produttive e dalle spese per ricerca e sviluppo (R&S) nonché dall’istruzione e dalle spese in ambito sanitario (entrambe intese come investimento in “capitale umano”), mentre casi di esternalità negative sono gli effetti prodotti dall’inquinamento o dalla congestione. Concentrandosi sulle esternalità nella produzione, possiamo dire che le esternalità si concretizzano in economie o diseconomie esterne, cioè in benefici o costi a favore/carico di altri. Tali benefici o costi possono essere definiti sociali, in quanto distinti da quelli individuali, che, soli, sono presi in considerazione nelle scelte che gli agenti compiono individualmente sui mercati. ⎬ In presenza di esternalità positive si verificano benefici sociali maggiori di quelli percepiti individualmente, con la conseguenza che la disponibilità del bene risulta inferiore a quella ottimale da un punto di vista sociale. Infatti il prezzo di mercato, definito in base al confronto tra i benefici e i costi marginali percepiti a livello individuale, risulta relativamente più alto rispetto a quello socialmente ottimo, il che scoraggia la sua produzione. Le precedenti affermazioni possono essere illustrate graficamente (Grafico 1). Consideriamo l’equilibrio sul mercato di un determinato bene (punto A), definito attraverso una curva di offerta orizzontale (l’ipotesi semplificatrice è che i costi marginali siano costanti) e una curva di domanda tradizionale inclinata negativamente (si fa riferimento alla curva più vicina all’origine degli assi). Tale curva riflette i benefici marginali percepiti dai consumatori. La curva di domanda più esterna somma ai benefici individuali quelli sociali, come conseguenza delle esternalità positive (economie esterne). L’ottimo sociale è definito dal punto B e la quantità ottimale del bene da un punto di vista sociale è Q2 > Q1; essa però non viene realizzata dato che il mercato si basa sulle sole motivazioni di tipo individualistico. Per accrescere la produzione, i poteri pubblici possono intervenire cercando di ottenere uno spostamento verso il basso della curva di offerta: il prezzo si abbassa a p0, corrispondente al punto C, e la quantità scambiata è, appunto, Q2. La traslazione della curva di offerta può avvenire con la concessione di sussidi alle imprese o attraverso la fornitura diretta al prezzo sussidiato. Non è escluso però che ciò causi problemi legati ai “fallimenti dello Stato”. Una soluzione alternativa è quella di agire sulla domanda, cercando di ottenere con sussidi alle famiglie una 4
http://151.100.23.97/serale/docenti/principale_somm2.asp?menu_doc=Garofalo_1&Submit=invia 13
traslazione verso destra della curva relativa fino al punto B (i sussidi devono essere ad hoc, perché trasferimenti generici a favore delle famiglie tendono ad accrescere la domanda di tutti i beni compresi nel loro paniere).
Grafico 1 Domanda.
p1
A
p0
B
Offerta C
Q1
Q2
Un grado molto alto di esternalità positiva è presente in quelli che sono definiti “beni pubblici”. La loro produzione è poco interessante per i privati perché si combinano due circostanze particolari: - i beni sono “non rivali” (non viene prodotto un numero discreto di unità e il loro consumo avviene da parte di più individui simultaneamente) con un costo marginale molto basso; - i beni sono “non escludibili” perché è difficile escludere qualcuno dal loro godimento. Dal lato della domanda i consumatori di beni pubblici tendono a comportarsi da free rider, conseguendo il beneficio senza sopportare alcun onere. ⎬ Gli effetti delle esternalità negative sono opposti a quanto finora visto. In questo caso i costi sociali sono maggiori di quelli percepiti individualmente, con la conseguenza che la disponibilità del bene risulta superiore a quella socialmente ottima. Il prezzo di mercato, che riflette, come già detto, i benefici e i costi marginali percepiti a livello individuale, risulta relativamente più basso rispetto a quello socialmente ottimo, incoraggiando la sua produzione. Nel Grafico 2 l’equilibrio di mercato (punto D) è definito da curve di domanda e offerta di tipo canonico. La curva di offerta di mercato (si fa riferimento alla curva più esterna) riflette i costi marginali sostenuti dalle imprese, mentre quella più alta somma ai costi individuali quelli sociali (per ipotesi il costo marginale sociale è costante), che conseguono alla presenza di esternalità negative (diseconomie esterne). La quantità ottimale del bene da un punto di vista sociale è inferiore a Q2, ma una minore produzione non si realizza dato che il mercato contabilizza i soli costi individuali. Per ridurre la produzione del bene, i poteri pubblici possono intervenire cercando di “internalizzare le esternalità”, cioè fare in modo che l’impresa sostenga le conseguenze indirette (i costi sociali) delle proprie azioni. In tal caso si ha uno spostamento verso l’alto della curva di offerta in corrispondenza del punto E: il prezzo si alza a p1 e la quantità scambiata si riduce a Q1. La traslazione della curva di offerta può avvenire con l’imposizione di una tassa, detta pigouviana, sull’esternalità (Pigou, 1920 - occorre però tener conto della difficoltà di calibrare tale tassa rispetto alla disponibilità ottimale del bene), o attraverso formule di mercato (i permessi negoziabili di inquinare). 14
Grafico 2
E
Offerta.
p1 D p0
Domanda. Q1
Q2
Quest’ultima modalità consente di definire meglio “diritti di proprietà” sulle attività che producono esternalità, dato che all’origine di tale fenomeno vi sarebbe una definizione carente di tali diritti (Coase, 1960), a fronte della propensione degli agenti ad acquistare in quantità ottimale solo i beni di cui possono avere un godimento pieno ed esclusivo. Difficoltà (o i costi relativi) di reperire le informazioni necessarie per fissare le tasse pigouviane o per definire i diritti di proprietà inducono spesso i poteri pubblici ad adottare controlli sui livelli massimi ammissibili delle attività che generano esternalità negative, anche se tali regolamentazioni possono comportare comunque inefficienze.
Studio di caso Condominio, metafora perfetta del vivere sociale di Giuseppe Garofalo5 Il condominio come un microcosmo significativo, una metafora del vivere sociale è stata proposta dai sociologi e dagli psicologi sociali: esso rappresenta uno spaccato della società dove si svolgono "sociodrammi" su scala ridotta. L'osservazione casuale dei singoli ambienti può fornire esempi dimostrativi, talora di grande efficacia. In questo articolo ci proponiamo di indagare il fenomeno con gli occhiali dell’economista. Gli strumenti di analisi della moderna microeconomia che tornano utili si riferiscono ai concetti di esternalità, fallimenti nel coordinamento e regole delle scelte collettive. 5
"Il Sole-24 ore", 18-7-2004 15
Le esternalità sono conseguenze delle azioni individuali che si ripercuotono su altri soggetti. Tre sono le condizioni necessarie: chi compie l’azione non tiene conto delle ripercussioni del proprio comportamento sul benessere degli altri; egli non intende modificare in modo deliberato la posizione di questi; non utilizza in tale comportamento i prezzi di mercato. Le esternalità possono avere effetti positivi o negativi, nel senso che si possono avere benefici collettivi maggiori di quelli individuali che, soli, sono presi in considerazione nella scelta individuale o, al contrario, costi collettivi maggiori di quelli individuali sopportati effettivamente da chi compie l’azione. Vediamo di esemplificare con riferimento alla realtà del condominio: se il vicino ha una propria professionalità (di vario tipo), ciò può far comodo ad altri in situazioni di emergenza; se, invece, è rumoroso, ciò danneggia chi gli sta intorno. La scelta individualistica, basandosi sul confronto tra benefici e costi soltanto individuali, comporta che si tendano a generare per un verso poche esternalità positive e per un altro verso troppe esternalità negative. E’ la realtà dei condomini rissosi dove ci si fa la guerra reciprocamente e tendono a prevalere torti e ritorsioni con danni collettivi molto forti. La realtà dei condomini è caratterizzata da altri aspetti: alcune scelte sono individuali nel senso che le compiamo in piena autonomia, altre sono interattive perché prendiamo una decisione in base a previsioni su come si comporteranno gli altri (che, a loro volta, faranno altrettanto). In quest’ultimo caso si sviluppa una sorta di gioco strategico in cui i giocatori possono prendere o bloccare le decisioni. Oltre alle scelte prima richiamate ve ne sono altre che prendiamo collettivamente: nelle scelte collettive deleghiamo ad un’autorità il compito di prendere le decisioni per nostro conto, o, comunque, di istruire il processo per facilitare la decisione in sede assembleare. L’esempio classico è quello in cui l’autorità delegata è il politico cui demandiamo il compito di fare le leggi e di farle eseguire, o la giustizia cui è demandato il compito di sanzionare i comportamenti scorretti. Un esempio altrettanto significativo e più vicino al vissuto quotidiano è quello dell’amministratore di condominio che ci rappresenta nei confronti dell’esterno, svolge l’attività ordinaria e promuove quella straordinaria, da sottoporre al giudizio dell’assemblea che lo ha eletto. Si instaura in tal modo un rapporto di agenzia con i condomini nella veste di mandanti (principale) e l’amministratore nel ruolo di mandatario (agente). Tramite un contratto e appropriati incentivi il principale cerca di imporre all’agente un comportamento adeguato, superando i problemi di asimmetria informativa che possono sorgere. In via ipotetica l’amministratore dovrebbe definire una funzione del benessere collettivo a partire dalle funzioni di preferenza individuali dei singoli condomini. Una volta definita questa (e un vincolo di risorse), la scelta si prospetterebbe come un problema di massimo vincolato, dovendo egli cercare di ottenere il risultato migliore possibile dal punto di vista collettivo, tenuto conto delle limitazioni poste dalle risorse a disposizione. La teoria economica insegna che è impossibile definire una tale funzione del benessere collettivo che sia rappresentativa delle preferenze individuali, inevitabilmente inconciliabili, e che, allo stesso tempo, corrisponda a requisiti di coerenza ed efficienza (il comportamento di una comunità di agenti non ha la coerenza del comportamento di un agente singolo!). Com’è noto agli studiosi, è il cosiddetto teorema di impossibilità proposto da Arrow in due lavori del 1950 e del 1963. 16
E’ pertanto inevitabile ricorrere nelle assemblee di condominio ai voti a maggioranza, che scontentano però chi non si sente rappresentato nella decisione presa alla fine, con le conseguenze del caso; su alcune questioni sarà invece l’amministratore che si ergerà a “dittatore” decidendo in prima persona. Una questione delicata nella vita condominiale è quella della penalizzazione dei comportamenti devianti da parte di singoli. Il problema nasce dalla caratteristica pubblica del bene parti comuni, nel senso che il loro utilizzo avviene da parte di più individui simultaneamente (è un bene non rivale) e che è difficile escludere qualcuno dal suo godimento (il bene non è escludibile, o lo è solo parzialmente). Ciò tende a favorire comportamenti di tipo free riding da parte di chi usufruisce di determinati servizi senza sopportare il loro costo. In definitiva le esternalità condominiali sono un caso di fallimento dei meccanismi di coordinamento basati su una logica individualistica perché i danni collettivi tendono a prevalere sui benefici collettivi. D’altra parte le scelte collettive basate sulla delega e sul voto in assemblea possono fallire per altra via, perché non si rispettano tutte le volontà individuali o, per farlo, ci si condanna all’immobilismo. Tutto ciò conferma che il condominio è effettivamente un microcosmo sociale che ci fa vedere in scala ridotta quello che accade nella realtà più ampia, ma anche una sorta di laboratorio dove condurre esperimenti “in vitro” sulle forme di vita associata.
17
Esercizio sulle “esternalità positive”
di G.Garofalo Una banca ha la propria sede in un palazzo storico di rilevante interesse artistico che ha bisogno di interventi di restauro. Siano note le seguenti funzioni: - utilità marginale della banca (coincidente con la sua funzione di domanda di restauro): Uma = 10 – 3 p - utilità marginale comprensiva della valutazione sociale per il decoro artistico: UmaS = 15 – 3 p - costo marginale dell’impresa di restauri (coincidente con la sua funzione di offerta): Cma = – 5 + 2 p Calcolare: a. l’equilibrio di mercato b. l’equilibrio ottimale da un punto di vista sociale e costruire il grafico. Soluzione: a. 10 – 3 p = – 5 + 2 p
Æ
p=3 x=1
b.
Æ
p=4 x=3
15 – 3 p = – 5 + 2 p
p 4 3 2,5 -5
1
3
x
___________
Esercizio sulle “esternalità negative”
di G.Garofalo Le seguenti funzioni si riferiscono al mercato dei derivati del petrolio: - costo marginale della raffineria (coincidente con la sua funzione di offerta: Cma = – 4 + 5 p - costo marginale comprensivo del danno ambientale per la società: CmaS = – 20 + 5 p 18
-
utilità marginale (coincidente con la funzione di domanda): Uma = 20 – 3 p
Calcolare: a. l’equilibrio di mercato b. l’equilibrio socialmente ottimo e costruire il grafico. Soluzione: a. – 4 + 5 p = 20 – 3 p
Æ
p=3 x = 11
b.
Æ
p=5 x=5
– 20 + 5 p = 20 – 3 p
p 5 3
5
11
x
___________
Esercizio sui “beni pubblici”
di G.Garofalo Il Comune di una metropoli decide di far pagare un ticket alle auto in sosta. Le funzioni di domanda e di offerta, espresse in termini di ore di parcheggio, sono: xD = 24 – 5 p xS = 2 p Calcolare: a. il prezzo (ticket) e la quantità (ore di parcheggio) in equilibrio e rappresentarle graficamente b. l’equilibrio che si sarebbe prodotto senza il pagamento del ticket. Soluzione: a. 24 – 5 p = 2 p
Æ
p = 3,43 x = 6,86 19
b.
Se p = 0 [la linea di offerta si appiattisce finendo col coincidere con l’asse delle ascisse] Æ x = 24 [la domanda viene soddisfatta fino al limite della saturazione] p 4,8 3,43
0
6,86
24
x
20
Esercizi sul Duopolio di G.Garofalo 1. In un mercato duopolistico à la Cournot la funzione di domanda è:
p = 400 − 0,1x
dove x = xA + xB Le funzioni di costo delle due imprese sono:
CTA = 20 + 10 x A CTB = 30 + 8 x B
Determinare: - le funzioni di reazione - quantità e prezzo in equilibrio - Discutere in quale contesto può essere possibile ottenere un diverso equilibrio, di tipo collusivo, preferito da ambedue le imprese, e quale diventa la variabile discriminante in tale caso. Soluzione
Π A = [400 − 0,1( x A + x B )]x A − 20 − 10 x A = 400 x A − 0,1x A2 − 0,1x B x A − 20 − 10 x A Π' ( x A ) = 0
→
390 − 0,2 x A − 0,1x B = 0
→
x A = 1.950 − 0,5 x B
Π B = [400 − 0,1( x A + x B )]x B − 30 − 8 x B = 400 x B − 0,1x B2 − 0,1x B x A − 30 − 8 x B Π' ( x B ) = 0
→
392 − 0,2 x B − 0,1x A = 0
→
x B = 1.960 − 0,5 x A
xA = 1.293, 3 xB = 1.313, 3 p = 139, 3 Graficamente
x A = 1.950 − 0,5 x B x B = 1.960 − 0,5 x A =
→ →
x B = 3.900 − 2 x A x A = 3.920 − 2 x B
21
xB 3.900 1.960
1.950
3.920
xA
2. Nota la funzione di domanda: p = 16 – 0,2 Q determinare il valore dell’elasticità al prezzo lungo la curva. Mostrare l’effetto di una modifica della funzione, che diventa: p = 16 – 0,3 Q Costruire il grafico. Assumendo costi marginali uguali a zero, calcolare le scelte ottimali di un monopolista in relazione alle suddette funzioni di domanda. Soluzione p = 16 – 0,2 Q
ε = 5⋅
Æ
Q = 80 – 5 p
p Q p 16
80
p = 16 – 0,3 Q
ε = 3, 3 ⋅
Æ
Q=
Q
53, 3 − 3, 3 p
p Q 22
p 16
53, 3
Q
3. In un mercato duopolistico la funzione di domanda è:
p = 160 − 2 x
dove x = xA + xB Le funzioni di costo delle due imprese sono:
C TA = 10 x A C TB = 10 x B
Determinare l’equilibrio: - di Cournot - di Bertrand - di Stackelberg (l’impresa leader è A) e discuterne le diverse implicazioni. Soluzione Equilibrio di Cournot
Π A = [160 − 2( x A + x B )]x A − 10 x A = 160 x A − 2 x A2 − 2 x B x A − 10 x A Π' ( x A ) = 0
→
150 − 4 x A − 2 x B = 0
→
x A = 37,5 − 0,5 x B
Π B = [160 − 2( x A + x B )]x B − 10 x B = 160 x B − 2 x B2 − 2 x B x A − 10 x B Π' ( x B ) = 0 xA =
→
150 − 4 x B − 2 x A = 0
→
37,5 − 0, 5 (37,5 − 0, 5 x A ) = 37,5 − 20,83 + 0,31x A
x B = 37,5 − 0,5 x A →
xA =
16,67 = 24,16 0,69
xB = 24,16 p = 63,36
Π A = Π B = (160 − 96,64)24,16 − 241,6 = 3.865,6 − 2.334,82 − 241,6 = 1.289,18 23
Equilibrio di Bertrand
p = Cma → x A = x B = 37,5
160 − 2 x = 10
→
x = 75
p = 10 Π A = Π B = 375 − 375 = 0 Equilibrio di Stackelberg
p = 160 − 2[ x A + (37,5 − 0, 5 x A )] = 160 − 2 x A − 75 + 1,1x A = 85 − 0,89 x A Π A = (85 − 0,89 x A ) x A − 10 x A = 85 x A − 0,89 x A2 − 10 x A Π' ( x A ) = 0
→
85 − 1,78 x A − 10 = 0
→
x A = 42,135
xB = 37,5 − 23,408 = 14,092 p = 160 − 2 (42,135 + 14,092) = 47,546
Π A = 2.003,35 − 421,35 = 1.582 Π B = 670,02 − 140,92 = 529,1 4. In un mercato duopolistico (à la Cournot) in cui la funzione di domanda e quella di costo marginale sono, rispettivamente:
p = 5 − x1 − x 2
C ' ( x1 ) = C ' ( x 2 ) = 2
le funzioni di reazione sono:
x1 = 1,5 − 0,5 x2
[1]
x2 = 1,5 − 0,5 x1
[2]
Dopo averle rappresentate graficamente (spiegando bene quale curva è riferita alla prima e quale alla seconda, nonché i valori delle intercette sui due assi), determinare le quantità prodotte e il prezzo in equilibrio. Chiarire attraverso quali processi si perviene a tale equilibrio partendo dal seguente valore nella prima funzione di reazione [1]: x 2 = 1,3 Soluzione
⎧ ⎪ x1 = 1,5 − 0,5 ⋅ (1,5 − 0,5 x1 ) ⎨ ⎪ x = 1,5 − 0,5 ⋅1 = 1 ⎩ 2
→
x1 =
0,75 =1 0,75
24
p = 5 −1−1 = 3 Se nella [1]: x 2 = 1,3 → x1 = 1,5 − 0,65 = 0,85 D’altra parte, nella [2], per x1 = 0,85 → x 2 = 1,5 − 0,425 = 1,075 Il prezzo di equilibrio è:
Si mette in moto un processo di azione-reazione che possiamo così rappresentare nelle sue fasi successive a quella appena descritta. 2° stadio: Ritornando nella [1] e sostituendo quest’ultimo valore → x1 = 1,5 − 0,5375 = 0,92625 mentre, per x1 = 0,9625 la quantità che risulta dalla [2] è: x 2 = 1,5 − 0,48125 = 1,01875 3° stadio: Per x 2 = 1,01875 la quantità che risulta dalla [1] è: x1 = 1,5 − 0,509375 = 0,990625 Sostituendo tale valore nella [2], avremo: x 2 = 1,5 − 0,4953125 = 1,0046875 4° stadio: Per x 2 = 1,0046875 la quantità che risulta dalla [1] è: x1 = 1,5 − 0,50234375 = 0,99765625 mentre, per quest’ultimo valore nella [2]: x 2 = 1,5 − 0,498828125 = 1,001171875 Il processo prosegue finché: nsimo stadio: Per x 2 = 1 la quantità che risulta dalla [1] è: x1 = 1,5 − 0,5 = 1 mentre nella [2] per x1 = 1 → x 2 = 1,5 − 0,5 = 1 Tale combinazione di valori identifica l’equilibrio per due imprese che hanno − è bene sottolineare − uguale costo marginale. A tale combinazione si perviene se, come nel caso prospettato, la prima impresa non avrebbe prodotto una quantità superiore a x1 = 1,5 per x2 = 0 , mentre dovrebbe produrre x1 = 3 per indurre l’altra a produrre zero
per x1 = 3 ) e viceversa. ( x2 = 0 Detto altrimenti la pendenza della prima curva di reazione deve essere maggiore della pendenza della seconda. Nella posizione di equilibrio, le previsioni delle due imprese sono mutuamente compatibili: anche conoscendo con certezza la mossa dell’altro, nessun duopolista farebbe una scelta diversa; detto altrimenti, data la scelta dell’altro duopolista, nessuno può ottenere un risultato migliore scegliendo una quantità diversa. Tali caratteristiche si rinvengono, oltre che in Cournot, nell’equilibrio di Nash, nel contesto questa volta della teoria dei giochi.
25
La stima di una funzione e le previsioni in campo economico (correlazione e regressione) 6
di G.Garofalo
Vediamo come si quantifica la relazione esistente tra una variabile dipendente e una o più variabili indipendenti (queste ultime rappresentano le determinanti del valore assunto dalla prima, come si è visto nella scheda Nozioni di matematica del capitolo 2). Un esempio può essere il livello della spesa sanitaria (variabile dipendente Y), posto in relazione con il valore del Pil (variabile indipendente X), con dati che possono essere riferiti a paesi diversi nello stesso istante di tempo (dati cross section) o possono riguardare la successione dei valori assunti dalle variabili in anni successivi nello stesso paese (serie storiche). Partiamo dalla rappresentazione grafica misurando, in senso crescente a partire dall’origine degli assi, sull’asse orizzontale la X e sull’asse verticale la Y, e raffigurando ogni coppia di valori X Y con il rispettivo punto di intersezione sul piano cartesiano: quel che si ottiene è un diagramma a dispersione, una sorta di nuvola di punti. Se le due variabili non hanno alcuna relazione (meglio, correlazione) fra di loro, i punti saranno sparsi come se fossero gettati a caso. Se invece la correlazione è perfetta o, detto, altrimenti, se la relazione è sistematica, i punti staranno su una linea retta, che è crescente se il legame funzionale è diretto (all’aumentare/diminuire di X, aumenta/diminuisce anche Y), decrescente se il legame è inverso (all’aumentare di X, si ha una diminuzione di Y). Se, infine, ed è il caso che qui ci interessa, altre variabili omesse esercitano un’influenza su Y, per cui la relazione di questa con X non è esaustiva, potremo interpolare una retta tra i punti ma noteremo una dispersione più o meno grande. Esprimiamo la relazione tra le due variabili con una funzione del tipo: Y=a+bX+e dove a e b sono i parametri che costituiscono, rispettivamente, l’intercetta e il coefficiente angolare (quest’ultimo indica la variazione di Y connessa ad una variazione infinitesima di X), mentre e rappresenta l’errore casuale connesso a tutte le altre determinanti omesse (tale termine è puramente aleatorio e, dunque, contrapposto ad un errore di tipo sistematico: l’eventuale presenza di quest’ultimo indurrebbe a ricercare una diversa spiegazione). Il passaggio successivo è stimare la funzione, cioè calcolare, a partire dai dati effettivi, i parametri che meglio si adattano a tali valori. Indichiamo con Yˆ il valore teorico della variabile dipendente ottenuto a partire dai parametri stimati aˆ e bˆ . Avremo pertanto che:
Yˆ = aˆ + bˆX dove per ogni valore i-esimo di X, la differenza tra i valori effettivo e teorico della Y esprime la stima del termine di errore:
eˆi = Yi − Yˆi I valori dei parametri sono scelti in modo da minimizzare la somma dei quadrati degli scarti tra i valori effettivi e quelli teorici di Y (elevandoli al quadrato si evita la compensazione tra errori positivi e negativi – meno 6
Tratto da G.Citoni e G.Garofalo, Servizi sanitari. Economia e management, Bologna, Esculapio, 2003, pp. 118-122 26
per meno dà più – e si dà un peso maggiore agli errori maggiori). Questo sistema prende il nome di metodo dei minimi quadrati. Nella figura la funzione stimata è rappresentata dalla retta, detta di regressione, che attraversa la nuvola di punti, dove ogni punto rappresenta la coppia di valori X Y effettivamente osservata; sulla linea leggiamo i valori teorici di Y (dunque Yˆ ), mentre lo scarto tra Y e Yˆ (ricordiamo l’errore) è dato dalla distanza verticale tra un punto e la linea. Y
.. . . . . . .
. X
La linea di regressione rappresenta una linea di trend che descrive il cambiamento medio della variabile
dipendente al variare di una unità della variabile indipendente, dato il valore del parametro bˆ , detto coefficiente di regressione. A questo punto possiamo chiarire meglio la differenza tra correlazione e regressione: la prima indica un semplice legame di interdipendenza tra variabili7; la seconda una relazione di dipendenza di una variabile da un’altra con una precisa direzione di causalità. Ritornando all’analisi di regressione, notiamo che la stima dei parametri dipende dall’insieme dei dati da cui partiamo, ossia dal nostro campione estratto casualmente dalla totalità delle misurazioni (dall’universo). Se ampliassimo la dimensione del campione, la stima di ciascun parametro seguirebbe una distribuzione di probabilità. Quest’ultima può essere riassunta da una media e da una dispersione attorno alla media: tale dispersione (la indicheremo con sigma, σ), indicativa dell’errore, viene detta scarto quadratico medio (è la radice quadrata della varianza). Se le stime dei parametri e quindi l’errore sono distribuiti normalmente, avremo una rappresentazione grafica del tipo di quella riportata nella figura inserita nella scheda su Scelte in condizioni di incertezza in questo stesso capitolo: una curva di distribuzione a campana, con un valore centrale di massima probabilità e, in modo simmetrico verso sinistra e verso destra, valori minori/maggiori con probabilità via via inferiori. Sfruttando una proprietà delle distribuzioni normali, possiamo individuare un “intervallo di confidenza” attorno a bˆ tale per cui vi sia una probabilità del 95% che il vero parametro b cada nell’intervallo stesso (entro tali limiti). Tale intervallo è dato dall’area compresa tra 1,96 volte la dispersione attorno al valore centrale da noi stimato:
bˆ ± (1,96 · σ) 7
Il coefficiente di correlazione è dato dalla covarianza (in quanto misura del legame di concordanza o discordanza tra due variabili aleatorie) diviso il prodotto degli scarti quadratici medi delle variabili (misura della dispersione attorno ai valori medi delle rispettive variabili). 27
Ciò ci consente di verificare la cosiddetta ipotesi nulla, cioè la probabilità che nella realtà non vi sia nessuna
influenza della variabile indipendente sulla variabile dipendente, per cui, pur avendo una stima di bˆ ≠ 0, il vero parametro b sia pari a 0. Al riguardo una misura della significatività della stima è data dalla statistica-t, definita nel seguente modo:
t=
bˆ
σ
Il valore del coefficiente di regressione da noi stimato è statisticamente significativo a patto che t > 1,96: in tal caso infatti l’ipotesi che b = 0 può essere scartata. Facciamo un esempio numerico. Ipotizziamo che la nostra funzione stimata sia: Y = – 10 + 0,42 X dove, come si nota, il parametro aˆ è negativo, per cui la linea di regressione ha un’intercetta negativa sull’asse verticale, pari appunto a – 10 (riprendendo l’esempio della spesa sanitaria, ciò indica che al di sotto di un livello minimo del reddito il bisogno di salute non è soddisfatto affatto). Ipotizziamo altresì che i valori di σ siano 1,8 relativamente ad aˆ e 0,13 relativamente a bˆ (la stima è tanto più
precisa quanto più bassa è la dispersione attorno alla media). Relativamente al coefficiente di regressione bˆ abbiamo una certezza al 95% che il vero valore del coefficiente b sia pari a 0,42 ± (1,96 · 0,13), cioè sia compreso tra 0,6748 e 0,1652. Poiché questo intervallo non comprende lo 0, l’effetto di X su Y è significativo. Tale circostanza è confermata dalla statistica-t: 0,42 / 0,13 = 3,23077. Essendo tale valore > 1,96, possiamo concludere che X è una determinante significativa di Y. Per verificare qual è la proporzione della variabilità di Y spiegata dalla X, e quindi quanto stretto e significativo sia il legame tra le due variabili, ricorriamo ad un’altra misura: il coefficiente di determinazione R2. Esso varia da 0 a 1, per cui un valore, poniamo, di 0,83 indica che, tramite la nostra variabile indipendente, riusciamo a spiegare l’83% della variazione della variabile dipendente. Il valore di R2 è ottenuto rapportando la varianza dei valori teorici Yˆ , dunque la varianza spiegata dalla funzione di regressione, alla varianza totale della variabile Y. L’affidabilità della nostra stima, cioè dei risultati raggiunti, non dipende solo dal valore dell’R2. Ciò che conta veramente è l’appropriatezza: delle variabili utilizzate, del legame di causa-effetto da noi stabilito tra tali variabili, della forma funzionale dell’equazione. Quantificare il legame tra variabili è in genere funzionale ad effettuare previsioni, cioè pronostici sui valori futuri della variabile dipendente in base ai valori delle variabili esplicative: questi ultimi possono essere noti o, a loro volta, previsti. La previsione è ex-post se i valori sia della Y sia della X sono noti al momento della previsione e ci si limita a predire, in una sorta di esperimento contro-fattuale, il valore che avrebbe assunto la prima qualora la seconda avesse registrato un determinato valore: confrontando tali risultati con i dati esistenti si valuta la bontà del modello di spiegazione. Data l’equazione stimata riportata in precedenza ed ipotizzando che il valore previsto Xˆ sia 100, Yˆ risulterà pari a 32. 28
Per determinare l’affidabilità di tale previsione si deve tener conto di due fonti di errore: il termine eˆ , da noi previsto pari a 0, potrebbe non essere nullo nel periodo della previsione; i parametri stimati nella regressione aˆ e
bˆ potrebbero non essere uguali ai veri parametri a e b. Supponendo che la misura dell’errore della previsione sia 7, l’intervallo di confidenza del 95%, calcolato con la procedura vista in precedenza, è pari a:
⎧45,72 ⎩18,28
32 ± (1,96 ⋅ 7) = ⎨
per cui vi è una probabilità del 95% che il valore di Y sia compreso tra 45,72 e 18,28. Finora abbiamo ipotizzato che la variabile indipendente fosse una sola. In alcuni casi le variabili sono più d’una, il che rende la stima e la previsione più accurate. Un esempio che possiamo fare al riguardo è quello della quantità domandata di un bene di produzione (QA) in funzione del prezzo dello stesso (PA), del prezzo di un bene ad esso sostitutivo (PB), dei livelli produttivi in due settori che utilizzano come input il bene in oggetto (rispettivamente QC e QD). La funzione di domanda da stimare è dunque: QA = a + b1 PA + b2 PB + b3 QC + b4 QD + e La teoria economica ci induce a ritenere che i valori dei parametri siano i seguenti: b1 negativo (data la legge della domanda); b2 > 0 (riferendosi a variazioni del prezzo di un bene sostitutivo); sia b3 sia b4 > 0 (riferendosi a due grandezze in grado di stimolare la domanda del nostro bene A). I risultati della stima, che confermano tale aspettativa, sono riportati di seguito:
Q A = 12,262− 48,9 PA + 118,91PB + 92,34QC + 118,57QD ( 3, 51)
( −3,82 )
( 3,18 )
( 6 , 46 )
( 7 ,14 )
R = 0,692 2
dove i valori tra parentesi si riferiscono alle statistiche-t (notare come siano tutte maggiori di 1,96 in valore assoluto). Il valore medio della variabile dipendente è 3,9. Se vogliamo usare la stima precedente per prevedere la domanda del bene in oggetto tra dodici mesi, dobbiamo inserire dei pronostici per le variabili esplicative e stimare l’errore della previsione (supponiamo sia 0,17) in modo da calcolare gli intervalli di confidenza al 95%. Potremo avere allora che la previsione del valore della variabile QA tra un anno sia di 5, con un intervallo di confidenza di 5,33 e 4,67. Su Internet è disponibile un software, Easy Reg 2000, che funziona in ambiente Windows e consente di effettuare le elaborazioni necessarie per analisi di regressione a vari livelli. Il programma può essere scaricato sul proprio computer collegandosi al sito: http://econ.la.psu.edu/~hbierens/EASYREG.HTM [Per ottenere il simbolo ~ si deve tenere schiacciato il comando “Alt” e digitare sulla tastiera numerica di destra “126”].
29
TEMI DI MACROECONOMIA (II livello) di Giuseppe Garofalo La selezione proposta mira a coprire argomenti rilevanti, mediamente complessi (dati i riferimenti alla Microeconomia), che non sono presentati nei testi consigliati. In alcuni casi ci si è concentrati sull’apparato analitico, in altri si è preferito rendere il discorso in modo intuitivo o accennare solo ad alcune implicazioni per bilanciare la complessità dell’esposizione.
- LA CRESCITA ECONOMICA 1. Le “fonti” della crescita Data una generica funzione di produzione
Y (t ) = Y [γ (t ), K (t ), L(t )]
dove γ (in altri casi l’abbiamo indicata con A) indica il progresso tecnico e tutte le grandezze sono considerate variabili col tempo t,
dY & = Y; dt Y& = Y ' (γ )γ& + Y ' ( K ) K& + Y ' ( L) L&
differenziando rispetto a t e indicando
dγ = γ&; dt
dK = K& = I ; dt
dL & = L , si ha: dt
Se la funzione è di tipo Cobb-Douglas, si presenta nella forma:
Y = γK β L1− β con le consuete ipotesi neoclassiche di β p 1 (PmaL decrescente) e β + (1 − β ) = 1 (Rendimenti di scala costanti) Poiché
Y ' (K ) = β
Y K
[la PmaK è una frazione
β
della PmeK]
e
Y ' ( L) = (1 − β )
Y L
[la PmaL è una frazione (1 − β ) della PmeL]
si ha che
Y Y Y& = K β L1− β γ& + β K& + (1 − β ) L& K L Dividendo tutti i termini per Y, si ha 30
Y& Y {
=
T . var iaz % diY
Se
β ≅ 0,35
γ& γ {
+
Totalfactorproductivity ( residuoSolow )
K& L& + (1 − β ) L 1K 442443
β
Totalfactorinput
(ricordiamo che, in base alla teoria marginalistica della distribuzione, essendo ogni fattore remunerato secondo
la sua produttività marginale, la quota dei profitti sul reddito è pari a
β : il valore precedente è abbastanza realistico), il Total
factor input è ≅ 0,5 . Ne segue che quasi il 50 per cento del tasso di variazione del reddito è da attribuire alla Total factor productivity (il cosiddetto residuo di Solow). Tale fattore può essere concepito come: - esogeno (una sorta di “manna che cade dal cielo”) Æ Teoria della crescita di Solow - endogeno (in relazione alla dotazione di capitale umano e alle spese per R&S) Æ Teoria della crescita endogena 2. Il prototipo dei modelli di crescita: Harrod-Domar (di impostazione keynesiana) Dal lato della domanda si ha
S = sY I = vY& e
e dove Y& è il tasso di variazione della domanda attesa dagli imprenditori, in base al quale essi decidono di adeguare lo stock di
capitale e quindi la capacità produttiva, mentre v =
K è l’acceleratore (la sua presenza nella funzione fa sì che la spesa di Y
investimento sia un multiplo della variazione della domanda attesa). Supponendo che Y& = Y& (le previsioni degli imprenditori siano corrette) e data la condizione di equilibrio sul mercato dei capitali ( S = I ), si ha che e
sY = vY& da cui
Y& s ≡ gW = Y v dove g W il tasso di crescita “garantito” (che garantisce l’equilibrio), è in relazione con la propensione al risparmio (il parametro, com’è noto, influenza il valore del moltiplicatore) e con l’acceleratore. L’idea è che la spesa di investimento, decisa per adeguare la capacità produttiva, stimoli il reddito innescando un processo iterativo moltiplicatore-acceleratore-…. Dal lato della offerta si ha
gN = n + γ
dove g N il tasso di crescita “naturale” (del reddito potenziale), è in relazione con la crescita delle forze di lavoro e del progresso tecnico. Perché ci sia crescita in condizioni di piena occupazione, il tasso di crescita effettivo ( g Y ) deve eguagliare g W e g N per cui 31
s = n+γ v Il verificarsi di questa condizione è problematica dato che tutte le grandezze della formula precedente sono esogene.
3. Il modello di Solow (di impostazione neoclassica) La soluzione di Solow al problema precedentemente posto consiste nell’endogenizzare v =
K legandolo alle variazioni dei Y
prezzi dei fattori. La sequenza dei processi causali è
w r
→
K ≡k L23 1
Intensitàdicapitale
⎧ K ⎪ Y ≡v 123 ⎪⎪ Accelerato re → ⎨ ⎪Y ≡ y ⎪1 L23 ⎪⎩ PmeL
All’aumentare del prezzo relativo del lavoro le imprese si spostano su tecniche produttive a maggior intensità di capitale: questa decisione fa crescere per un verso il rapporto capitale prodotto, per un altro la produzione. Alla base di quest’ultima influenza vi è una funzione di produzione in termini intensivi:
Y K L = F( , ) → y = y (k ) L L L Y K dove, come detto, y ≡ e k ≡ . L L I Indicando con i ≡ , la condizione di equilibrio sul mercato dei capitali implica che L i = sy (k ) La grandezza i è riferita agli investimenti lordi, per cui: i{ = Δ {k + δ{k ovvero Δk = i − δk Inv.lordi
Inv.netti
Ammort .
dove δ indica il tasso di deprezzamento/ammortamento del capitale. Sostituendo, nella seconda espressione precedente, a i il suo valore, si ha che: Δk = sy (k ) − δk ovvero Δ {k = 0 allorché sy (k ) = δ{k Inv.netti
123
Inv.lordi
Ammort .
Da un punto di vista grafico, nel piano y – k, tracciamo la curva dell’investimento, coincidente con il risparmio (la curva corrisponde a quella del prodotto totale, ma è più bassa dato che s < 1), e la linea degli ammortamenti
32
y
δk E
sy(k)=i
Δk = 0
k
Nel punto E gli investimenti lordi e gli ammortamenti coincidono, per cui gli investimenti netti sono nulli (steady state). Per punti a sinistra di E si ha accumulazione del capitale, mentre a destra si ha decumulazione di capitale. Vediamo ora cosa accade in presenza di crescita delle forze di lavoro (n > 0). In questo caso gli investimenti sono necessari anche per dotare i nuovi lavoratori degli strumenti di produzione. Scriveremo allora che gli investimenti netti sono dati da:
Δk = i − (δ + n)k =
sy (k ) − (δ + n)k
Nel grafico aggiungiamo agli ammortamenti gli investimenti necessari per creare capacità produttiva per i nuovi lavoratori.
y
(δ + n)k
E
sy(k)=i
Δk = 0
k
L’ultimo passaggio consiste nell’introdurre il progresso tecnico ( γ ). Per incorporare i frutti di quest’ultimo vi è necessità di ulteriori investimenti, per cui:
Δk = i − (δ + n + γ )k =
sy (k ) − (δ + n + γ )k
Il grafico si presenta allora nella sua versione finale:
y
(δ + n + γ )k E
y*
Δ 1k2=30
sy(k)=i
k
k*
Sulla scorta di tale grafico possiamo vedere gli effetti sull’equilibrio di steady state (sui valori k* e y*) di modifiche nei parametri rilevanti s, n, γ :
33
s↑ n↓
γ↑
k*
y*
↑
↑
↑
↑
↓
↓
Tuttavia gli effetti sono sui livelli, e non sul tasso di crescita. Tali effetti sono di breve periodo: nel tempo si ha crescita. Il progresso tecnico (il residuo di Solow) è il “motore” della crescita. Esso è supposto esogeno e, dunque, non è spiegato.
Una conseguenza importante del modello è la convergenza verso l’equilibrio di steady state. Le previsioni sono che: - Le economie più lontane dal punto di steady state presentino una maggiore velocità di crescita (cosiddetta betaconvergenza). I “poveri” dovrebbero crescere più velocemente dei “ricchi”. - In presenza di stessa funzione di produzione e di identico valore dei parametri rilevanti (s, n, γ), si abbia identico punto di steady state. I paesi dovrebbero dunque presentare una minore dispersione (cosiddetta sigma-convergenza). Tali conclusioni sono smentite dai fatti.
4. La crescita endogena: premessa Tra i limiti del modello di Solow vi quello per cui il “motore” della crescita individuato, il progresso tecnico, non è spiegato, ma è assunto semplicemente come una variabile esogena, estranea al modello. Il tentativo degli autori che esamineremo (Romer, Lucas) è quello di individuare le determinanti del progresso tecnico. Due sono le principali: il capitale umano e le spese per R&S. Cominciamo col dire che, se la produttività marginale del capitale non è decrescente, come supposto finora, ma costante, il risparmio (e quindi l’investimento) si presenta come una linea retta crescente. Se esso è sufficientemente elevato, la linea sarà più alta rispetto a quella che corrisponde al deprezzamento e all’adeguamento del capitale (δ + n + γ ) k . sy(k)=i
y C A
(δ + n + γ )k D
B
k1
k2
Partendo da k1, il capitale di nuova installazione sarà AB, che porta il sistema a k2: a questo punto lo stock di capitale aumenta a CD, e così via all’infinito. In Romer si ipotizza la seguente funzione di produzione valida a livello micro per la i-esima impresa (la popolazione è di N imprese):
Yi = γK iβ L1i− β 34
N
dove
γ = (∑ K i ) μ
indica lo stock di conoscenza, che è funzione crescente a tassi decrescenti dell’investimento passato
i =1
(dello stock di capitale) di tutte le imprese (la conoscenza è un bene pubblico, e ogni impresa usufruisce delle conoscenze delle altre in un tipico effetto di esternalità positiva). A livello macro la funzione di produzione è:
Y = K β + μ L1− β
Si noti come: - a livello micro:
β + (1 − β ) = 1 (i rendimenti di scala continuano ad essere costanti) a livello macro: β + μ + (1 − β ) > 1
Lo stock di conoscenze viene incrementato dalle imprese attraverso le spese per R&S, destinando fattori produttivi alla loro realizzazione. La caratteristica di bene pubblico della conoscenza e gli effetti di esternalità positiva comportano che la produzione di ciascuna impresa è maggiore se essa può sfruttare le conoscenze prodotte da altre. Ciò pone una serie di problemi: - tenendo conto che la soluzione di mercato in presenza di esternalità positive comporta una sottoproduzione (in questo caso di conoscenza), vi è spazio per un intervento pubblico - la ricerca del profitto di monopolio è un incentivo per le imprese ad investire in R&S - ciò può concretizzarsi nella scelta di brevettare le scoperte per rendere la conoscenza un bene escludibile - i profitti di monopolio tendono a scomparire man mano che le innovazioni si generalizzano presso le imprese Sui punti elencati sopra vi sono punti di contatto con l’impostazione di Schumpeter (modelli neo-schumpeteriani). Lo stock di conoscenze può essere incrementato anche ad opera dei lavoratori che accumulano capitale umano. Al riguardo si impone un esame delle loro scelte definite a partire da una funzione di utilità intertemporale, che viene massimizzata subordinatamente a vincoli che specificano gli incentivi nel comportamento degli agenti. Il modo in cui il lavoratore sceglie di allocare il tempo a disposizione tra partecipazione al processo produttivo (conseguimento del salario) ed accumulazione di capitale umano (rinuncia al salario corrente in vista di un maggior salario futuro) influenza la sua produttività futura (e il suo salario futuro).
35
MODELLI DI CRESCITA ENDOGENA di Luca Correani8 0. Premessa La teoria della crescita endogena si propone di modellizzare in termini economici i fattori che determinano la crescita di un paese. Il termine endogeno deve quindi essere inteso come il tentativo di spiegare la crescita con fattori endogeni al sistema stesso. L’attenzione è principalmente rivolta alla tecnologia e quindi alle diverse teorie che si propongono di spiegare il livello del progresso tecnico di un paese. Nel seguito presenteremo le tre principali linee di ricerca: - l’accumulazione di conoscenza - l’accumulazione di capitale umano - l’investimento in R&S La conoscenza è un bene immateriale e quindi la sua accumulazione è regolata da particolari dinamiche; il modello di Romer (1986) concentra l’attenzione su tale fattore. Il modello di Lucas (1988) analizza l’accumulazione di capitale umano, che si può vedere come l’incorporazione della conoscenza nella forza lavoro. L’accumulazione di capitale umano dipende in questa impostazione sia dal tempo che dalle risorse che sono devolute a tale attività dagli individui. Comune a questi due filoni è la possibile esistenza di esternalità nell’economia e quindi di un possibile ruolo dello Stato nella correzione dell’inefficienza nell’allocazione delle risorse. I modelli di R&S si propongono invece di modellare esplicitamente un settore economico il cui output sono le innovazioni. Una possibile distinzione tra questi modelli è basata sul tipo di progresso tecnologico che considerano: un progresso tecnico che incrementi il numero dei beni intermedi impiegati nella produzione (Romer, 1990) o invece un progresso tecnico che produce nuovi beni capitali più produttivi (Aghion-Howitt, 1992).
1. Il modello AK e il Learning by doing La conclusione di Solow che la crescita di lungo periodo dipende da fattori esogeni al modello, quali il progresso tecnologico, rappresentava un forte limite del modello di crescita neoclassico. Tale caratteristica era dovuta essenzialmente ai rendimenti decrescenti del capitale. Per questo motivo alcuni studiosi pensarono di sviluppare modelli di crescita in cui la produttività marginale del capitale fosse costante. Il modello AK è uno dei primi modelli di questo tipo in grado di garantire crescita economica di lungo periodo senza il bisogno di progresso tecnologico esogeno. L’idea alla base del modello AK è quella di considerare il capitale non solo come capitale fisico, ma anche come capitale umano. Il modello prende il nome di “modello AK” in quanto utilizza una funzione di produzione del tipo
Y = AK
Come è facilmente verificabile, tale funzione di produzione mostra rendimenti costanti del capitale (infatti ∂Y / ∂K = A ). Quello che non è soddisfacente in questo modello è che non abbiamo una teoria che ci spieghi come mai la produttività del 8
Per questa introduzione (pp. 6-12) l’A. (L.Correani) si è basato su Musu-Cazzavillan (1997), Barro-Sala i Martin (1995) e http://www-dse.ec.unipi.it/persone/docenti/fiaschi/didattica/2006/teoria_Crescita/libroCrescita.pdf e Tamberi (2000). 36
capitale è costante, invece che decrescente: semplicemente assumiamo che sia così. Quindi il modello AK è da considerarsi più dal punto di vista didattico che di effettiva spiegazione del processo di crescita di un paese, nel senso che illustra una condizione sufficiente affinché un paese sperimenti crescita nel lungo periodo senza bisogno di un incremento esogeno continuo del progresso tecnico Un’alternativa a questo approccio è stata fornita da Romer (1986) e Arrow (1962); l’intuizione alla base del loro approccio è quella di superare i rendimenti decrescenti del capitale attraverso il concetto di learning by doing. In pratica le imprese, durante il processo di accumulazione del capitale, apprendono come produrre più efficientemente. Questo effetto positivo dovuto all’esperienza aumenta la produttività del capitale e consente di superare l’ostacolo dei rendimenti decrescenti del capitale. Quindi il fattore fondamentale nel processo di crescita è l’accumulazione della conoscenza, bene non rivale e non escludibile, ossia con proprietà tipiche di un bene pubblico. Secondo Romer (1986) tale conoscenza si accumula come sottoprodotto dell’attività di produzione e non come risultato di un’esplicita scelta degli agenti. In sintesi gli aspetti che caratterizzano il modello sono: • la conoscenza è il fattore cruciale nello spiegare la crescita di un paese; • la conoscenza è un bene cha ha le tipiche proprietà di un bene pubblico; • la conoscenza incrementa la produttività del fattore lavoro; • le caratteristiche della conoscenza si possono modellare come un’esternalità nell’accumulazione di capitale, ossia l’accumulo di conoscenza è ottenuto dallo stesso processo di produzione (learning by doing). Possiamo illustrare questa possibilità considerando una funzione di produzione neoclassica con tecnologia labour augmenting9 (i indica l’i-esima impresa),
Yi = F (K i , Ai Li )
e introducendo due ipotesi: 1) un aumento dello stock di capitale dell’impresa produce un aumento dello stock di conoscenza rappresentato da Ai . Questo processo riflette l’idea di Arrow che la conoscenza e gli incrementi di produttività derivino direttamente dall’attività di produzione e di investimento. 2) la conoscenza accumulata da ogni impresa è un bene pubblico al quale ogni impresa ha accesso con costo zero. In poche parole, come un’impresa aumenta la propria conoscenza, tale incremento si trasmette istantaneamente a tutte le altre imprese. Questa assunzione implica che il cambiamento nella tecnologia di ogni impresa corrisponde al cambiamento della tecnologia dell’intera economia ed è perciò proporzionale al cambiamento dello stock aggregato di capitale. Date queste assunzioni possiamo riscrivere la funzione di produzione della singola impresa nel seguente modo (sostituiamo ad Ai , il capitale aggregato K):
Yi = F (K i , KLi ) .
Un esempio interessante è quello con una funzione di produzione del tipo Cobb-Douglas: 9
La funzione di produzione può essere scritta in uno dei seguenti modi: a) Y = A ⋅ F (K , L )
b) Y = F ( A ⋅ K , L ) - progresso tecnologico Capital augmenting;
c) Y = F (K , A ⋅ L ) - progresso tecnologico Labour augmenting Nei modelli neoclassici di crescita la formalizzazione adottata è quest’ultima: per una spiegazione si veda Barro- Sala i Martin, 1995. 37
Yi = A ⋅ (K i ) ⋅ (KLi ) con 0 < α < 1 . α
1−α
Possiamo dimostrare che la produttività marginale del capitale è costante (e non decrescente come nel modello di Solow); per verificarlo basta fare la derivata della funzione di produzione rispetto a K i :
∂Yi / ∂K i = Aα (K i )
α −1
⋅ (KLi )
1−α
.
che può essere riscritta nel seguente modo:
⎛ L ⎞ ∂Yi / ∂K i = Aα ⋅ ⎜⎜ K i ⎟⎟ ⎝ Ki ⎠
1−α
.
A questo punto, ipotizzando che il rapporto lavoro/capitale sia uguale sia a livello aggregato che a livello di singola impresa, possiamo riscrivere la derivata come
⎛ L⎞ ∂Yi / ∂K i = Aα ⋅ ⎜ K ⎟ ⎝ K⎠
1−α
→
δYi / δK i = Aα ⋅ ( L)1−α
Come è facile constatare, la produttività marginale del capitale è costante, e questa caratteristica consente al modello con learning by doing di avere crescita endogena di lungo periodo.
2. Modelli con capitale umano Nei paragrafi precedenti è stato detto che è possibile avere crescita di lungo periodo delle grandezze pro-capite senza progresso tecnologico esogeno se il capitale mostra rendimenti costanti. È stato inoltre accennato al fatto che l’assenza di rendimenti decrescenti del capitale può essere giustificata dal fatto che il capitale non è solo quello fisico, ma anche quello umano. Questo paragrafo tratta esplicitamente modelli con capitale fisico e umano. Per capitale umano si intende l’insieme delle abilità dei lavoratori: un’economia con molti lavoratori altamente qualificati sarà probabilmente più produttiva di un’economia nella quale gran parte dei lavoratori non possono né leggere né scrivere. L’accumulazione di capitale umano può essere il risultato di vari fattori, tra cui i più importanti sono: (i) il tempo dedicato all’istruzione (ii) il denaro investito nell’educazione (iii) le esternalità di cui può godere un individuo quando apprende (iv) le infrastrutture di cui può godere uno studente durante il processo di apprendimento. Negli ultimi secoli, l’aumento del capitale umano è stato tanto imponente quanto l’accumulazione di capitale fisico10. Il modo più naturale di estendere la nostra analisi per tener conto del capitale umano è modificare la funzione di produzione come segue: 10
All’inizio della rivoluzione industriale solo il 30% della popolazione sapeva leggere. Oggi, nei paesi ricchi il tasso di alfabetismo supera il 95%. Prima della rivoluzione industriale, l’istruzione non era obbligatoria. Oggi lo è, di solito fino all’età di 16 anni. Ci sono però molte differenze tra paesi. Oggi, nei paesi ricchi, il 100% delle persone ricevono l’istruzione primaria, il 90% quella secondaria, e il 38% quella universitaria. Gli stessi dati per i paesi poveri (con un PIL pro capite inferiore a 400 dollari all’anno) sono del 95%, 32% e 4%, rispettivamente. 38
Y = F (K , H ) dove con H è indicato lo stock di capitale umano. Potremmo pensare al capitale umano, H, come al numero di lavoratori, L, moltiplicato per il capitale umano di un tipico lavoratore, h. L’ipotesi che assumiamo è che la quantità di lavoratori, L, e la qualità degli stessi, h, siano perfetti sostituti nel senso che solo il prodotto Lh conta per la produzione. Quindi, fissare L non vuol dire ottenere dei rendimenti decrescenti, poiché il raddoppio di K e h, per un dato L, porta a raddoppiare anche Y. Assumiamo solo per semplicità di esposizione che la forza lavoro totale, L, sia fissa, e quindi che H cresca solo grazie ad incrementi nella qualità media h. Si noti inoltre che l’equazione sopra riportata non ammette alcun tipo di progresso tecnologico. Un esempio significativo è rappresentato dalla funzione di tipo Cobb-Douglas con capitale umano
Y = AK α H 1−α
Ad essa sono affiancate le equazioni dinamiche del capitale fisico e del capitale umano: K& = I K − δK
e
H& = I H − δH
Si assume che i due tipi di capitale abbiano lo stesso tasso di deprezzamento, δ . Il deprezzamento del capitale umano include le perdite dovute al deterioramento delle abilità e alla mortalità, al netto dei benefici ottenuti grazie all’esperienza. I K e I H rappresentano rispettivamente l’investimento lordo in capitale fisico e umano. L’implicazione di un modello di questo tipo è che il tasso di crescita del prodotto Y& / Y è correlato inversamente al rapporto tra capitale fisico e capitale umano K / H se questo è inferiore al proprio valore di stato stazionario α / (1 − α ) , mentre è
correlato positivamente a K / H se questo rapporto è inferiore a α / (1 − α ) 11 (Fig. 1). Un basso valore del rapporto K/H potrebbe essere stato causato da una guerra che ha distrutto buona parte del capitale fisico ma ha lasciato intatto il capitale umano (è la situazione della Germania e del Giappone alla fine della II Guerra mondiale). In queste circostanze, si riprenderebbe a investire massicciamente in capitale fisico (e molto meno in capitale umano), con conseguente aumento del rapporto K/H fino a che non sia raggiunto il valore di stato stazionario α / (1 − α ) . Il caso contrario, cioè alti valori del rapporto K/H, può invece essere stato causato da una estesa epidemia che ha ucciso gran parte della popolazione di uno stato lasciando intatte le infrastrutture. In tale circostanza si investirebbe massicciamente in capitale umano (e poco in capitale fisico) con conseguente riduzione del rapporto K/H e sua convergenza verso il valore α / (1 − α ) . Nel lungo periodo, comunque il prodotto cresce ad un tasso minimo fisico/capitale umano pari a
11
α / (1 − α ) .
(Y& / Y )
min
corrispondente ad un rapporto capitale
Queste conclusioni possono essere ottenute risolvendo algebricamente il modello di crescita basato su una funzione di produzione Cobb-Douglas con capitale umano. La risoluzione del modello è presentata in Barro-Sala i Martin, pag. 172 e segg. 39
Y& / Y
(Y& / Y )
min
α / (1 − α )
K/H
Figura 1 – Il tasso di crescita della produzione dipende da K / H . Il tasso minimo di crescita si ha in corrispondenza di K / H = α (1 − α ) . Abbiamo finora assunto che i beni fisici e l’istruzione siano generati dalle stesse funzioni di produzione. Così facendo però si ignora un aspetto fondamentale dell’istruzione: essa dipende pesantemente dall’input di persone istruite. Dovremmo perciò modificare il modello in modo che possa riflettere il fatto che la produzione del capitale umano sia relativamente intensiva in capitale. Con tali modifiche otteniamo conclusioni diverse circa gli effetti sulla crescita dello sbilanciamento tra capitale umano e fisico. Seguendo Rebelo (1991), ipotizzeremo due funzioni di produzione di tipo Cobb-Douglas:
Y = A ⋅ (vK ) (uH ) η 1−η H& + δH = B[(1 − v )K ] ⋅ [(1 − u )H ] α
1−α
η <α
dove A e B sono parametri tecnologici, v ed u sono rispettivamente frazioni di capitale umano e fisico usate nella produzione di beni. Le corrispondenti frazioni di capitale fisico e umano usate nella produzione di capitale umano sono (1 − v ) e (1 − u ) . Se η ≠ α allora il capitale umano è generato da una tecnologia differente da quella per i beni. Il fatto che η < α significa che il settore che produce capitale umano usa il capitale umano come input molto più intensamente di quanto non faccia il settore che produce i beni. 40
Le forme delle equazioni implicano che le attività di produzione siano caratterizzate da rendimenti costanti di scala in entrambi i fattori produttivi. Una conclusione importante dei modelli di questo tipo è che una riduzione del capitale umano crea maggiori problemi alla crescita di quanto non faccia una riduzione del capitale fisico. Nei termini del modello precedente, la crescita risulterà meno
rapida se K / H > α (1 − α ) ; graficamente si dovrebbe avere una relazione tra Y& / Y e K / H molto più piatta verso destra (figura 2). In pratica questi modelli predicono che l’economia dovrebbe riprendersi più velocemente da una guerra che ha distrutto principalmente il capitale fisico piuttosto che da un’epidemia che ha ridotto lo stock di capitale umano. Il ragionamento che sta alla base di questa conclusione è il seguente: se K / H > α (1 − α ) , allora il prodotto marginale del capitale umano è alto, e la crescita del sistema sarà principalmente condizionata dagli alti tassi di crescita del capitale umano stesso. Tuttavia, questo comporterà alti salari nel settore dell’educazione, che utilizza intensamente il capitale umano come fattore di produzione. Questo spingerà gli agenti economici ad allocare il capitale umano nella produzione di beni, piuttosto che nella produzione di altro capitale umano; la conseguenza sarà un rallentamento dei tassi di crescita dell’economia dovuto al fatto che il capitale umano utilizzato nella produzione di beni fisici è molto meno produttivo di quello usato nella produzione di altro capitale umano.
Y& / Y
(Y& / Y )
min
α / (1 − α )
K/H
Figura 2 – Il tasso di crescita della produzione quando K / H > α (1 − α ) cioè quando il capitale umano è
relativamente più scarso, è molto più basso che nel caso in cui K / H < α (1 − α ) cioè quando il capitale fisico è relativamente più scarso. 41
3. Innovazione attraverso la R&S La teoria dell’innovazione è stata oggetto dagli anni 70 di notevoli contributi. Tuttavia solo negli anni 90 tale teoria è stata applicata fruttuosamente alla spiegazione della crescita dei paesi. In maniera molto schematica possiamo dividere i contributi di questo filone di letteratura in due: il primo considera la cosiddetta innovazione orizzontale, ossia un processo innovativo che rende disponibili nuove tecniche di produzione che si affiancano a quelle già esistenti. Tipicamente il processo innovativo si concretizza nella produzione di nuovi beni intermedi, ad esempio come in Romer (1990). il secondo si occupa della cosiddetta innovazione verticale, ossia il caso in cui il processo innovativo produce beni nuovi che rimpiazzano quelli vecchi. Il precursore di tale tipo di approccio allo studio dell’attività innovativa fu Schumpeter e questo spiega perché tale filone è anche chiamato teoria della crescita schumpeteriana. Il modello capostipite è Aghion e Howitt (1992). Comune ad entrambi gli approcci è l’idea che il progresso tecnologico sia il frutto di un’attività esplicita e deliberata di ricerca, il cui frutto è la creazione di un brevetto che porta ad accumulare conoscenza. Infine è doveroso citare un filone di letteratura che si è sviluppato e continua a svilupparsi in modo alternativo a quello da noi trattato: la crescita è sempre generata dall’attività inventiva, ma quest’ultima è vista come strumento di concorrenza fra le imprese esistenti sul mercato e le regole di decisioni sono ricavate dall’esperienza e non da un processo di ottimizzazione; questo filone di letteratura prende il nome di teoria evolutiva dell’innovazione. Contributi in questo senso sono venuti da modelli nei quali è introdotta una attività intenzionale di R&S da parte delle imprese. Tali modelli sono più interessanti dei precedenti e abbandonano, tra l’altro, l’ipotesi di mercati perfettamente concorrenziali. Tornando ai due filoni di letteratura che analizziamo in questo paragrafo notiamo che sono stati formulati diversi modelli, che differiscono per vari aspetti. Sebbene anche in questi modelli gli agenti siano in grado di effettuare scelte relative ai fattori produttivi da accumulare, si può osservare come la crescita dell’economia alla fine dipenda in modo decisivo dalla presenza di una qualche funzione “ad hoc” di produzione dei fattori produttivi. Invece di illustrare i vari contributi analitici, ci si limiterà ad analizzare, in rappresentanza di tutti, la strategia di costruzione di uno di essi, nello specifico il modello di Paul Romer (1990). In sintesi, nel modello originale: 1) si introduce una funzione di produzione dei beni finali in cui la produzione dipende dalla varietà dei beni intermedi utilizzati; 2) tale funzione esibisce rendimenti costanti rispetto al numero di varietà; 3) i beni intermedi sono prodotti da un secondo settore che opera in regime di concorrenza monopolistica, utilizzando un terzo fattore produttivo (H); 4) il terzo settore, che produce H, cioè le “idee” (brevetti), risulta quello chiave: si ipotizza che in esso vi sia una funzione di produzione delle “idee” che ha rendimenti di scala costanti nell’unico input, che è H stesso, cioè il settore ha un tasso di crescita costante nel tempo. Il modello risulterà più comprensibile passando direttamente alla sua formulazione. La funzione di produzione per le imprese produttrici di beni finali è del tipo N
Y = AK β Lα ∑ xiγ i =1
42
dove 0 < α , β , γ < 1 e
α + β + γ = 1 , e xi
è l’impiego dell’i-esimo tipo di bene intermedio.
La forma additiva per x significa che il prodotto marginale dell’i-esimo tipo di bene intermedio è indipendente dalla quantità dell’i-esimo +1 (come può essere facilmente verificato), il che significa che l’introduzione di nuovi tipi di beni intermedi nel processo produttivo non rende obsoleti i vecchi tipi. In altre parole non vi è né perfetta sostituibilità né perfetta complementarità tra i beni intermedi stessi. Il progresso tecnologico è costituito dalla invenzione di nuovi tipi di x, per cui aumenta N (numero dei tipi). Supponendo che i vari tipi siano misurabili in una unità di misura comune, e che siano impiegati in uguale quantità, si ottiene che xi = x . Ciò dipende dal fatto che i beni intermedi hanno tutti lo stesso prezzo, che è uno dei risultati del modello e, come visto, la stessa produttività marginale. Come risultato di ciò è possibile riscrivere la funzione di produzione come
Y = AK β Lα Nx γ che può essere riscritta come
Y = AK β Lα ( Nx ) N 1−γ γ
In tale formulazione risulta evidente che, per ogni dato N , la produzione ha rendimenti di scala costanti in K, L e Nx, ma il 1−γ
termine N indica che Y cresce al crescere di N, in quanto sono introdotti, attraverso N, rendimenti di scala crescenti: se vi è creazione continua di beni intermedi, se cioè N aumenta senza limiti, ciò impedisce che la produttività marginale decrescente dei fattori produttivi L e K si rifletta in una tendenza verso lo stato stazionario. In definitiva l’economia mostra rendimenti decrescenti se si espande attraverso x, che rappresenta l’ammontare “quantitativo” dei beni intermedi utilizzati, ma ciò non si verifica se l’espansione avviene attraverso N, che invece costituisce un indice qualitativo dei beni intermedi, nel senso che misura la varietà esistente di essi. Un secondo passo del modello è quello di introdurre un secondo settore, che produce i beni intermedi. In questo caso si suppone che le imprese devono sostenere un costo fisso per produrre uno dei tipi di x; questo costo fisso è costituito dal costo per l’acquisizione di un brevetto (che è prodotto da un terzo settore). È importante sottolineare che l’invenzione è non rivale nell’uso: l’invenzione è costosa, ma gli usi successivi avvengono senza costi. Per questo motivo occorre un incentivo all’innovazione, che è costituito dalla concessione di un brevetto (di durata infinita). In ogni modo il punto rilevante per la spiegazione della crescita dell’economia risulta essere l’ipotesi che viene fatta riguardo al terzo settore dell’economia, quello cioè delle imprese che producono i brevetti. Infatti l’ipotesi è che in tale settore la funzione di produzione sia del tipo
N& = δK 2 N ϑ cioè
N& = δK 2 N ϑ −1 N
Ovviamente nel caso particolare in cui ϑ = 1 l’equazione precedente ci dice semplicemente che N cresce al tasso costante δK 2 . L’analisi svolta è solo parziale rispetto alle potenzialità complessive del modello, ma è sufficiente a mettere in luce alcune rilevanti caratteristiche. Risultano evidenti due aspetti:
43
1) appare rilevante l’ammontare di risorse che l’economia dedica al settore della R&S, qui indicate dalla variabile K 2 . Come accennato, l’incentivo a tale investimento deriva dalla presenza dei brevetti; 2) anche in questo caso la crescita del reddito dipende in modo cruciale dalla crescita esogena di un settore e, dal punto di vista analitico, la soluzione si avvicina ancora, come stile a quelle già viste. È vero comunque che la struttura del modello appare notevolmente arricchita. Fra l’altro anche in questo caso, dato che il modello contiene un settore che opera in concorrenza monopolistica, si ha che la soluzione di mercato non risulta ottimale (cioè le scelte autonome degli agenti non portano alla crescita più alta possibile). In questo modello il motore della crescita è individuato nel progresso tecnologico, e questo appare un netto miglioramento rispetto ad altri modelli: è la creazione di nuove idee (brevetti) che permette la crescita dell’economia nel lungo periodo. Il tipo di conoscenza che è utilizzato appare più sofisticato: da una parte si conferisce benefici che sono escludibili, cioè non generano esternalità, e ciò è inevitabile in un modello in cui le decisioni di investimento nei “brevetti” sono intenzionali da parte di imprese che massimizzano il profitto; da un’altra parte la tecnologia ha un carattere di non rivalità nel senso che, una volta sostenuto il costo per l’invenzione di un certo prototipo, questo può essere usato più volte senza costi addizionali.
44
- LA TEORIA DEL CICLO ECONOMICO REALE Il cosiddetto approccio “classico” (neoclassico) comprende, oltre alla Nuova Macroeconomia Classica, la Teoria del ciclo economico reale (Prescott). A differenza della prima, che fa perno sulle variabili monetarie, quest’ultima si concentra sui fondamenti reali e, in particolare, la tecnologia e le preferenze. Variazioni nei “fondamentali” possono indurre andamenti ciclici dell’economia. Non sono richiesti interventi pubblici perché i nuovi equilibri sono Pareto-ottimali. Come detto, l’equilibrio è determinato dai fondamentali reali, che comprendono: - una funzione di produzione del tipo:
Yt = z t F ( K t , Lt ) dove z t indica lo stato della tecnologia, che cresce nel tempo in modo aleatorio: ciò può produrre perturbazioni (shock) che conducono l’economia verso un nuovo equilibrio. - in una logica di ottimizzazione intertemporale, una funzione di utilità del lavoratore-consumatore del tipo: ∞
U te = Et [∑ β jU (C t + j , T0 − Lt + j ) / I t ] j =0
dove
β
è il fattore di sconto, C indica la domanda di consumo, T0 il tempo totale a disposizione, T0 − L la domanda di
tempo libero, I il set informativo a disposizione del soggetto (il lavoratore-consumatore) che formula la previsione. Il SMS intertemporale tra lavoro e tempo libero non è costante, ma varia nel tempo: ciò può essere responsabile del ciclo economico. Ipotizziamo che uno shock tecnologico positivo aumenti la produttività e dunque le retribuzioni. L’esito sarà diverso a seconda che lo shock sia percepito come temporaneo o come permanente: shock temporaneo
Effetto di sostituzione intertemporale: minor tempo libero e consumo oggi in vista di maggior consumo domani: ↑ offerta di lavoro. Effetto reddito: l’aumento della produttività produce ↑ R [che induce ↑ nel risparmio, con ulteriore effetto t
shock permanente
positivo sull’offerta di lavoro corrente] L’aumento permanente delle retribuzioni produce solo un effetto reddito, ma questa volta ↓ l’offerta di lavoro perché si preferisce il tempo libero. L’effetto su occupazione e retribuzioni è più contenuto.
45
- IL MODELLO DI BARRO-GORDON 1. Esposizione del modello Il modello si propone come estensione dinamica della critica di Lucas (Nuova Macroeconomia Classica). Il vincolo strutturale è espresso dalla seguente espressione (richiama per certi versi l’AS di Lucas):
Y = YN + α ( P& − P& e ) dove: YN è il reddito naturale; P& è la variabile di scelta (per comodità, indifferentemente obiettivo e strumento, assumendo
& → P& ) del “Governo”, mentre P& , cioè l’inflazione attesa, è la variabile di scelta dei “Cittadini”. che M S e
I Cittadini mirano a massimizzare la seguente funzione di utilità:
U = U ( P& − P& e ) con l’obiettivo di avere previsioni corrette:
P& e = P&
Æ Funzione di reazione dei “Cittadini” L’obiettivo del Governo è duplice:
Y Obiettivo = (1 + k )YN dove k è il tasso di crescita del reddito naturale P& Obiettivo = 0 Siamo di fronte a due obiettivi “fissi”, mentre lo strumento è unico (come detto, P& ). Non è dunque rispettata la condizione di corrispondenza tra obiettivi e strumenti. Impostiamo allora la questione ponendo un obiettivo “flessibile” e una funzione di perdita (LG) quadratica da minimizzare:
LG = β (Y − Y Obiettivo ) 2 + ( P& − P& Obiettivo ) 2
dove β indica il peso relativo assegnato all’obiettivo crescita rispetto a quello inflazione. Sostituendo abbiamo che:
LG = β [Y − (1 + k )YN ] 2 144 42444 3 Costodelladisoccupazione
+
P& 2 {
Costodell 'inf lazione
Quest’ultima viene minimizzata subordinatamente al vincolo strutturale visto all’inizio. Si procede per sostituzione del vincolo nella funzione LG, per cui:
LG = β [YN + α ( P& − P& e ) − (1 + k )YN ] 2 + P& 2
LG = β [α ( P& − P& e ) − kYN ] 2 + P& 2 La regola di minimizzazione comporta che si derivi la funzione LG rispetto alla variabile decisionale P& e si eguagli a zero. In tal modo giungiamo a definire P& che è pari a:
βα kYN βα 2 & e P& = P + 1 + βα 2 1 + βα 2
Æ
→
Funzione di reazione del “Governo”
Le due curve di reazione possono essere rappresentate graficamente: ricordiamo che l’interpretazione tramite tali curve è coerente con l’impostazione della teoria dei giochi, che valuta gli esiti delle interazioni tra i due giocatori, i Cittadini e il Governo. Accanto al grafico menzionato poniamo anche quello relativo alla curva di Phillips corretta con le aspettative (i due grafici verranno, di seguito, letti e interpretati congiuntamente): 46
Cittadini
P& P& = P& e = βα kYN
Nash
P& Governo
F
Nash
F 45° 0
P& e
0
U Le
soluzioni individuate sono: Dal p.to di vista del Governo (mix
U − P& ) Nash
Third best
P& = P& e ; ogni giocatore, anche se conoscesse con certezza la mossa
dell’altro, la confermerebbe, ma Pareto inefficiente 0
Second best
P& = P& e , Pareto-efficiente, ma non vi è equilibrio “nelle previsioni”
perché al Governo conviene portarsi in corrispondenza del punto F, sfruttando la sorpresa inflazionistica per ridurre la disoccupazione. I Cittadini, consapevoli di ciò, non prevederebbero più convergerebbe in Nash F
First best
P& e = 0 e si
P& e < P& per cui non sono confermate le previsioni dei Cittadini, che
sanno che il Governo tende a questa soluzione. Si manifesta un conflitto tra coerenza e ottimalità Per “trattenere” il sistema nel punto 0 (ottimale per i Cittadini e di “second best” per il Governo), quest’ultimo deve “legarsi le mani” (regole rigide Æ Commitment), evitando di mettere in atto politiche attive per sfruttare la sorpresa inflazionistica. 2. Una valutazione critica Tra le ipotesi di base del modello vi è quella di assenza di incertezza. In presenza di incertezza, il vincolo strutturale diventa (l’espressione dell’AS di Lucas):
Y = YN + α ( P& − P& e ) + ε dove il termine di errore stocastico (con valore atteso pari a zero,
E (ε ) = 0 ) può assumere valori:
ε >0 ε <0
: shock positivo : shock negativo Questa volta assumiamo che vi sia un’asimmetria informativa tra: - Cittadini: conoscono solo che E (ε ) = 0 47
- Governo: conosce la realizzazione di ε In tale ipotesi si ha che: i. sono preferibili comportamenti discrezionali da parte del Governo se si hanno shock con elevata varianza ii. è ottimale che il Governo si “leghi le mani” se gli shock presentano varianza ridotta E’ possibile anche che l’informazione non sia completa, nel senso che i Cittadini non conoscono il valore del parametro β . A seconda del valore di quest’ultimo si avranno esiti diversi:
β =0
Si avrà P& = 0 in tutti i periodi
β >0
Si può avere
P& > 0 in tutti i periodi P& = 0 nel primo periodo, perché il Governo cerca di conquistarsi una reputazione antinflazionistica; successivamente P& > 0
Un espediente per avvicinare l’equilibrio discrezionale a 0 è quello del Banchiere centrale autonomo e conservatore (Rogoff) con funzione di perdita:
LBC = ωP& 2 + (Y − Y Obiettivo ) 2 con ω > 1 (avversione all’inflazione). Il comportamento della BC si caratterizza per
YBC = YN P&BC < P&Governo
48
- LA REGOLA DI TAYLOR Si tratta di definire la variabile monetaria chiave. Taylor la individua nel tasso d’interesse (r). Si ritiene che la regola sia quella seguita dalla Fed nelle sue scelte di politica monetaria. Possiamo supporre una banca centrale BC che è attenta solo all’inflazione o una BC “attivista”, attenta anche alla crescita dell’economia (come la Fed). Nel primo caso:
r = rLPNormale + φ ( P& − P& Obiettivo )
dove φ è il grado di aggressività con cui la BC reagisce all’inflazione. Nel secondo caso:
r = rLPNormale + φ ( P& − P& Obiettivo ) − γ (U − U N ) dove UN è il tasso di disoccupazione naturale. In uno schema IS-LM è come se avessimo una LM orizzontale che fissa r. Noto questo valore e quindi la spesa di investimento, si determina, tramite la IS, Y. Quest’ultimo è dato da:
Y = Y0 −
b ( P& − P& Obiettivo ) 1 − c(1 − t ) + m
dove Y0 è il livello del reddito che si ha allorché r = rLP
Normale
mentre b (< 0) è l’elasticità degli investimenti al tasso
d’interesse (riguardo a quest’ultima grandezza vi è da distinguere tra il tasso nominale da quello reale, dove il primo, in base all’equazione di Fisher, è pari al tasso reale più il tasso di variazione atteso dei prezzi P& ). Quella scritta da ultimo è, indifferentemente, la funzione di reazione della politica monetaria e l’espressione dell’AD. Da un punto di vista grafico e
r IS Y
P& AD ≡ F .reazioneBC Y
Verifichiamo come, all’aumentare dell’inflazione, la BC reagisca rialzando i tassi di riferimento, il che provoca una deflazione del reddito. 49
- LA NUOVA MACROECONOMIA KEYNESIANA di Lia Fubini12 La risposta di fonte keynesiana alla nuova macroeconomia classica ha dato l’avvio a un nuovo filone teorico che da alcuni anni costituisce la corrente dominante in campo macroeconomico: la nuova macroeconomia keynesiana (NMK). Fra i principali esponenti della NMK possiamo citare Joseph Stiglitz, Olivier Blanchard, Stanley Fisher, Gregory Mankiw. Gli orientamenti dei “nuovi keynesiani” vengono spesso visti come antitetici rispetto a quelli dei monetaristi e dei teorici della NMC e sono considerati come uno sviluppo dell’impostazione di Keynes fondato su basi più rigorose. In realtà nella nuova economia keynesiana si possono ravvisare molti elementi di convergenza con la nuova macroeconomia classica: anche la NMK attribuisce grande importanza alle fondamenta microeconomiche della macroeconomia e molti autori che fanno riferimento a tale filone utilizzano l’ipotesi di aspettative razionali. Per quanto riguarda in particolare il mercato del lavoro, i teorici della NMK adottano dunque una prospettiva microeconomica e molti contributi di questo filone finiscono con l’analizzare il mercato del lavoro come un mercato a sé e non come risultato della performance dell’economia. La contrapposizione fra i nuovi keynesiani e gli economisti della NMC si basa sulla controversia relativa alla rigidità di prezzi e salari e alla volontarietà della disoccupazione. (…) Nel paradigma classico prezzi e salari sono flessibili, i mercati sono sempre in equilibrio e le politiche di stabilizzazione giocano un ruolo irrilevante. Viceversa nella NMK prezzi e salari sono rigidi o “vischiosi”, spesso i mercati non sono in equilibrio e l’intervento dello Stato gioca un ruolo di primo piano nella stabilizzazione dell’economia. Un altro importante elemento di disaccordo sta nel modo in cui viene trattato il mercato del lavoro: secondo i nuovi keynesiani si tratta di un mercato caratterizzato da rapporti peculiari fra imprese e lavoratori non assimilabile ai mercati delle merci. La NMK propone dunque un approccio che si pone al confine fra la teoria keynesiana e quella dei monetaristi e della NMC.
1. L’impostazione della NMK I nuovi keynesiani si propongono di formulare una teoria dell’occupazione, ponendone i fondamenti nella microeconomia del mercato del lavoro. In realtà, cercando di soddisfare il loro proposito, essi si allontanano progressivamente dall’insegnamento di Keynes, a cui viene indebitamente attribuita la convinzione che la rigidità dei salari sia causa della disoccupazione, quando invece Keynes sosteneva che una teoria generale dell’occupazione deve prescindere dalla flessibilità salariale. Come abbiamo visto, infatti, la performance del mercato del lavoro nella teoria di Keynes, così come nella sintesi neoclassica, è il risultato dell’interazione fra mercati dei beni e mercati finanziari e quindi deve essere messa in relazione con l’andamento della domanda aggregata. Secondo i teorici della NMC, nella sintesi neoclassica manca una spiegazione razionale della rigidità di prezzi e salari. La NMK nasce come risposta a tale critica e cerca di fornire una spiegazione razionale e microfondata alle rigidità presenti nell’economia. Per spiegare la disoccupazione, i contributi dei nuovi keynesiani concentrano l’attenzione sulle specificità del mercato del lavoro, che lo rendono diverso da tutti gli altri mercati, e ne evidenziano le numerose imperfezioni, quali informazioni asimmetriche, lavoro eterogeneo, concorrenza imperfetta . Alcuni autori di questo filone attribuiscono la causa della disoccupazione a rigidità derivanti da aspetti istituzionali, ad esempio la presenza dei sindacati, la tutela del lavoro, i sussidi di disoccupazione, la fissazione di minimi salariali. Ciò che accomuna la maggior parte dei contributi è la spiegazione della
12
http://www.personalweb.unito.it/lia.fubini/Capitoli_6-7_06.pdf 50
persistenza della disoccupazione basata sulle rigidità salariale. La NMK spiega la rigidità salariale sulla base di fondamenti razionali che fanno sì che i soggetti non abbiano interesse a mutare i loro comportamenti. Secondo i nuovi economisti keynesiani, dunque, i salari non si aggiustano in modo sufficientemente rapido per portare costantemente in equilibrio il mercato del lavoro. Tanto minori sono le fluttuazioni del salario reale, tanto maggiori sono le fluttuazioni dell’occupazione. Quando, al salario reale vigente, l’offerta di lavoro supera la domanda si crea disoccupazione; la viscosità dei salari non permette di riassorbire la disoccupazione riportando in equilibrio domanda e offerta di lavoro. Si consideri la figura 6.1.
Se i salari reali sono rigidi e superiori al livello di equilibrio, l’offerta di lavoro eccede la domanda. La domanda di lavoro, infatti, è pari a L1 mentre l’offerta di lavoro è pari a L2. Ne risulta perciò un livello di disoccupazione pari a (L2-L1). Riassumendo, i nuovi economisti keynesiani ritengono che si generi disoccupazione quando la rigidità salariale non permette di bilanciare domanda e offerta di lavoro. Il dibattito si sposta a questo punto sulle ragioni della rigidità salariale e sui motivi per cui i salari effettivi tendono nel tempo a rimanere al di sopra del salario di equilibrio, causando perciò una persistenza nella disoccupazione. I motivi addotti per spiegare le rigidità salariale sono numerosi. Vedremo nei prossimi paragrafi alcune fra le principali teorie sulle rigidità salariali. La letteratura economica in proposito è vastissima, qui abbiamo selezionato le teorie più note e significative. Resta aperta la questione se davvero la rigidità dei salari sia causa della disoccupazione e se la flessibilità salariale sia in grado di promuovere il pieno impiego; questa assunzione contiene in effetti degli elementi di arbitrarietà, ma su questo argomento torneremo più avanti.
2. I contratti impliciti La teoria dei contratti impliciti, sviluppata a partire dalla metà degli anni settanta, costituisce un primo tentativo di mettere in relazione la vischiosità dei salari con la disoccupazione in un ambito di scelte ottimizzanti di lavoratori e imprese. Tale approccio assume un particolare rilievo, perché apre la strada a una letteratura che pone l’accento sul fatto che il mercato del lavoro non può essere trattato alla stregua di un qualsiasi mercato dei beni, perché caratterizzato da rapporti di lavoro duraturi e continuativi. 51
La mobilità del lavoro non risulta conveniente né per le imprese né per i lavoratori. Per le imprese è costoso sostituire un lavoratore per vari motivi: la ricerca di un lavoratore adatto a ricoprire il posto vacante può essere lunga e difficile, spesso l’impresa deve sostenere costi per formare il nuovo assunto, i nuovi lavoratori impiegano tempo ad adattarsi al nuovo posto di lavoro. Anche il cambiamento del posto di lavoro per i lavoratori può risultare costoso. In primo luogo, la ricerca di un nuovo lavoro può risultare lunga e complessa e il lavoratore può rimanere disoccupato per un certo periodo, con tutte le conseguenze negative che ciò comporta. Ma anche se c’è piena occupazione e il periodo di disoccupazione risulta limitato o nullo, di regola i lavoratori preferiscono non cambiare posto di lavoro perché normalmente i nuovi assunti vengono pagati meno dei lavoratori inseriti da tempo in un’impresa e perché il cambiamento del posto di lavoro può creare disagi. Date queste premesse, nei modelli dei contratti impliciti il motivo chiave per cui vengono stipulati contratti duraturi e continuativi va ricercato nel diverso atteggiamento rispetto al rischio. I lavoratori sono normalmente avversi al rischio di fluttuazioni dei salari a causa delle difficoltà che incontrano a diversificare il loro portafoglio, che è costituito essenzialmente dal capitale umano in loro possesso; perciò preferiscono un salario sicuro e costante piuttosto che un salario che oscilla a seconda delle variazioni del prodotto marginale del lavoro. Le imprese sono invece meno avverse al rischio (di solito in questa letteratura si suppone che siano neutrali), poiché gli azionisti possono diversificare il loro portafoglio e gli imprenditori i loro investimenti. Un altro motivo per cui le imprese hanno una maggiore propensione al rischio rispetto ai lavoratori può essere ricercato nel fatto che chi ha maggiore propensione al rischio tende a scegliere l’attività imprenditoriale, mentre chi è più avverso al rischio sceglie il lavoro dipendente. Sulla base di questo diverso atteggiamento, risulta vantaggioso sia per i lavoratori che per le imprese stipulare contratti che implicitamente contengono un aspetto assicurativo: le imprese si impegnano a non ridurre e aumentare i salari, o a licenziare per poi riassumere lavoratori in relazione alle fluttuazioni della domanda dei loro prodotti; i lavoratori accettano un salario più basso di quello che altrimenti potrebbero percepire in cambio della stabilità del salario e del posto di lavoro. Il salario si discosta quindi normalmente dal prodotto marginale del lavoro e risulta più elevato nei periodi negativi per gli affari dell’impresa e più basso nei periodi positivi. Il contratto implicito di cui si parla in questi modelli è un accordo tacito secondo cui le imprese evitano di licenziare i lavoratori quando si verifica un calo della domanda dei loro prodotti, se non nei casi strettamente necessari, e i lavoratori tendono a rimanere stabilmente all’interno di un’impresa. Poiché tale aspetto dei contratti non è esplicitamente sottoscritto dalle parti, deve esserci una reciproca convenienza perché sia rispettato. Tale convenienza risiede nel fatto che il mancato rispetto del contratto crea un cattiva reputazione all’impresa e quindi le rende difficile assumere nuovi lavoratori e i lavoratori che rimangono stabilmente nell’impresa possono beneficiare dei vantaggi legati alla carriera e all’anzianità13. La teoria dei contratti impliciti ha il merito di introdurre nella teoria economica l’idea che il funzionamento del mercato del lavoro non si basa su rapporti impersonali fra lavoratori e datori di lavoro e spiega perché i salari tendono a essere rigidi nelle diverse fasi del ciclo economico. Tuttavia non è in grado di dare una spiegazione della disoccupazione, neppure nell’ottica secondo cui la disoccupazione sarebbe generata da un livello dei salari più elevati rispetto a quello di equilibrio; infatti nella teoria dei contratti impliciti il salario medio è quello di equilibrio.
3. I salari di efficienza
13
Si noti che oggi la crescente mobilità del lavoro e l’utilizzo crescente di contratti a tempo determinato indeboliscono nettamente questo approccio. 52
Il presupposto su cui si basa la teoria dei salari di efficienza è che la produttività dei lavoratori sia correlata positivamente col salario reale. L’idea di un legame fra la paga del lavoratore e la sua produttività è nata per spiegare come nei paesi in via di sviluppo una retribuzione più elevata sia in grado di migliorare l’alimentazione e quindi lo stato di salute e di efficienza fisica dei lavoratori, rendendoli così più produttivi. Si è constatato però che anche nei paesi sviluppati, se pure per motivi diversi, esiste un legame fra salari reali e produttività del lavoro. L’impegno dei lavoratori dipende in larga misura dal livello dei salari. Salari alti possono invogliare i lavoratori a lavorare bene. Quindi a più alti salari reali corrisponde una più elevata produttività del lavoro, per cui è razionale per le imprese pagare salari più elevati di quelli di equilibrio. Si deve poi considerare che i lavoratori hanno diversi livelli di efficienza e le imprese hanno difficoltà a valutare le capacità del lavoratore prima dell’assunzione. La carenza di informazioni sulle effettive capacità dei lavoratori fa sì che le imprese siano restie ad assumere lavoratori che si accontentano di bassi salari, perché temono che non siano abbastanza efficienti. Esiste poi un altro tipo di problema informativo: le imprese hanno difficoltà a controllare a costi ragionevolmente bassi lo sforzo lavorativo degli addetti. Questi possono tenere comportamenti sleali (moral hazard) e non impegnarsi adeguatamente sul lavoro. Salari elevati disincentivano tali comportamenti, perché se i lavoratori vengono colti in fallo nei comportamenti sleali e licenziati per scarsa produttività, hanno difficoltà a trovare un’impresa che offra loro un salario altrettanto elevato o, se c’è elevata disoccupazione, a trovare un altro posto di lavoro. In genere le imprese non abbassano i salari in presenza di un eccesso di offerta di lavoro. Una diminuzione dei salari spinge i lavoratori, specie i migliori, ad abbandonare il posto di lavoro per cercarne uno meglio retribuito presso un‘altra impresa e ciò comporta due effetti negativi per il datore di lavoro: allontana dall’impresa i lavoratori più efficienti e accresce il turnover dei lavoratori all’interno dell’impresa. Un aumento del turnover comporta per l’impresa un aumento dei costi di ricerca e di addestramento. Per i motivi sopra menzionati è possibile che una contrazione dei salari provochi una diminuzione dei profitti attesi. Si pone a questo punto il problema di quale sia per l’impresa il salario efficiente, cioè il salario che permette di massimizzare i profitti. Ovviamente il salario efficiente può variare a seconda delle imprese e delle circostanze; tuttavia la teoria suggerisce che il salario reale tenda ad essere piuttosto rigido e superiore al salario che rende uguali domanda e offerta di lavoro. Un elemento rilevante della teoria dei salari di efficienza riguarda l’interdipendenza fra i salari di imprese diverse. Se alcune imprese abbassano i salari mentre altre li mantengono più elevati, quelle che abbassano i salari vedranno ridurre l’efficienza dei loro lavoratori e perderanno i lavoratori più produttivi. Ciò spiega perché i salari tendono ad essere rigidi verso il basso in modo generalizzato. La teoria dei salari di efficienza fornisce dunque una spiegazione articolata dei motivi per cui le imprese non abbassano i salari anche in presenza di un eccesso di offerta di lavoro. Ed è anche in grado di spiegare alcune caratteristiche del funzionamento del mercato del lavoro: spiega ad esempio perché esistono mercati del lavoro dualistici con un settore primario, in cui vengono pagati salari più elevati e un settore secondario, in cui i salari sono più bassi. Vediamo ora perché la teoria dei salari di efficienza è in grado di colmare alcune lacune interpretative del modello classico. Con l’introduzione dei salari di efficienza, i salari pagati dalle imprese sono fissi e quindi le variazioni dell’occupazione non possono essere attribuite a variazioni del salario reale. I salari di efficienza spiegano anche perché in fasi recessive le imprese preferiscono ridurre la manodopera occupata piuttosto che abbassare i salari. Infatti salari più bassi riducono la qualità delle prestazioni dei lavoratori e quindi la loro produttività. Risulta perciò razionale per le imprese, cioè compatibile con l’obiettivo di massimizzazione dei profitti, ridurre l’occupazione piuttosto che i salari. Resta il dubbio che, come le altre spiegazioni della rigidità salariale, la teoria dei salari di efficienza sia in grado di spiegare le cause della disoccupazione. Anzi, si potrebbe affermare che i salari di efficienza possano nel lungo periodo avere un effetto positivo sull’occupazione, perché favoriscono processi di accumulazione delle esperienze fra i lavoratori, consentono il 53
migliorare l’organizzazione del lavoro e possono costituire uno stimolo ai processi innovativi. Tali processi migliorano la competitività delle imprese e quindi ne favoriscono la crescita, anche in termini occupazionali.
4. La teoria dei contratti a lungo termine Esaminiamo ora gli approcci che fanno riferimento alle caratteristiche generali dei contratti di lavoro, che, a nostro parere, costituiscono uno fra gli elementi più interessanti proposti dalla NMK per spiegare la rigidità o il lento aggiustamento dei salari monetari. Si tratta di teorie che spiegano la viscosità dei salari nominali, non di quelli reali. Nelle moderne economie le imprese o le associazioni imprenditoriali fissano la struttura dei salari, contrattandola con le associazioni dei lavoratori, e la mantengono immutata per un certo lasso di tempo. La maggior parte dei contratti di lavoro copre periodi di tempo piuttosto lunghi, i contratti hanno quasi sempre una durata pluriennale e possono prevedere incrementi salariali che entrano in vigore a date stabilite. In certi casi è prevista una qualche forma di indicizzazione al tasso di inflazione, ma tale indicizzazione in pratica non è mai completa. L’andamento dei salari stipulati nei settori sindacalizzati tende a essere preso a modello, anche se non completamente, nei settori non sindacalizzati dell’economia. Dunque per tutto il periodo in cui il contratto resta in vigore, i salari nominali tendono ad essere piuttosto rigidi, anche se non completamente. La rigidità dei contratti salariali per tutto il periodo di durata del contratto non permette un adeguamento dei salari al mutare delle condizioni dell’economia. Ad esempio, a fronte di un calo della domanda le imprese non possono diminuire i salari e diminuiscono perciò la manodopera occupata. Si può generare perciò disoccupazione e calo della produzione. Vengono accentuate perciò le fluttuazioni cicliche dell’economia e ciò ovviamente comporta un costo per l’intera società. Ciò non significa però che la contrattazione a lungo termine non sia basata su comportamenti razionali. La contrattazione salariale comporta infatti dei costi tanto per gli imprenditori quanto per i lavoratori. Nei periodi dei rinnovi contrattuali sia le imprese che i sindacati devono impegnarsi nella formulazione di previsioni, le une sull’andamento futuro della produzione e delle vendite, gli altri sull’andamento dei prezzi nell’economia. Se poi esistono motivi di disaccordo, i sindacati possono ricorrere allo strumento dello sciopero, che comporta un costo per entrambe i contraenti. I lavoratori perdono la retribuzione nelle ore di sciopero e le imprese devono interrompere i processi produttivi quindi vedono diminuire il loro fatturato. Dunque sia gli imprenditori che i lavoratori tendono a evitare di dover affrontare con troppa frequenza i costi della negoziazione. Esiste un altro motivo per cui i contratti a lungo termine risultano razionali: se imprese e lavoratori conoscono con anticipo il livello dei salari possono fare le loro scelte sulla base di informazioni certe.
5. La teoria dei contratti periodici La situazione analizzata nel paragrafo precedente si complica, poi, se i salari non vengono negoziati tutti simultaneamente. E’ questo l’oggetto su cui indaga la teoria dei contratti periodici14. Tale teoria si basa sulla constatazione che i contratti di lavoro non solo sono rinnovati a scadenze fisse con intervalli di tempo piuttosto lunghi, ma normalmente la contrattazione è scaglionata nel tempo.
14
Chi ha familiarità con la teoria dei “costi di menu” noterà una evidente analogia. Si noti comunque che la teoria dei contratti periodici è precedente a quella dei “costi di menu”, che può essere considerata una estensione della teoria dei contratti periodici. 54
Si supponga che i contratti salariali valgano per un periodo di due anni e che metà della forza lavoro contratti il salario all’inizio di un anno e l’altra metà all’inizio dell’anno successivo. Quindi all’inizio di ogni anno metà dei lavoratori può concordare il salario monetario sulla base degli eventi passati e delle aspettative per il futuro, mentre l’altra metà è vincolata dal contratto di lavoro stipulato l’anno prima. Si ha così una parziale rigidità dei salari monetari, perché solo metà di essi si adegua alla situazione corrente. In presenza di shock o politiche economiche previste o impreviste, dunque, una parte dei salari non può adeguarsi alle nuove condizioni. Inoltre è necessario tenere conto dei meccanismi di “rincorsa salariale”. Se i contratti sono scaglionati, gli agenti sono influenzati non solo dalle condizioni economiche attuali e dalle aspettative rispetto al futuro, ma anche dai salari contrattati dai lavoratori che hanno stipulato il contratto l’anno precedente15. Se poi, il periodo di durata dei contratti è più lungo, e i contratti sono scaglionati in un numero maggiore di periodi, il tempo di adeguamento alle mutate condizioni macroeconomiche si allunga. Si può obiettare a questo punto che lo scaglionamento dei contratti di lavoro non è né razionale, né efficiente, tuttavia questa è la realtà in quasi tutti i paesi e come tale bisogna tenerne conto16.
15
Per comprendere questo meccanismo ricorriamo a un esempio. Si supponga che lo scorso anno sia stato concluso il contratto dei metalmeccanici sulla base di un’aspettativa di inflazione del 3% e che quest’anno debba essere stipulato il contratto dei chimici. Ammettiamo che le condizioni dell’economia siano mutate e che si siano ridotte le aspettative di inflazione, ad esempio che l’inflazione attesa sia l’1%. A rigore i nuovi contratti dei chimici dovrebbero prevedere salari più bassi di quelli dei metalmeccanici. E’ probabile che ciò avvenga, ma che l’adeguamento alle nuove condizioni non sia completo. Infatti se i salari dei chimici sono sensibilmente più bassi di quelli dei metalmeccanici, i lavoratori chimici cercheranno di cambiare occupazione e di andare a lavorare in un’azienda metalmeccanica, che offre un salario maggiore ed è probabile che almeno una parte ci riesca. Ciò finirebbe col creare problemi alle imprese chimiche che, per trattenere i lavoratori dovrebbero aumentare i salari. Solo se le differenze salariali fra chimici e metalmeccanici non sono particolarmente rilevanti, i lavoratori non saranno spinti a cercare un altro lavoro nel settore metalmeccanico, dato che il passaggio da un lavoro ad un altro può comportare dei costi per i lavoratori. Questo non è che un esempio, basato su un’ipotesi di contratti scaglionati per settori. Si possono pensare situazioni analoghe anche per i contratti scaglionati a livello di imprese. Quindi appare razionale tenere conto non solo delle attuali condizioni dell’economia ma anche dei contratti stipulati precedentemente. 16 Il Giappone rappresenta un caso interessante per la verifica delle teorie dei contratti a lungo termine e dei contratti periodici. In Giappone la maggior parte dei rinnovi contrattuali avviene simultaneamente e con scadenza annuale durante la cosiddetta “Offensiva di Primavera”. Inoltre nei contratti è prevista una quota consistente di salario variabile, legata alla performance dell’impresa. Quindi l’adeguamento dei salari alle mutate condizioni economiche appare molto rapido. Ci troviamo dunque di fronte a un caso di flessibilità dei salari sia reali che nominali. La quota di salario variabile, legata all’andamento economico dell’impresa, consente di far diminuire anche in modo consistente il salario monetario nelle fasi congiunturali negative. Certamente la flessibilità salariale ha costituito per un lungo periodo un potente ammortizzatore delle fluttuazioni cicliche dell’economia. Ma ciò è avvenuto in un periodo in cui l’economia giapponese presentava tassi di crescita particolarmente elevati. Si pensava allora che la flessibilità dei salari fosse un potente strumento per mantenere la piena occupazione. Negli anni novanta la situazione economica giapponese è radicalmente mutata. Con la grave recessione che ha colpito il Giappone, la disoccupazione ha cominciato a crescere e ha continuano ad aumentare per circa un decennio. Va osservato che il calo dei salari reali (dovuto al venir meno della quota variabile legata alla performance delle imprese) non ha contribuito al rilancio della domanda di consumi e può aver costituito un ostacolo alla ripresa economica. 55
6. I modelli di contrattazione sindacale I modelli che fanno riferimento al ruolo dei sindacati si basano sull’ipotesi che i salari determinati attraverso la contrattazione fra imprese e lavoratori tendano ad essere rigidi e rendano perciò più probabili le fluttuazioni dell’occupazione. I modelli di contrattazione sindacale si basano sull’ipotesi che i sindacati abbiano una funzione obiettivo ben precisa, che massimizza l’utilità dei propri membri. Tale assunzione implica che tutti i membri del sindacato siano trattati allo stesso modo sia dal sindacato che dall’impresa e che abbiano la stessa funzione di utilità. I modelli di contrattazione sindacale si differenziano per la scelta delle variabili che sono oggetto di contrattazione fra le parti sociali. Possiamo a questo proposito individuare quattro filoni di analisi: - i modelli di “right to manage”, in cui sindacati e imprese contrattano insieme il salario, - i modelli di monopolio, in cui i sindacati fissano il salario e le imprese decidono il livello di occupazione, - i modelli di contrattazione efficiente, in cui imprese e sindacati contrattano congiuntamente salari e occupazione - i modelli insider-outsider. Nell’approccio “right-to-manage” si suppone che il salario sia negoziato congiuntamente da imprese e sindacati. Restando sulla curva di domanda di lavoro, le imprese scelgono unilateralmente il livello dell’occupazione che consente di massimizzare i profitti. Ci sono diversi modelli che illustrano il processo di contrattazione fra sindacato e imprese. Consideriamo il modello più noto, cioè quello di Jackman17. Si ipotizza che il sindacato riceva dall’impresa un’offerta di un salario pari a w1; esso si porrà il problema di quanto a lungo potrà sostenere uno sciopero per ottenere un’offerta più elevata, ed esempio pari a w2. Il sindacato dovrà perciò valutare i costi derivanti dallo sciopero e i benefici che deriverebbero dall’ottenere un salario pari a w2. Analogamente l’impresa valuta i benefici che derivano dal pagare il salario w1 e i costi (cioè i minori profitti) derivanti dallo sciopero che dovrà subire. Si suppone che sia più disponibile all’accordo chi ha un potere contrattuale più debole, cioè la parte che è disponibile a sostenere i costi dello sciopero per un periodo più breve. Una versione estrema del modello “right-to-manage” è il modello del sindacato monopolista. Secondo tale approccio, il sindacato, tenendo conto della curva di domanda di lavoro delle imprese, è in grado di fissare unilateralmente e senza nessuna contrattazione, il livello dei salari, massimizzando la sua funzione di utilità. L’impresa successivamente determina il livello dell’occupazione. Il livello dei salari stabilito dal sindacato è ovviamente condizionato dalla posizione dei suoi aderenti. McDonald e Solow (1981) hanno sottolineato come nei modelli tipo “right-to-manage” si ottengano soluzioni inefficienti18. Nel modello di contrattazione efficiente si ipotizza che il sindacato sia interessato tanto al salario quanto all’occupazione; in tal caso sindacato e impresa potrebbero ottenere un miglioramento paretiano, definendo una soluzione contrattuale che non trascuri l’obiettivo dell’occupazione.
In ogni caso va osservato che le modalità di formazione dei salari in Giappone si inseriscono in un mercato tutt’altro che concorrenziale, che lo stato interviene a protezione delle imprese più deboli e dell’occupazione e che, per evitare licenziamenti, ha incentivato riduzioni dell’orario di lavoro. Ciò spiega perché la crescita della disoccupazione in Giappone è stata relativamente contenuta. E’ opportuno perciò usare molta cautela quando si cita il modello giapponese per dimostrare che quanto maggiore è la flessibilità salariale, tanto minori sono le fluttuazioni dell’occupazione. 17 R. Jackman “Money wage rigidity in an economy with rational trade unions” in G. Hutchinson and J. Treble (eds.), “Recent Advances in Labour Economics”, Croom Helm, London, 1984. 18 I. McDonald and R. Solow “Wage bargaining and employment”, American Economic Review n. 71, 1981. 56
Una critica importante al tipo di modelli di comportamento del sindacato che abbiamo considerato riguarda il fatto che si collocano in un contesto statico e quindi non sono in grado di tenere conto degli effetti degli obiettivi sindacali sull’andamento del tasso di sindacalizzazione. Alcuni tentativi sono stati fatti per spiegare l’evoluzione delle adesioni al sindacato; comunque questi modelli sembrano ancora scarsamente aderenti alla realtà19.
7. I modelli insider-outsider I modelli insider outsider costituiscono una variante dei modelli sul ruolo del sindacato. Secondo tali modelli i salari sono rigidi anche in presenza di disoccupazione per l’opposizione degli occupati (insider) che non hanno alcun interesse ad una diminuzione dei salari che permetta di assorbire la disoccupazione. I disoccupati (outsider) sarebbero disposti a lavorare a salari più bassi di quelli degli occupati e gli imprenditori potrebbero essere disposti ad assumerli, magari licenziando un occupato. Tuttavia ciò non accade per vari motivi, fra i quali possiamo citare: - Gli insider hanno una posizione contrattuale più forte, perché sono già in possesso delle qualificazioni richieste dall’impresa. - Esistono costi di licenziamento e di assunzione, di cui gli imprenditori devono tenere conto. - Gli insider terrebbero un comportamento ostile nei confronti sia dei lavoratori assunti a salario più basso a parità di mansione, coi quali si rifiuterebbero di cooperare, sia nei confronti dell’impresa che si è comportata in modo sleale. - Gli outsider non offrono le loro prestazioni lavorative a salari inferiori rispetto a quelli degli insider perché sanno che incontrerebbero l’ostilità degli insider. Dunque gli insider sono in una posizione contrattuale più forte e hanno interessi diversi da quelli degli outsider. Questi ultimi vorrebbero ottenere un posto di lavoro, gli insider vogliono mantenere l’occupazione e aumentare il salario reale. Gli insider si rendono conto che la loro forza dipende dall’agire collettivamente come un gruppo, e quindi sono interessati in primo luogo a evitare licenziamenti. Se allora il tasso di disoccupazione è basso, e gli occupati sono quindi relativamente numerosi, gli insider contratteranno un salario relativamente basso, dato che salari più alti implicherebbero una riduzione del personale. Viceversa, se la disoccupazione è elevata e gli occupati sono relativamente pochi, gli insider potranno contrattare un salario più elevato, dato che ogni occupato è prezioso per l’impresa. Gli insider hanno quindi sostanzialmente un potere monopolistico e un elevato livello di disoccupazione non può influenzare i salari. Anche in questo modello si sottolinea l’ipotesi di razionalità e come il comportamento razionale da parte degli insider non permetta il riassorbimento della disoccupazione. La modellistica insider outsider, che qui abbiamo brevemente sintetizzato, è stata oggetto di notevole attenzione nell’ambito della NMK. Tuttavia appare poco realistica e può essere oggetto delle stesse obiezioni che abbiamo visto a proposito dei 19
Le battaglie portate avanti da molti sindacati europei per combattere la disoccupazione, anche attraverso la riduzione degli orari di lavoro, mostrano come i sindacati possono essere interessati a favorire aumenti dell’occupazione, accettando politiche di moderazione salariale. In Italia nelle negoziazioni fra sindacati e imprese spesso è presente una richiesta da parte sindacale di nuove assunzioni. Le finalità del sindacato sono diverse a seconda delle tradizioni, del tipo di sindacato, del momento storico. Se guardiamo alle strategie sindacali nel nostro paese possiamo affermare che esse sono guidate da una pluralità di obiettivi, che appaiono difficilmente sintetizzabili in un modello semplificato. In ogni caso la realtà in Italia, così come in molti paesi europei, evidenzia oggi una particolare attenzione al problema dell’occupazione, in un’ottica che va ben oltre la difesa dei livelli occupazionali esistenti, ma che comporta una particolare attenzione nei confronti dei disoccupati. 57
modelli sul ruolo del sindacato L’evidenza empirica mostra che le richieste salariali non aumentano quando la disoccupazione è più elevata, caso mai accade l’opposto e che, in ogni caso, gli insider non sono indifferenti all’andamento dell’occupazione, anche quando non ne sono direttamente toccati. (….)
8. Il NAIRU Nella NMK disoccupazione e inflazione vengono esaminate attraverso l’analisi del funzionamento del mercato del lavoro e dei beni in regime di concorrenza imperfetta. L’attenzione degli economisti neokeynesiani, come si è visto, è rivolta a mantenere fermi due principi fondamentali: a) i modelli devono essere microfondati, cioè i processi macroeconomici devono essere il risultato dell’aggregazione di processi individuali razionali, b) gli agenti sono razionali e hanno comportamenti ottimizzanti. Dunque i processi individuati a livello macroeconomico sono il risultato di scelte razionali operate a livello microeconomico. E’ importante notare che la NMK, pur abbandonando l’ipotesi dell’uguaglianza fra domanda e offerta di lavoro, non implica il concetto di disequilibrio, bensì una nuova concezione di equilibrio non più inteso come una situazione in cui domanda e offerta sono bilanciate; condizione di equilibrio viene invece considerata quella in cui nessun soggetto economico ha interesse a cambiare il suo comportamento. Con la NMK il concetto di tasso naturale di disoccupazione viene sostituito dal NAIRU (non accelerating inflation rate of unemployment), cioè il tasso di disoccupazione compatibile con un tasso di inflazione costante. Il tasso naturale di disoccupazione, come abbiamo visto, è definito come il tasso di disoccupazione determinato da una situazione di uguaglianza fra domanda e offerta di lavoro ed è costruito su fondamenti microeconomici che si basano sull’equilibrio concorrenziale dei mercati (in cui prezzi e salari sono dati per i singoli agenti). Il concetto di NAIRU è invece fondato sull’ipotesi di concorrenza imperfetta e non implica l’uguaglianza fra domanda e offerta di lavoro. Il NAIRU è quel valore del tasso di disoccupazione che rende compatibili le richieste salariali dei lavoratori con le richieste di profitto da parte delle imprese. Si supponga che tali richieste non risultino compatibili e che la somma delle richieste dei lavoratori e delle imprese sia superiore al prodotto disponibile; poiché sia le imprese che i lavoratori hanno un potere di mercato, si determina un conflitto distributivo fra lavoratori e imprese per accaparrarsi una quota di prodotto. I lavoratori cercano di ottenere salari reali più elevati mentre le imprese cercano di aumentare i prezzi, ne risulta perciò un aumento del tasso di inflazione. Vediamo ora come si determina il potere contrattuale di imprese e lavoratori. Per quanto riguarda le imprese, si assume che queste fissino il livello dei prezzi in base alla regola del mark-up, cioè stabiliscono un ricarico dei prezzi sui costi di produzione20. I salari monetari sono fissati attraverso la contrattazione fra sindacati e datori di lavoro. I lavoratori sono interessati ai salari reali; perciò i sindacati contrattano il livello dei salari monetari sulla base delle aspettative sul livello dei prezzi atteso nel periodo di validità degli accordi. Il potere contrattuale dei lavoratori dipende principalmente dal tasso di disoccupazione. In presenza di elevati tassi di disoccupazione, i salari risultano relativamente bassi perché il potere di contrattazione salariale risulta limitato, mentre man mano che la disoccupazione diminuisce, i salari tendono ad aumentare grazie alla maggior forza contrattuale dei lavoratori. 20
Se il mercato dei beni fosse perfettamente concorrenziale il prezzo sarebbe determinato dal costo marginale; poiché si assume che le imprese abbiano un potere di mercato, il prezzo risulta superiore al costo. (…) Ricordiamo che comunque l’evidenza empirica mostra che in concorrenza imperfetta i prezzi risultano poco sensibili a variazioni della domanda. 58
Nella figura 6.2 è illustrato graficamente il modello del NAIRU.
Sull’asse delle ascisse è indicato il tasso di disoccupazione. Sull’asse delle ordinate è indicato il salario reale W/P. La curva del salario reale contrattato è inclinata negativamente: tanto più elevato è il tasso di disoccupazione, tanto minore è il potere contrattuale dei lavoratori e perciò tanto più basse sono le rivendicazioni salariali; ad un diminuzione del tasso di disoccupazione corrisponde un aumento della forza contrattuale e quindi delle richieste salariali. Il salario reale fissato dalle imprese in base al mark-up è rappresentato da una retta orizzontale, in quanto non dipende dal tasso di disoccupazione, esso infatti dipende dalle decisioni delle imprese relative alla fissazione dei prezzi. Dalla figura 6.2 risulta evidente che esiste un solo tasso di disoccupazione di equilibrio, il NAIRU, indicato con UN, che rende compatibili le richieste salariali dei lavoratori con il costo del lavoro desiderato dalle imprese. Tale tasso di disoccupazione non implica l’equilibrio fra domanda e offerta in tutti i mercati. In genere in corrispondenza del NAIRU esiste disoccupazione involontaria. Al tasso di disoccupazione UN il salario reale è a livello (W/P) N. Il modello del NAIRU ipotizza che le imprese stabiliscano il prezzo quando già è stato contrattato il salario; quindi esse possono sempre raggiungere il loro obiettivo. Vediamo meglio perché il NAIRU rappresenta l’unico livello del tasso di disoccupazione che permette la costanza del tasso di inflazione. Se il salario contrattato è superiore a quello che comporta l’equilibrio del NAIRU, aumenta il salario fissato dalle imprese in base al mark-up e aumenta quindi il tasso di inflazione. Se il livello della domanda aggregata comporta un tasso di disoccupazione inferiore al NAIRU, aumenta la forza contrattuale dei lavoratori, che riescono perciò a spuntare un salario reale più elevato. Poiché le imprese fissano i prezzi dopo che è stato contrattato il salario, ad un aumento del salario contrattato le imprese reagiscono aumentando il livello dei prezzi per poter mantenere invariato il mark-up sui costi unitari del lavoro. Ciò comporta un aumento del tasso di inflazione. 59
L’aumento del tasso di inflazione erode gli aumenti salariali, per cui si verificano nuove richieste di aumenti salariali. A questo punto si crea un meccanismo di rincorsa prezzi-salari che determina un’accelerazione continua del tasso di inflazione. Dunque solo quando le richieste dei lavoratori coincidono con l’offerta salariale delle imprese, l’inflazione rimane costante. E’ evidente l’analogia di questo modello con il modello di Friedman. Tuttavia esistono alcune differenze di rilievo. Il concetto di NAIRU appare più realistico di quello di tasso naturale di disoccupazione sia perché assume un modello di concorrenza imperfetta, sia perché non esclude la presenza di disoccupazione involontaria anche in situazioni di equilibrio. Il modello del NAIRU ripropone l’alternativa fra inflazione e disoccupazione presente nella curva di Phillips. Se il governo vuole abbassare il tasso di disoccupazione con politiche espansive, deve fronteggiare un tasso di inflazione crescente. Tuttavia il modello del NAIRU implica anche che uno spostamento verso sinistra della curva del salario reale contrattato potrebbe ridurre permanentemente il tasso di disoccupazione e quindi il NAIRU. In questo ragionamento è sottintesa l’idea che un indebolimento del potere contrattuale dei sindacati e un aumento della flessibilità del mercato del lavoro favorirebbe la diminuzione del NAIRU. Ciò spiega l’attenzione rivolta dai teorici della NMK al problema delle rigidità salariali.
9. Conclusioni Come si è visto, esistono diversi elementi di convergenza fra la NMC e la NMK, in particolare l’importanza attribuita ai fondamenti microeconomici della macroeconomia e, in numerosi approcci della NMK, si accetta l’ipotesi di aspettative razionali. La NMK rigetta però non solo l’ipotesi della NMC secondo cui i mercati tendono all’equilibrio continuo e istantaneo, ma anche l’assunto neoclassico secondo cui il sistema economico può essere analizzato con un modello di concorrenza perfetta e la performance dell’economia è regolata prevalentemente dal sistema dei prezzi. La NMK cerca di spiegare le rigidità e le imperfezioni dei mercati, tenendo conto dell’esistenza delle condizioni di incertezza e dei costi delle informazioni21. In particolare il mercato del lavoro viene analizzato come un mercato diverso da tutti gli altri, in cui contano i rapporti personali, i contratti a lungo termine, le norme sociali, la buona reputazione. Il risultato è un approccio assai più realistico, che fornisce un indubbio contributo alla comprensione del funzionamento del mercato del lavoro. Tuttavia rimane il dubbio che la NMK sia davvero in grado di spiegare la disoccupazione. La NMK si distacca fondamentalmente dalla tradizione keynesiana e anche in parte dalla sintesi neoclassica perché, per spiegare la disoccupazione, concentra l’attenzione sul mercato del lavoro, mettendo in un angolo quella che per Keynes era la determinante fondamentale del livello di occupazione, e cioè la domanda effettiva. I keynesiani ortodossi inoltre dubitano che la flessibilità di prezzi e salari sia in grado di ridurre la disoccupazione involontaria. Anzi, in un’ottica keynesiana si potrebbe affermare che la rigidità dei salari potrebbe avere un effetto positivo sull’occupazione; infatti in presenza di salari rigidi variazioni della domanda dovrebbero avere l’effetto moltiplicativo sul reddito evidenziato dal modello keynesiano per cui, proprio grazie alla rigidità salariale, una politica economica espansiva potrebbe ridurre la disoccupazione senza eccessive tensioni inflazionistiche.
21
In questo si distacca anche dalla tradizione keynesiana, secondo cui tali rigidità e imperfezioni vengono assunte sulla base dell’evidenza empirica. 60
UNA MAPPA DELLE SCUOLE IN MACROECONOMIA di Giuseppe Garofalo NEOCLASSICI (1850-1920) Fisher, Marshall, Pigou, Wicksell • Legge degli sbocchi • Teoria quantitativa della moneta
• • •
KEYNES (1936) Principio della domanda effettiva Preferenza per la liquidità Interventismo pubblico
SINTESI NEOCLASSICA (1937-1970) Hicks, Klein, Modigliani, Patinkin, Phillips, Samuelson, Solow, Tobin • IS-LM • Effetti ricchezza • AD-AS • Rigidità nominali • Trade-off disoccupazione-inflazione • Scelte di portafoglio
MONETARISMO (1960-1970) Friedman, Phelps • Integrazione tra TQM e scelte di portafoglio • Aspettative inflazionistiche • Breve/Lungo periodo: scostamenti e convergenza all’ equilibrio “naturale”
61
NUOVA MACROECONOMIA CLASSICA (1975-...) Lucas, Sargent, Prescott, Wallace • Approccio stocastico • Aspettative razionali • Inefficacia della politica economica • Ciclo legato a fattori monetari/reali
NUOVA MACROECONOMIA KEYNESIANA (1980-...) Akerlof, Carlin-Soskice, Solow, Stiglitz • Fondamento micro della macro • Fallimenti del mercato: in particolare: - Asimmetrie informative - Concorrenza imperfetta • NAIRU, tasso di disoccupazione compatibile con un tasso di inflazione costante (compatibilità tra richieste salariali dei lavoratori e richieste di profitto delle imprese) • Rigidità nominali ed effetti di razionamento • Ruolo delle variabili finanziarie
NUOVA SINTESI NEOCLASSICA (1980-...) Bernanke, Blanchard, Fisher, Mankiw • Trend del reddito potenziale determinato da L, K, A. Influenza delle imperfezioni dei mercati, in particolare dei fattori • Fluttuazioni cicliche determinate da shock monetari o reali del sistema, amplificati da imperfezioni nel meccanismo di determinazione di prezzi e salari • Politiche macroeconomiche: fisco e moneta possono essere usati solo per stabilizzare il ciclo; nel lungo periodo sono neutrali rispetto agli andamenti delle grandezze reali • Politiche microeconomiche: utili per rimuovere imperfezioni dei mercati, in particolare dei fattori, con effetti sul trend del reddito potenziale Tre equazioni fondamentali:
Y = f (YN , P& e , r ) e ¾ P& = f ( P& , Y − YN ) Normale ¾ r = rLP + φ ( P& − P& Obiettivo ) − γ (U − U N ) ¾
Regola di Taylor
62
Esercizi di Macroeconomia (II livello) di G.Garofalo Esercizio 1 Noti i seguenti dati: C = 100 + 0,875 Y MD = Y – 2 r I = 100 - r MS = 1.000 Determinare: - l’espressione della IS - l’espressione della LM - l’espressione della AD - Y e P in equilibrio Rappresentare graficamente il sistema. Inquadrare teoricamente il modello.
Y = 100 L0,5 LS = (w/P)2
Soluzione IS: Y = 100 + 0,875 Y + 100 – r Æ Y = 1.600 – 8 r Æ r = 200 – 0,125 Y LM: Y – 2 r = 1.000/P Æ Y = 1.000/P + 2 r Æ r = – 500/P + 0,5 Y AD: Y = 1.600 – 8 (– 500/P + 0,5 Y) = 1.600 + 4.000/P – 4 Y Æ Y = 320 + 800/P LD Æ 50/(L)0,5 = w/P LS Æ L0,5 = w/P LD = LS Æ 50/(L)0,5 = L0,5 Æ L = 50 Y = 707,11 707,11 = 320 + 800/P Æ P = 800/387,11 = 2,066 r LM IS Y P
AS
w/P LD
LS
AD
2,066 707,11
Y
Y
L Y
63 Y
L
Esercizio 2 Noti i seguenti dati: C = 20 + 0,6 YD I = 151 – 3.000 r G = 90 T = 0,25 Y
X = 60 M = 0,05 Y MD = 0,6 Y – 6.000 r MS = 156 P=2
Determinare: - l’espressione della IS - l’espressione della LM Rappresentare graficamente il sistema. Calcolare l’effetto spiazzamento connesso ad un incremento della spesa pubblica di 10. Soluzione IS: Y = 20 + 0,45 Y + 151 – 3.000 r + 90 + 60 – 0,05 Y Æ Y = 535 − 5.000r LM: 0,6 Y – 6.000 r = 78 Æ Y = 130 + 10.000 r Æ r = – 0,013 + 0,0001 Y IS-LM: r = 0,027 Y = 400
ΔY = Effetto spiazzamento:
1 ⋅ 10 = 16, 6 0,6
⇔ ΔY =
Æ r = 0,107 – 0,0002 Y
1 ⋅ 10 = 11, 1 0,6 + 0,3
16, 6 − 11, 1 = 5, 5 r 0,107 0,027
130
400
535
Y
64
Esercizio 3 I seguenti dati sono riferiti ad un’economia in miniatura: Ricavi Costi Impresa A Impresa B Impresa C
500 50 400
Profitti ?
Salari = 400 Salari = 35 Salari = 100 + Acquisti presso Impresa A = 250
? ?
Calcolare: a. il valore aggiunto b. il valore dei beni finali c. i redditi distribuiti Risposte Definiamo innanzitutto i valori dell’ultima colonna. I profitti sono: 100; 15; 50 a. V.A. = 500 + 50 + (400 – 250) = 700 b. Valore beni finali = (500 – 250) + 50 + 400 = 700 c. Redditi = (400 + 100) + (35 + 15) + (100 + 50) = 700
Esercizio 4 Siano noti i seguenti dati C = 50 + 0,8 YD T = 10 + 0,3 Y I = 200 – 120 r
BM = 100
X = 86 P=2 P-1 = 2 M = 0,2 Y KE = 180 + 40 i Calcolare : a. il valore di tutte le endogene b. il saldo del bilancio pubblico c. il saldo della bilancia dei pagamenti Costruire i grafici de: - curva IS - curva LM Ricavare l’espressione della curva BB
TR = 90
G = 400
Ris. α= = 0,12 Dep.
β=
Circ. = 0,1 Dep.
P+1 = 2 L = 0,3 Y + 20 – 90 i KU = 250 – 250 i YPO = 1.100
65
Risposte Premettiamo che l’assenza di inflazione (rispetto alla data immediatamente precedente) e di inflazione attesa (rispetto alla data immediatamente successiva) rende r = i. Ciò non toglie che rispetto all’anno base si sia verificata inflazione.
E = 50 + 0,8(Y − 10 − 0,3Y + 90) + 200 − 120r + 400 + 86 − 0,2Y = 800 + [0,8(1 − 0,3) − 0,2]Y − 120r 144 42444 3 0 , 36
E =Y
→
Y (1 − 0,36) = 800 − 120r 1424 3
→
Y = 1250 − 187,5r ⎫ ⎬ r = 6, 6 − 0,005 3Y ⎭
IS
→
Y = 766, 6 + 300r ⎫ ⎬ r = −2, 5 + 0,00 3Y ⎭
LM
0 , 64
MS = L=
1 + 0,1 100 = 500 0,12 + 0,1
MS P
IS − LM
→
0,3Y + 20 − 90r = 250
⎧Y = 1250 − 187,5r ⎫ ⎨ ⎬ ⎩r = −2, 5 + 0,00 3Y ⎭
→
Y = 1250 − 187,5(−2, 5 + 0,00 3Y ) Y (1 + 0,625) = 1250 + 479,166 14243 1442443 1, 625
→
Y ≅ 1064
1729 ,166
r = −2, 5 + 0,00 3 ⋅ 1064 ≅ 0,99 Oltre a Y e r, le altre endogene sono:
C ≅ 710
I ≅ 81 T ≅ 329 M ≅ 213 E ≅ 1064 L = 250 Il saldo del bilancio pubblico è: BS = 10 + 0,3Y − 400 − 90 = 0,3Y − 480 Il saldo della bilancia dei pagamenti è:
Bdp = 86 − 0,2Y + 180 + 40r − 250 + 250r = 16 − 0,2Y + 290r L’espressione della BB è:
16 − 0,2Y + 290r = 0
→
→ →
BS = −160,76 Bdp = 90,7
Y = 80 + 1450r r = −0,055 + 0,00069Y
Il grafico IS-LM-BB è: 66
r 6,6 IS
LM BB
0,99 0,6 80
-0,05 -2,5
766 1064 947
1250
Y
_________
Esercizio 5 Con riferimento ai dati dell’esercizio precedente calcolare: a. il livello del reddito che assicura il pareggio del bilancio pubblico b. la variazione dell’aliquota fiscale per portare il deficit pubblico al livello “obiettivo” di 150 c. la variazione della spesa pubblica necessaria per colmare il divario di output, determinando le conseguenze della “retroazione monetaria” Indicare le conseguenze prodotte dal saldo della bilancia dei pagamenti (tenere presenti sempre i dati dell’Esercizio 2) in ipotesi di cambi flessibili. Risposte a. 0,3Y − 480 = 0
→
Y = 1600 BS
1064
1600
Y
- 480
b. t ⋅ 1064 − 480 = −150
→
c. Con moltiplicatore semplice: Δ Y= { 36
t = 0,31
1 ΔG 1 − 0,36
→
36 = 1,56 ⋅ ΔG
→
ΔG ≅ 23
Se il moltiplicatore è con retroazione monetaria:
Δ Y= { 36
1 ΔG 120 ⋅ 0,3 0,64 + 90
→
36 = 0,96 ⋅ ΔG
→
ΔG ≅ 37
d. Si possono distinguere due conseguenze prodotte dal surplus della bilancia dei pagamenti: - un impatto dell’apprezzamento dell’euro sui flussi commerciali (minore competitività) - un’attivazione del canale estero per quanto riguarda la creazione di base monetaria. 67
Esercizio 6 Sia nota l’espressione della curva di Phillips (che si presenta in forma lineare):
P& = v(U − U ) dove U vale in presenza di P& = 0 I dati dell’economia sono: Disoccupati = 100 Occupati = 1.000
v=4
U = 0,08
Qual è il tasso d’inflazione? Rappresentare la situazione graficamente. Risposte
Disoccup. → Occup. + Disoccup. Ne segue che P& = 4(0,08 − 0,09) → P& = −0,04
Essendo il tasso di disoccupazione
U=
100 ≅ 0,09 1100
Graficamente
P&
-0,04
0,08 0,09
U
Esercizio 7 I seguenti dati (in euro) si riferiscono ad un’economia in cui sono presenti tre imprese (mugnaio, fornaio, impresa meccanica) che producono tre tipi di beni (farina, pane e macchine) Val. produz.
Salari Rendite
Profitti
Val.mat. prima
Acquisti macchine
Acquisti di input all’estero
Vendita di output all’estero
50 10 5 35 25 Mugnaio 100 40 10 40 10 15 15 Fornaio 40 30 10 Impr.mecc. Calcolare il Pil con: a. il metodo della produzione (valore aggiunto e valore beni finali) b. il metodo dei redditi distribuiti c. il metodo della spesa (considerando singolarmente tutte le forme previste nell’esempio) 68
Risposte
- metodo della produzione - valore aggiunto : (50 – 0) + (100 – 10) + (40 – 10 { ) = 170 Import
- valore beni finali : (50 – 10) + (100) + (40 – 10) = 170 - metodo dei redditi distribuiti : (10 + 5 + 35) + (40 + 10 + 40) + (30) = 170 - metodo della spesa : [(50 - 10) + (100 - 15) + 0] + [ 25 +2 154 +30 ] + [ 014 + 15 +30 ] – [ 014 +2 0 +4 10 ] = 170 24 14 3
1444 424444 3 C =125
I = 40
X=15
M =10
Esercizio 8
Con riferimento ai dati dell’esercizio precedente, calcolare: - il risparmio delle famiglie - l’equilibrio sul mercato dei capitali - il totale delle risorse e degli impieghi Risposte
- risparmio delle famiglie : 170 - 125 { 1 42 4 3 = 45 S
Y -C
- equilibrio sul mercato dei capitali : 45 +35 { = 40 12 S
I + (X - M)
- totale delle risorse e degli impieghi : 170 +4 10 = 125 + 4043 +4 15 1 42 3 142 4 Y+M
C+I+ X
Esercizio 9
Il rapporto tra euro e dollaro passa da: 1€ = 1,25 $ nel 2007 a: 1€ = 1,125 $ nel 2008 Il prezzo di un bene (A) prodotto in Italia non muta nel periodo ed è pari a 1.000 €. D’altra parte, il prezzo di un bene (B) prodotto in Usa è pari a 1.000 $ ed anch’esso non subisce variazioni. - Calcolare, alle due date, il prezzo di ciascun bene nell’altra moneta - Chiarire cosa è accaduto a € vs $ e viceversa, e l’effetto prevedibile sui flussi commerciali. Risposte
- $ vs € : da: a:
1$ = 0,8 € 1$ = 0, 8 €
nel 2007 nel 2008
- prezzo di ciascun bene nell’altra moneta 69
prezzo bene (A) prodotto in Italia
1250 $ nel 2007 1125 $ nel 2008
prezzo bene (B) prodotto in Usa
800 €
nel 2007
888 €
nel 2008
Esercizio 10
In un’economia sono noti i seguenti dati Risparmio = 5.000
Spesa pubblica = 6.000
Investimenti = 4.000
Prelievo fiscale = 4.500
- A quanto ammonta il saldo tra export e import? - Si può indicare come sarà il saldo della bilancia dei movimenti di capitale? Risposte
- saldo tra export e import : Preliminarmente:
5000 + (6000 − 4500) + ( X − M ) { = 4000 144444 42444444 3 S
I + ( G −T ) + ( X − M )
oppure:
5000 + 4500 +4 M = 4000 +2 6000 +3 X 144 42 44 3 144 44 Dispersioni = S +T + M
Aggiunte = I + G + X
Ne segue che : (X – M) = – 500 - saldo della bilancia dei movimenti di capitale : + 500
70