Il volume è stato pubblicato con il contributo della Fondazione “Franca e Diego de Castro”.
© copyright Edizioni Università di Trieste, Trieste 2010.
Proprietà letteraria riservata. I diritti di traduzione, memorizzazione elettronica, di riproduzione e di adattamento totale e parziale di questa pubblicazione, con qualsiasi mezzo (compresi i microfilm, le fotocopie e altro) sono riservati per tutti i paesi.
ISBN 978-88-8303-315-5
EUT – Edizioni Università di Trieste via Weiss, 21 – 34128 Trieste http://eut.units.it
Convegno di studi su
Economia e Incertezza Trieste, 23 ottobre 2009
EUT EDIZIONI UNIVERSITÀ DI TRIESTE
Nel lontano 1987 prese avvio nella Facoltà di Economia dell’Università degli Studi di Trieste la sequenza di convegni dedicata al tema che caratterizza anche l’attuale incontro. Dalla considerazione che i fenomeni economici nascono dall’interazione di una miriade di decisioni di agenti economici prese in condizioni di incertezza, nacque l’idea di dar vita a cicli di
Università degli Studi di Trieste Facoltà di Economia Università degli Studi di Torino Facoltà di Economia Fondazione Franca e Diego de Castro Torino
Seminari e Convegni destinati a creare occasioni di discussione sull’argomento tra studiosi di formazione diversa: economisti, statistici, ingegneri e matematici applicati. Si cercò sistematicamente, e con successo, di coinvolgere nell’iniziativa anche studiosi di altre discipline e di altre sedi universitarie. Per esempio, nel 1998 si organizzò il Convegno “Sull’incertezza”, in collaborazione con il Laboratorio Interdisciplinare della SISSA (Scuola Internazionale Superiore di Studi Avanzati), che analizzò l’importanza dell’incertezza nella letteratura, nel diritto, nelle scienze fisiche e naturali oltre che nelle scienze economiche. Questa volta sono le Facoltà di Economia degli Atenei torinese e triestino a promuovere un incontro volto a discutere alcune tematiche
Convegno di studi su
Economia e Incertezza
economiche trattate con strumenti di logica dell’incertezza. L’incontro prevede anche un breve ricordo di due prestigiosi docenti delle due Facoltà che svolsero la loro attività scienti-
Trieste, 23 ottobre 2009
fica nel campo dell’incertezza: il prof. Bruno de Finetti e il prof. Diego de Castro.
Segreteria del Convegno: c/o Facoltà di Economia Segreteria di Presidenza 34127 Trieste, Piazzale Europa, 1 Edificio D, primo piano Tel. 040 5587016
[email protected] Segreteria scientifica: prof. Attilio Wedlin
[email protected]
UNIVERSITÀ DEGLI STUDI DI TRIESTE
Facoltà di Economia Sala Conferenze “Bruno de Finetti” Piazzale Europa, 1 - Trieste
UNIVERSITÀ DEGLI STUDI DI TRIESTE
Programma 9.00
Saluti introduttivi e ricordo di Bruno de Finetti
15.00
e di Diego de Castro. 9.30
10.00
Pietro Terna
Lucio Crisma Indipendenza stocastica senza paradossi
15.30
Ermanno Pitacco
Pagamenti interbancari e rischio sistemico:
Rendite vitalizie: tra vecchie formule
un modello di simulazione ad agenti
e nuovi scenari
Clara Busana
16.00
Sistemi pensionistici ed esposizione ai rischi:
Attilio Wedlin Processi stocastici di Lévy o di de Finetti-Lévy?
riflessioni dopo la crisi 10.30
16.30
pausa caffè
16.45
Elisa Luciano
Elsa Fornero Adeguatezza del risparmio previdenziale contro i rischi dell’età anziana
11.00
pausa caffè
11.15
Flavio Pressacco
Modelli di pricing del rischio di credito 17.15
Renato Pelessoni e Paolo Vicig Le misure di rischio nell’ambito della teoria delle probabilità imprecise
Bruno de Finetti precursore della moderna finanza matematica
17.45
Massimo Marinacci Aspetti metodologici della teoria delle decisioni
11.45
Igor Pruenster Incertezza nell’analisi macroeconomica:
18.15
Discussione
18.45
Chiusura dei lavori
un’illustrazione 12.15
Nicola Torelli Statistical matching: l’approccio basato sulla valutazione dell’incertezza
12.45
Discussione
13.15
Colazione di lavoro
UNIVERSITÀ DEGLI STUDI DI TRIESTE
Sommario
7 Presentazione
Pietro Terna 11 Systemic Risk in Artificial Worlds, Using a New Tool in the abm Perspective Clara Busana 25 Pension Systems’ Risk Sharing: Is the Multipillar Design Still Effective? Elsa Fornero 37 Adeguatezza del risparmio previdenziale contro i rischi dell’età anziana Flavio Pressacco, Laura Ziani 65 Bruno de Finetti forerunner of modern finance Antonio Lijoi, Pietro Muliere, Igor Pruenster, Filippo Taddei 85 Exchangeable Random Partitions for Statistical and Economic Modelling
Lucio Crisma 113 Indipendenza stocastica senza paradossi Ermanno Pitacco 137 Rendite vitalizie: tra vecchie formule e nuovi scenari Attilio Wedlin 157 Processi stocastici di Lévy o di de Finetti–Lévy? Elisa Luciano 171 Business Time and New Credit Risk Models Renato Pelessoni, Paolo Vicig 191 Le misure di rischio nell’ambito della teoria delle probabilità imprecise
Presentazione
A circa un anno dalla giornata del Convegno “Economia e Incertezza” (23 ottobre 2009) si licenzia questo volume che raccoglie, con due impreviste eccezioni, i testi delle comunicazioni presentate. Nel lontano 1987 prese avvio nella Facoltà di Economia dell’Università degli Studi di Trieste la sequenza di Convegni dedicata al tema che caratterizza anche l’incontro che qui presentiamo. Dalla considerazione che i fenomeni economici nascono dall’interazione di una miriade di decisioni prese da una moltitudine di agenti economici che operano in condizioni di incertezza, nacque l’idea di dar vita a cicli di seminari e convegni destinati a creare occasioni di discussione su tale argomento tra studiosi di formazione diversa: economisti, statistici, ingegneri e matematici applicati. Si cercò sistematicamente, e con successo, di coinvolgere nell’iniziativa anche studiosi di altre discipline e di altre sedi universitarie. Per esempio, nel 1998 si organizzò il Convegno “Sull’incertezza”, in collaborazione con il Laboratorio Interdisciplinare della SISSA (Scuola Internazionale Superiore di Studi Avanzati), che analizzò l’importanza dell’incertezza nella letteratura, nel diritto, nelle scienze fisiche e naturali, oltre che nelle scienze economiche. Questa volta sono state le Facoltà di Economia degli Atenei torinese e triestino a promuovere un incontro volto a discutere alcune tematiche economiche utilizzando strumenti di logica dell’incertezza. Gli argomenti economici prescelti sono di estrema attualità: i rischi connessi con la modellizzazione e la previsione dei fe-
nomeni macroeconomici e finanziari, e i loro effetti sul funzionamento delle istituzioni e in particolare di quelle previdenziali e pensionistiche. Non sarà mai abbastanza sottolineata l’importanza dell’incertezza sulle decisioni degli operatori economici: ognuno di noi è costretto a imparare a coesistere con il rischio. Accade però che pochi sono in possesso degli strumenti per gestire situazioni di rischio. La maggior parte di noi si limita il più delle volte a trasferire il rischio insito in una determinata situazione ad istituti privati (aziende assicurative) o pubblici, sopportandone il relativo costo. Nelle situazioni meno importanti si giunge a “dimenticare” il carattere incerto di una situazione in cui ci troviamo e “fingere” che l’incertezza non ci sia o, al massimo, ad esorcizzarla facendovi riferimento con locuzioni quali “probabilmente”, “forse”, “si suppone”, “è verosimile” e così via. Il fatto è che spesso non conosciamo o conosciamo poco la logica dell’incertezza, più nota come teoria e calcolo delle probabilità. Nel nostro sistema scolastico, dall’insegnamento elementare a quello universitario, la si incontra sporadicamente e talvolta travestita in modo tale da risultare irriconoscibile e inutilizzabile. La nozione di probabilità è la grande assente nel nostro sistema educativo. Se ne lamentavano già molti anni fa due studiosi italiani, i professori Bruno de Finetti, docente nell’Ateneo triestino, e Diego de Castro, docente nell’Ateneo torinese, che sono stati ricordati all’apertura del Convegno. E la situazione non è molto cambiata dagli anni lontani del loro magistero sui due versanti dell’incertezza: rispettivamente la teoria della probabilità e la statistica. Questi Atti raccolgono i contributi scritti dai relatori e pervenuti agli organizzatori entro i termini di tempo stabiliti onde evitare un intervallo temporale eccessivo tra la manifestazione del Convegno e l’uscita del volume. Ringraziamo la Fondazione “Franca e Diego de Castro” per il supporto finanziario alla realizzazione del Convegno. Infine un ringraziamento particolare alla signora Gabriella Clabot che ha curato con competenza ed impegno l’elaborazione grafica e l’impaginazione. Trieste, ottobre 2010
Gianluigi Gallenti Giovanni Panjek Attilio Wedlin
SYSTEMIC RISK IN ARTIFICIAL WORLDS, USING A NEW TOOL IN THE ABM PERSPECTIVE PIETRO TERNA Department of Economics and Public Finance, University of Torino, Corso Unione Sovietica 218bis, 10134 Torino, Italy
[email protected]
We propose SLAPP, or Swarm-Like Agent Protocol in Python, as a simplified application of the original Swarm protocol, choosing Python as a simultaneously simple and complete object-oriented framework. With SLAPP we develop two test models in the Agent-Based Models (ABM) perspective, building an artificial world related to the actual important issue of interbank payment and liquidity.
1
A few notes on agents and complexity
Following Ostrom (1988), and to some extent, Gilbert and Terna (2000), in social science, we traditionally build models as simplified representations of reality in two ways: (i) verbal argumentation and (ii) mathematical equations, typically with statistics and econometrics. The first way (i) is absolutely flexible and adaptable, as in the case of a historical book reporting an analysis of past events, but mere descriptions and discussion, by their nature, preclude tests and verifications of hypotheses. In contrast, the second way (ii) allows for computations and verifications, but suffers from severe limitations in flexibility and adaptation, especially with respect to how agents are expected to operate in the model and when accounting for their heterogeneity and interactions. There is a third way to build models, (iii) computer simulation, mainly if agent-based. Computer simulation can combine the extreme flexibility of a computer code where we can create agents who act, make choices, and react to the choices of other agents and to modification of their environment – and its intrinsic computability. This allows us to use the descriptive capabilities of verbal argumentation and the ability to calculate the effects of different situations and hypotheses together. From this perspective, the computer program is a form of mathematics. In addition, we can generate time series from our models and analyze them employing statistics and econometrics. However, reality is intrinsically agent-based, not equation-based (for a short, but illuminating discussion of this consideration, see Weinberg (2002) in his review of Wolfram’s book, A New Kind of Science). At first glance, this is a strong criticism. Why reproduce social structures in an agent-based way, following (iii), when science applies (ii) to describe, explain, and forecast reality, which is, per se, too complicated to be understood? The first reply is that we can, with agent-based models and simulation, produce artifacts of actual systems and “play” with them, i.e., showing consequences of perfectly known ex-ante hypotheses and agent behavioral designs and interactions; then we can
Convegno Economia e Incertezza
11
apply statistics and econometrics to the outcomes of the simulation and compare the results with those obtained by applying the same tests to actual data. In this view, simulation models act as a sort of magnifying glass that may be used to better understand reality. Considering the analysis of agent-based simulation model as a source of knowledge, there is another “third way view” of these kinds of tools. Consider Axelrod and Tesfatsion (2005): Simulation in general, and ABM in particular, is a third way of doing science in addition to deduction and induction. Scientists use deduction to derive theorems from assumptions, and induction to find patterns in empirical data. Simulation, like deduction, starts with a set of explicit assumptions. But unlike deduction, simulation does not prove theorems with generality. Instead, simulation generates data suitable for analysis by induction. Nevertheless, unlike typical induction, the simulated data come from a rigorously specified set of assumptions regarding an actual or proposed system of interest rather than direct measurements of the real world. Consequently, simulation differs from standard deduction and induction in both its implementation and its goals. Simulation permits increased understanding of systems through controlled computational experiments.
The considerations above act in a way similar to abduction, or inference to the best explanation, where one chooses the hypotheses that, if true, give the best explanation of the actual evidence. Note that in the ABM perspective, the hypotheses are also related to the rule that determines the behavior of the agent. The second reply is that, relying on Anderson (1972), we know that complexity arises when agents or parts of a whole act and interact and the quantity of involved agent is relevant. Furthermore, following Villani (2006, p.51), “Complex systems are systems whose complete characterization involves more than one level of description.” To manage complexity, one needs to build models of agents. As a stylized example, consider ants and an ant-hill: Two levels need to be studied simultaneously to understand the (emergent) dynamic of the ant-hill based on the (simple) behaviors of the ants. We can also imagine building models based on multiple layers of agents 1 , with the agents of each layer composing in a collective sense the more complicated agents of the upper stratum. This interpretation of the agent-based paradigm, which is consistent with the way this kind of model is used in this work, corresponds to the “second use partially soluble models: Artificial agents as complementary to mathematical theorizing” and to the “third use - models ostensibly intractable or provably insoluble: Agent computing as a substitute for analysis” considered in Axtell (2000). The Axtell’s first use occurs “when models can be formulated and completely solved: Agent models as classical simulation.” 1
Being each layer a swarm, which is also the name of the first standardized tool used to build this kind of models, i.e., Swarm, from Santa Fe Institute (Minar et al., 1996)
Convegno Economia e Incertezza
12
The first use quoted above is mainly related to Monte Carlo simulations and the verification of numerical solutions to equation models. The second use relates to the cases of existing equilibria which can be incomputable, not attainable by bounded rational agents, known only for simple network configurations, or less interesting than transition phases, fluctuations, and extreme events. The third use is related to intractable models (my addendum to Axtell’s considerations) when we believe that agents should be able to develop self-generated behavioral rules. This is the case here. However, agent-based simulation models have severe weaknesses, primarily arising from: (a) The difficulty of fully understand them without studying the program used to run the simulation; (b) The necessity of carefully checking computer code to prevent generation of inaccurate results from mere coding errors. Epstein and Axtell (1994) pointed out, in their seminal paper, that it is necessary to develop new ways to control software and avoid bugs. In addition, due to the object-oriented structure that is intrinsic to agent-based programs, it is also possible to create a class of internal agents charged with observing the behavior of the actual agents of the simulation and reporting anomalies. Anomalies can be interesting to analyze and do not necessarily always arise from errors, but it is necessary to carefully explore this possibility. For example, if an accounting procedure produces strange results, the users search for an error in the procedure; if a simulation program produces anomalous results, the user may have discovered an interesting finding; however, in this case, it is also necessary to determine whether the finding is actually valid, and not the product of a coding error; (c) The difficulty of systematically exploring the entire set of possible hypotheses in order to infer the best explanation, in accordance with the previously discussed practice of abductive reasoning. This is mainly due to the inclusion of behavioral rules for the agents within the hypotheses, which produces a space of possibilities that is difficult if not impossible to explore completely. The difficulty of communicating the results, which is described in (a), can be overcome by the diffusion of standardized tools to develop agent simulation models and by the introduction of a protocol to be applied to those tools. The first example, introduced in the mid-1990s, is Swarm (www.swarm.org), a project that started within the Santa Fe Institute, but then grew independently. Swarm is not a program in the classic sense, but a library of functions to build agent-based computer models. More specifically, it is a library of particular functions that are useful in the handling of a collection of agents, populating spaces with agents, or organizing events in time. Swarm is appropriately a milestone in simulation, thanks to the protocol suggested for using those functions, initially combining them with codes written in Objective C (a language combining C and a subset of SmallTalk) and, subsequently, in Java. The Convegno Economia e Incertezza
13
Swarm development team’s original purpose, which was to create a lingua franca for agent-based model development, has only been partially achieved if one considers only the library of functions. With modern languages such as Python, a large part of the Swarm library is now unnecessary due to the facilities offered by the language itself. On the contrary, when considering the protocol aspect of the project, Swarm has been highly successful, being that protocol intrinsically the basis of several recent tools. For interesting considerations for the use of Python in agent-based programming, refer to Isaac (2008) and for an application of the Swarm protocol to Python, see SLAPP, which is introduced here. Many other tools have been built upon the Swarm legacy, such as Repast, Ascape, JAS, and now SLAPP. Different protocols are used by important tools, such as NetLogo and StarLogo. StarLogo TNG, a recent innovative version of StarLogo, is programmed by moving small shaped cards which fit together to build a running code. A second important innovation of StarLogo TNG was the production of animations that are very similar to animations in video games. This was done because video games are typically easily understood. We can deal with the second weakness introduced in (b), i.e., the risk of using code with “bugs” that corrupt the results, both when employing the standard tools reported here (but this is in some way insufficient) and duplicating the code using two independent tools programmed by two different scholars. The result is never the same, due mainly to the use of random numbers when determining sequences. However, if the emergent phenomena are substantially similar in both constructions, we can be reasonably sure that the results are not the product of coding errors. This significant amount of work is suggested mainly for important and critical applications. The third weakness described in (c), i.e., the difficulty of exploring the whole set of possible hypotheses (including the behavioral rules of the agents, where the full rationality and perfect information hypotheses are only one of the possible choices and not plausible) is determined by the uncontrolled dimension of the space of possibilities. This space of possibilities, when analyzed in a detailed way, is necessary for computations where no black box is allowed, although it generates an unmanageable set of possible paths. This is precisely why this paper proposes the use of neural networks to generate behavioral rules in an atomatic way, or, in other words, the reinforcement of learning to extract the same rules from experience. In effect, this paper seeks to introduce strategies for going from the wide search of hypotheses about behavior to a procedure to calculate artificially generated, but plausible, rules. Generating behavioral rules to achieve the capability of emulating cognition is a step that is both highly difficult and challenging. Consider Sun (2006, p. 17): What makes computational social simulation, especially computational cognitive social simulation (based on detailed models of cognitive agents), Convegno Economia e Incertezza
14
different from the long line of social theories and models (such as utility theory and game theory) includes the fact that it enables us to engage with observations and data more directly and test various factors more thoroughly. In analogy with the physical sciences (…), good social theories may be produced on the basis of matching theories with good observations and data. Cognitive agent based computational social simulation enables us to gather, organize, and interpret such observations and data with cognition in mind. Thus, it appears to be a solid means of developing social–cognitive theories.
Finally, with regard to the presentation of the results, the interaction between artificial agents and actual people, and the tools quoted above, it is useful to consider use of artificial on line worlds, such as Second Life (Bainbridge 2007). The motivation for using ABM techniques with learning capabilities in this work is to explore and discover the consequences of self-generated behavioral schemes applied to an actual case of complex interaction (like the case of the diffusion of innovation and ideas in which many counterintuitive consequences of planned action occur in reality). Let us conclude with Lave and March (1975, p.10): “The best way to learn about model building is to do it.” 2 2.1
From a “classical” protocol to a new tool The Swarm protocol
As seen above, the Swarm protocol is a ”classical” reference in the relatively young world of the agent-based simulation, mainly for social sciences. The Swarm project, born at Santa Fe Institute, has been developed with an emphasis on three key points (Minar et al., 1996): (i) Swarm defines a structure for simulations, a framework within which models are built; (ii) the core commitment is to a discrete-event simulation of multiple agents using an object-oriented representation; (iii) to these basic choices Swarm adds the concept of the "swarm," a collection of agents with a schedule of activity. The “swarm” proposal was the main innovation coming from the Swarm project, diffused as a library of function together with a protocol to use them. Building the (iii) item required a significant effort and time in code development by the Swarm team; now using Python we can attain the same result quite easily and quickly. To approach the SWARM protocol via a clear and rigorous presentation it is possible refer to the original SimpleBug tutorial (Langton, 1996?), developed using the Objective-C programming tool (built on C and Smalltalk, www.smalltalk.org) by Chris Langton and the Swarm development team; the tutorial also has explanatory texts in the README files of the main folder and of the internal subfolders). The same contents have also been adapted by Staelin (2000), to the Java version of Swarm, and by myself (Terna, 2007), to create a Python implementation, exclusively
Convegno Economia e Incertezza
15
related to the protocol and not to the libraries. Note that the Swarm original libraries are less important, anyway, using a modern object-oriented language. The SWARM protocol can be considered as a meta-lingua franca to be used in agent-based simulation models. 2.2
The Swarm-Like Agent Protocol in Python (SLAPP)
The SLAPP project2 has the goal of offering to scholars interested in agent-based models a set of programming examples that can be easily understood in all its details and adapted to other applications. Why Python? Quoting from its main web page: “Python is a dynamic objectoriented programming language that can be used for many kinds of software development. It offers strong support for integration with other languages and tools, comes with extensive standard libraries, and can be learned in a few days.” Python can be valuably used to build models with a transparent code; Python does not hide parts, have “magic” features nor have obscure libraries. Finally, we want to use the openness of Python to: (i) connect it to the R statistical system (R is at http://cran.r-project.org/; Python is connected to R via the rpy library, at http://rpy.sourceforge.net/); (ii) go from OpenOffice (Calc, Writer, …) to Python and vice versa (via the Python-UNO bridge, incorporated in OOo); (iii) do symbolic calculations in Python (via http://code.google.com/p/sympy/); and (iv) use Social Network Analysis from Python, with tools like the Igraph library (http://cneurocvs.rmki.kfki.hu/igraph/), the libsna library (http://www.libsna.org/), and the pySNA code (http://www.menslibera.com.tr/pysna/). The main characteristics of the code reproducing the Swarm protocol in Python are introduced step by step via the on line tutorial referenced above. Summarizing: •
SimpleBug – We use a unique agent, running the time by the way of a for cycle, without object-oriented programming.
•
SimpleClassBug - We run the time by the way of a for cycle, now with objectoriented programming to create and to use a unique agent as an instance of a class; in this way, it is quite simple to add other agents as instances of the same class.
•
SimpleClassManyBugs - We run the time by the way of a for cycle, with objectoriented programming to create many agents as instances of a class; all the agents are included in a collection; we can interact with the collection as a whole.
•
SimpleSwarmModelBugs - We run the time following a schedule of events based on a simulated clock; the schedule can be managed in a dynamic way
2
Python is at www.python.org. You can obtain the SLAPP tutorial files and the related examples at: http://eco83.econ.unito.it/terna/slapp.
Convegno Economia e Incertezza
16
(events can change sequences of events). With object-oriented programming we create families of agents as instances of classes, within a special class, the model class, that can be considered as a the experimental layer of our program. •
SimpleSwarmObserverBugs – As above, but we now have the model and all its items (agents, schedule, clock) included in a top layer of the application, that we name “observer”. The observer runs the model and uses a schedule to apply tools like graphical representations, report generations, etc. The clock of the observer can be different from that of the model, which allow us to watch the simulation results with a granularity different from that of the simulated events.
In the object-oriented programming perspective the starting module generates the observer as an instance of the observer class. The observer creates: (i) the reporting tools, (ii) one or more models as instances of the class model and (iii) finally the schedule coordinating the top-level actions. Each model creates (iv) the instances of the agents and (v) the schedule controlling their behavior. 3
3.1
Recreating an actual world in an artificial way: interbank payments and systemic risk The payment problem
We shift to focus on the concrete aspects of an actual banking system, recreating the interaction of two institutions (a payment system and a market for short-term liquidity) to investigate interest rate dynamics in the presence of delays in interbank movements. 3 The problem is a crucial one because delays in payments can generate liquidity shortages that, in the presence of unexpected negative operational or financial shocks, can produce huge domino effects (Arciero et al., 2009). Here, we use agentbased simulation as a magnifying glass to understand reality. 3.2
Two parallel systems
We have two parallel and highly connected institutions: the RTGS (Real Time Gross Settlement payment system) and the eMID (electronic Market of Interbank Deposit). Considering the flow of interbank payments settled via the first institution, we simulate delays in payments and examine the emergent interest rate dynamics in the
3
I am deeply grateful to Claudia Biancotti and Leandro D’Aurizio, of the Economic and Financial Statistics Department of the Bank of Italy, and to Luca Arciero and Claudio Impenna, of the Payment System Oversight Office of the Bank of Italy, for having involved me in considering this important problem. The model is a contribution that I hope can be useful in identifying some aspects of the problem in a complexity perspective. You can obtain the code of the model by e-mailing the author. Convegno Economia e Incertezza
17
eMID. In this kind of market the interest rate is the price. A few microstructures of the market should be investigated and understood. In Figure 1 we present a modified representation of the standard sequence diagram of the UML (Unified Modeling Language, www.uml.org) formalism, introducing time as the first actor or user in the sequence. Events come from a time schedule to our simulated environment; the treasurers of the banks, acting via the RTGS system, with given probabilities bid prices, to buy liquidity in the eMID, or ask prices, to sell liquidity in the same market. Bid and ask probabilities can be different. The simple mechanism of bidding or asking on a probabilistic basis (if and only if a payment has to be done or has been received, as in Figure 1), will be integrated – in future developments - with an evaluation of the balance of the movements in a given time period. The different sequences of the events (with their parallel or immediate diffusion, as in Figure 1) generate different lists of proposals into the double-action market we are studying. Proposals are reported in logs: the log of the bid proposals, according to decreasing prices (first listed: bid with the highest price); and the log of the ask proposals, according to increasing prices (first listed: ask with the lowest price). “Parallel” means that we are considering an actual situation in which all the treasurers are making the same choice at practically the same time.
Figure 1. Events to RTGS and from RTGS to eMid, in two different ways: a “quasi UML” representation of a sequence diagram.
Convegno Economia e Incertezza
18
Figure 2. Looking at the last executed price, both in a parallel and in an immediate diffusion scheme.
In Figure 2 we discuss how a new price is proposed to the market when we look at the last executed price as a reference point, placing a price below it to get a ask position easily matched. In this case, both the case of parallel proposal and that of immediate diffusion are figuring out close expected situations. On the other hand: (i) this is not the case in the logs of the unmatched proposals, with ask prices greater than bid prices; (ii) the behavior of a market maker, not present here, is based on positive ask minus bid price differences. Other potential microstructures have to be investigated. In Figure 3, a new price is proposed to the market looking at the best proposal in the opposite log as a reference point, placing a price below it to get an ask position easily matched. The cases of parallel proposal and that of immediate diffusion are now producing quite different effects.
Figure 3. Looking at the best proposal in the opposite market log, both in a parallel and in an immediate diffusion scheme..
Convegno Economia e Incertezza
19
3.3
A case of simulated behavior
We show here an interesting case of the dynamics emerging from this simulation environment, that occurs when the diffusion of the payment into the RTGS system is parallel and the operators look at the last executed price in the eMID. The run reported in Figure 4 shows a non-trivial behavior of the interest rate. The dynamic is here magnified due to the dimension chosen for micro-movement in bids and asks. In these five days, we have a huge movement of this time series, as a consequence of significant delays in interbank payments. The simulation runs step by step, but we account for breaks in the time to reproduce the end of each day (i.e., cleaning all the positions, etc.).
Figure 4. Interest price dynamic (upper line), stock of due payments (intermediate line) and flow of the received payments (lower line) in case of relevant delay in payments (with a uniform random distribution between 0 and the 90% of the available time until the time break). Time breaks at 20, 40, … (end of a day).
Convegno Economia e Incertezza
20
Figure 5. The autocorrelation analysis of the interest rate data of 4 (with the presence of delays in interbank payments). First row: raw data; lagged correlations among data; the same, but as partial correlations. Second row: data first differences with lag 1; their lagged correlations; their lagged partial correlations.
Elaborating the interest rate series with the standard AR (autoregressive) and MA (moving average) technique, directly connecting SLAPP to R as seen above, we find in the graphs of the second row in Figure 5 a typical AR(1) model.
Figure 6. The autocorrelation analysis of the interest rate data in a case of absence of delays in interbank payments). First row: raw data; lagged correlations among data; the same, but as partial correlations. Second row: data first differences with lag 1; their lagged correlations; their lagged partial correlations.
On the contrary, in a situation like that of Figure 6, with data coming from a simulation run in which no payment delays occur, we find a random-walk dynamic in the interest rate first differences (first graph of the second row), without any correlation evidence. This analysis suggests that the strong difference between these two situations is the direct consequence of the presence/absence of the payment delays. Future developments There are two promising lines for future developments: •
In terms of SLAPP, the development of the capability of directly probing each agent, the graphical representation of spatial dynamics and of social networks links, and the simplification of the schedule code for event dynamic.
•
In terms of the payment system, applying also in this case the reinforcement learning technique, the introduction of a market maker, i.e., a subject
Convegno Economia e Incertezza
21
continuously asking and bidding a price for selling and buying money, with a spread, assuring liquidity to the market and developing a pricing capability aimed at the containment of liquidity crisis. References Anderson, P. W. (1972), More is different. Science, 177, 4047, pp. 393–396. Arciero L., Biancotti C., D’Aurizio L. and Impenna C. (2009), Exploring agentbased methods for the analysis of payment systems: a crisis model for StarLogo TNG. Journal of Artificial Societies and Social Simulation, http://jasss.soc.surrey.ac.uk/12/1/2.html. Axelrod R. and Tesfatsion L. (2005), A guide for newcomers to agent-based modeling in the social sciences. In K. L. Judd and L. Tesfatsion (eds.), Handbook of Computational Economics, Vol. 2: Agent-Based Computational Economics, pp. 1647-1658, Amsterdam, North-Holland. On line at http://www.econ.iastate.edu/tesfatsi/GuidetoABM.pdf Axtell R. (2000), Why Agents? On the Varied Motivations for Agent Computing in the Social Sciences. In Proceedings of the Workshop on Agent Simulation: Applications, Models and Tools, Chicago, Argonne National Laboratory. On line at http://www.brookings.edu/~/media/Files/rc/reports/2000/11technology_axtell/agents. pdf Bainbridge W.S. (2007), The Scientific Research Potential of Virtual Worlds. Science, 317, pp. 472-476. Gilbert N. and Terna P. (2000), How to build and use agent-based models in social science, Mind & Society, 1, 1, pp. 57-72. Isaac A. G. (2008), Simulating Evolutionary Games: A Python-Based Introduction. Journal of Artificial Societies and Social Simulation, 11, 3. http://jasss.soc.surrey.ac.uk/11/3/8.html. Langton C. and Swarm development team (1996?), Santa Fe Institute, SimpleBug tutorial, on line at http://ftp.swarm.org/pub/swarm/apps/objc/sdg/swarmapps-objc2.2-3.tar.gz. Lave C. A. and March J. G. (1975), An introduction to models in the social sciences. New York, Harper & Row. Minar N., Burkhart R., Langton C. and Askenazi M. (1996), The Swarm simulation system: A toolkit for building multi-agent simulations. Working Paper 96-06-042, Santa Fe Institute, http://www.swarm.org/images/b/bb/MinarEtAl96.pdf Ostrom, T. (1988), Computer simulation: the third symbol system. Journal of Experimental Social Psychology, n. 24, pp. 381-392.
Convegno Economia e Incertezza
22
C. J. Staelin (2000), jSIMPLEBUG, a Swarm tutorial for Java, (2000), at http://www.cse.nd.edu/courses/cse498j/www/Resources/jsimplebug11.pdf, only text, or http://eco83.econ.unito.it/swarm/materiale/jtutorial/JavaTutorial.zip, text and code. Sun R. (ed.) (2006), Prolegomena to Integrating Cognitive Modeling and Social Simulation. In R. Sun, Cognition and Multi-Agent Interaction - From Cognitive Modeling to Social Simulation, Cambridge, Cambridge University Press. Sutton R. S., Barto A. G. (1998), Reinforcement Learning: An Introduction. Cambridge MA, MIT Press. Terna P. (2007), implementation of the SWARM protocol using Python, at http://eco83.econ.unito.it/terna/slapp. Villani M. (2006), Networks and Complex Systems. In M. Villani (ed.) (2006), Educating managers in complexity, pp. 41-119, Roma, Aracne. Weinberg S. (2000), Is the Universe a Computer? The New York Review of Books, 49, 16. http://www.nybooks.com/articles/15762.
Convegno Economia e Incertezza
23
Pension systems’ risk sharing: is the multipillar design still effective? Clara Busana Banterle Università di Trieste Consentitemi di incominciare con una puntualizzazione sul titolo. Al contrario del titolo generico che appare sul leaflet (Sistemi pensionistici ed esposizione ai rischi: riflessioni dopo la crisi) tra i molti stimoli che la rilettura della crisi finanziaria ha sollecitato rispetto al funzionamento dei sistemi pensionistici mi sono concentrata su un quesito secondo me cruciale: la struttura a più pilastri dei sistemi pensionistici è ancora uno strumento efficace nel riparto dei rischi (pensionistici)? Dove naturalmente per struttura a più pilastri si intende che il complesso del sistema pensionistico è fondato su una combinazione di diversi schemi sia pubblici che privati, sia obbligatori che volontari, sia finanziati a ripartizione che a capitalizzazione. Mentre per quanto riguarda i rischi e la condivisione vedremo subito di cosa si tratta. Ancora, prima di iniziare mi sembra doveroso in questa sede fare una precisazione terminologica: solo occasionalmente la letteratura pensionistica distingue tra incertezza e rischio (Rust, 1999) ricorrendo alla distinzione di Knight (1921), tra conoscenza o meno della distribuzione delle probabilità dell’evento casuale. In linea di massima i due termini sono usati in modo intercambiabile (Whitehouse et al., 2009), ma si ricorre al termine rischio con maggior frequenza. A cosa serve un sistema pensionistico, com’è ovvio i sistemi pensionistici hanno finalità plurime che dipendono anche dalla prospettiva del soggetto che stiamo considerando, ad esempio per lo Stato il sistema pensionistico risponde a finalità redistributivi (assistenziali) oltre che previdenziali, ma se consideriamo i lavoratori l’obiettivo principale è quello di vedersi assicurato un livello di consumi relativamente costante prima e dopo l’interruzione dell’attività lavorativa o meglio una stabilizzazione dell’utilità
Convegno Economia e Incertezza
25
marginale rispetto al consumo. Molti rischi, economici e non, possono minacciare il perseguimento di tale obiettivo. A costo di drastiche semplificazioni abbiamo ricondotto a tre dimensioni la classificazione dei rischi (Diapo 1). La prima dimensione opera una distinzione tra il rischio economico e quello demografico. Quello che qui ci interessa in generale è il rischio macroeconomico inerente al tasso di sviluppo del PIL (bassa crescita o fluttuazioni incidono sulle risorse disponibili per la distribuzione incluse le pensioni) mentre in particolare utilizzeremo invece il termine rischio di investimento con riferimento alle sole pensioni finanziate a capitalizzazione, in cui il valore delle attività cumulate è soggetto a rischio di mercato, In contrapposizione classificatoria al rischio economico si evidenzia il rischio demografico che in termini molto semplici ha a che vedere con il numero di persone di età diversa che saranno vive in futuro (qui la distinzione è tra il rischio di longevità trainato dal tasso di mortalità ed il rischio di popolazione trainato dal tasso di natalità. Diapo 1
Convegno Economia e Incertezza
26
Per quanto riguarda la seconda dimensione: i rischi aggregati concernono l’intera economia o la popolazione nel suo complesso o un fattore produttivo mentre quelli idiosincratici riguardano le deviazioni di un particolare individuo dalla media della società. Nel seguito adotteremo sempre la prospettiva aggregata, nel presupposto che i rischi individuali possano essere per lo più risolti attraverso il pooling (salvo i problemi di selezione avversa ed azzardo morale sollevati in questo contesto). Infine il rischio politico è legato al fatto che il processo politico può modificare in modo inatteso i diritti pensionistici (per lo più con riferimento ai sistemi pubblici) prima o durante il pensionamento, senza che ci sia il tempo per gli individui di modificare il loro comportamento sul mercato del lavoro o nel risparmio. Mentre il rischio di management è circoscritto agli schemi a capitalizzazione ed è associato ad una gestione inefficace o distruttiva delle attività in cui i contributi sono investiti a danno dei lavoratori beneficiari ma anche dei datori di lavoro sponsor. E’ necessario sottolineare che alcuni rischi non sono rimovibili: se eventi negativi economici o demografici si verificano l’equilibrio del sistema può essere ripristinato o aggiustando i finanziamenti o le prestazioni. Il punto è che differenti schemi pensionistici ripartiscono l’onere dei rischi tra i partecipanti in modo assai diverso. Consideriamo i due estremi: gli schemi DB (a beneficio (pre)definito) determinano i trattamenti pensionistici utilizzando una formula collegata agli anni di contribuzione e al salario percepito;prefissando il beneficio ogni evento negativo deve essere aggiustato dal lato del finanziamento- dei contributi. In un piano privato ad esempio il rischio è sopportato dal datore di lavoro invece nel sistema pubblico sarà lo Stato a decidere se mantenere l’equilibrio aumentando le contribuzioni degli attivi o accumulando deficit che verranno ripianati dalle generazioni future Al contrario gli schemi DC (a contribuzione (pre)definita) determinano la quantità di contributi- del datore di lavoro e del lavoratore- che debbono essere versati in un fondo ed investiti per conto di ciascun lavoratore e pertanto il rischio di benefici insufficienti a fronte di un insoddisfacente accumulazione ricade esclusivamente sui beneficiari
Convegno Economia e Incertezza
27
Diapo 2
Nella tabella proposta (Diapo 3) abbiamo rappresentato il riparto dei diversi rischi tra i diversi “giocatori” in base all’applicazione dei due schemi estremi (DB e DC) e di un terzo schema NDC (Notional Defined Contribution) cioè con un sistema come quello in vigore nel nostro paese, in cui il finanziamento è a ripartizione- non c’è alcun investimento dei contributi- ma il computo del trattamento pensionistico avviene sulla base dei contributi versati ed un rendimento nozionale – ad esempio il tasso di crescita del PIL- degli stessi. Vorrei sottolineare che l’attribuzione del rischio prescinde dal fatto che lo schema sia pubblico o privato, obbligatorio od opzionale. Nella sostanza, in un analisi “generazionale”, i rischi sono a carico dello sponsor con le soluzioni DB e dei lavoratori con quelle DC anche nel variante Nozionale.
Convegno Economia e Incertezza
28
Diapo 3
Si potrebbe pensare che per i lavoratori uno schema DB sia sempre preferibile, ma la realtà e più complessa, in uno schema DB (capitalizzato) non sostenibile nel tempo il piano privato può fallire e i lavoratori perdere tutti i propri benefici, in un piano DB a ripartizione il governo non fallisce ma trasferisce i rischi alle generazioni future via debito o aumenta i contributi dei lavoratori più giovani all’interno di una generazione. L’idea di fondo di un sistema a più pilastri è quella di “sfruttare” la diversità dei diversi schemi nell’attribuzione dei rischi combinando gli schemi stessi per comporre un sistema pensionistico complessivo. Introdotto dalla banca mondiale a metà degli anni ’90 (nel 1994 the World Bank ha pubblicato Averting the Old Age Crisis) il modello a tre pilastri separa i maggiori obiettivi della sicurezza sociale attribuendo un ruolo – almeno- assistenziale al primo pilastro a ripartizione e a beneficio definito, un ruolo assicurativo al secondo ed un ruolo di volontaria accumulazione del risparmio per l’età anziana al terzo, entrambi a capitalizzazione ed a contribuzione definita. Partendo dal presupposto che i diversi pilastri sono esposti a rischi diversi il modello suggeriva di ricercare la sicurezza attraverso la diversificazione. In effetti il modello proposto/imposto ai singoli presentava una eccessiva rigidità, attribuendo al secondo pilastro – a capitalizzazione ed obbligatorio- un ruolo centrale che prescindeva
Convegno Economia e Incertezza
29
dalla struttura economica ed in particolare dall’evoluzione del mercato finanziario dei paesi stessi. Un decennio dopo, nel 2005 (dopo la crisi della new economy) e nuovamente oggi la banca mondiale ha riproposto uno schema a più pilastri in cui la funzione assistenziale viene però imputata ad un pilastro 0 e le altre funzioni previdenziali ed assicurative associate agli altri tre pilastri secondo modalità molto più flessibili che nel passato. Diapo 4
Ma, a fronte della ricerca di un riparto equilibrato dei rischi, negli ultimi 15 anni 273 delle riforme pensionistiche hanno cercato una via per ridurre l’esposizione al rischio demografico. Questo è avvenuto secondo diverse strategie, anche miste, come indicato nella figura che segue (Diapo 5), mediante: l’introduzione di piani DC (Australia, Danimarca, Ungheria, Messico, Norvegia, Polonia, Repubblica Slovacca and Svezia; l’adozione di Notional Accounts al posto di piani BD (Italia, Polonia e Svezia); l’aggiustamento dei benefici degli schemi BD con la speranza di vita (Finlandia, Germania and Portogallo); la modifica delle condizioni di qualificazione collegando l’età pensionistica o gli anni di contribuzione alla speranza di vita (Danimarca and Francia).
Convegno Economia e Incertezza
30
Diapo 5
Ne è conseguito uno spostamento del rischio di longevità sui lavoratori di entità assai differenziata. Dalle simulazioni dell’OCDE, emerge come almeno parte del rischio di longevità è spostato sui lavoratori, ma questo varia dal 10% della Norvegia, al 30% dell’Australia fino al 100% del Portogallo e più del 100% della Polonia (in cui l’ammontare che gli individui derivano dal sistema è più elevato quanto più breve è la loro speranza di vita). Ciò deriva dal fatto che è la struttura del pacchetto pensionistico che conta e non solo i singoli schemi da cui è composto.
Convegno Economia e Incertezza
31
Diapo 6
A fronte di questo spostamento di rischio demografico sui lavoratori, la gravità del rischio di investimento è emersa clamorosamente con la più recente crisi finanziaria dove mediamente I fondi pensione nel 2008 hanno perso il 23% del loro valore, cioè 5.400 milioni di dollari. Naturalmente la situazione più critica ha riguardato i piani DC dove i singoli lavoratori sono direttamente esposti al rischio di investimento. Tutti i paesi OECD considerati hanno registrato nel corso del 2008 rendimenti reali negativi con una media intorno al 23% (Diapo 7). Ma non bisogna dimenticare che per loro natura i fondi pensione si confrontano con un lungo orizzonte temporale e che quindi dovrebbero essere valutati su questa base. Va inoltre considerato che le perdite più rilevanti sono concentrate nei paesi in cui le attività erano costituite più da azioni che da obbligazioni (come in: Belgio, il 48% contro 21.5%; Canada 50%, Stati Uniti intorno al 59.2% e Irlanda 2/3 del portafoglio in azioni. Mentre i paesi con le perdite più piccole avevano quote azionarie del 6/12% e la maggior parte del portafoglio in obbligazioni pubbliche.
Convegno Economia e Incertezza
32
Diapo 7
Insomma il rischio di investimento si è manifestato quando già le riforme avevano spostato il rischi demografici sui lavoratori. I timori sollevati dalla volatilità dei mercati finanziari hanno originato una serie di proposte a salvaguardia dei lavoratori Da una garanzia (privata o pubblica) di rendimento minimo dei fondi, alla promozione di prodotti assicurativi capaci di minimizzare l’effetto degli shock macroeconomici come: i fondi life cycle, le obbligazioni indicizzate ai salari ed i longevity bonds). Ma soprattutto si è riproposta, con modifiche, l’idea che la miglior salvaguardia sia la diversificazione degli schemi che complessivamente garantiscono il trattamento pensionistico. Al di là delle indicazioni della Banca Mondiale, i sistemi stanno spontaneamente evolvendosi lungo tre ordini (Diapo 8), un primo ordine redistributivo. Su cui torniamo subito, un secondo ordine assicurativo con un’articolazione pubblica e privata secondo diverse modalità ed infine il terzo pilastro volontario con piani DC. Per quanto riguarda il primo ordine: la modalità applicativa più semplice (ma meno generosa) è quella etichettata come Basic. Si
Convegno Economia e Incertezza
33
tratta di un flat rate uguale per tutti eventualmente commisurato all’anzianità. Minimum invece è indirizzato solo ai bassi redditi pensionistici e nullo per i redditi pensionistici più elevati, viceversa Resource tested considera non solo i redditi pensionistici ma anche guadagni e risparmi complessivi per identificare chi ha diritto al minimo e alla maggior stringenza dei requisiti fa riscontro una prestazione relativamente elevata. Ciò a prescindere dalla protezione assistenziale garantita a tutti i cittadini anziani. Diapo 8
Il secondo legame, quello assicurativo, è declinato con molta liberta dai singoli paesi, in prima istanza la scelta è se affidarsi al solo sistema pubblico, a sua volta articolabile secondo le diverse modalità indicate, al solo canale privato (in cui i paini a BD sono ancora presenti anche se in via di riduzione o di commistione con piani ibridi) o infine ad entrambi i canali in proporzioni variabili. Mentre il canale di risparmio pensionistico volontario si connota con i soli piani DC.
Convegno Economia e Incertezza
34
Nell’ultima diapositiva (Diapo 9), si evidenziano le scelte di singoli paesi, operando un distinzione tra due gruppi; nel primo i piani DC sono obbligatori, mentre nel secondo sono opzionali. A questo secondo gruppo abbiamo aggiunto l’Italia. Tra i molti suggerimenti che emergono dalla tabella ce n’è uno che mi preme evidenziare: a fronte di una visibile e flessibile articolazione dei sistemi pensionistici su più canali, l’Italia si distingue per l’assenza del canale distributivo. Non si può ignorare come con l’avvento della riforma Dini sia scomparso il primo tier e simultaneamente la previdenza privata cresca ma a ritmi ancora insoddisfacenti. Ne deriva, in controtendenza con gli altri paesi, una sostanziale concentrazione su un unico pilastro, quello pubblico, destinato a garantire nel tempo tassi di sostituzione tra pensione e salario sempre più bassi. Diapo 9
Convegno Economia e Incertezza
35
Riferimenti bibliografici Blommmestein H. et al (2009), Evaluating risk sharing in Private PensionPlanas, Financial Market trends, OECD. Moss David (2009), An Ounce of Prevention: The Power of Public Risk Management in Stabilizing the Financial System, Working Paper 09-087, Harvard Business School. OECD (2007), Life-expectancy links. The quiet revolution in pension policy. OECD (2009), Pensions at a Glance: Retirement-Income Systems in OECD. Pugh Colin, Juan Yermo (2008) Funding Regulations and Risk Sharing, OECD Working Papers on Insurance and Private Pensions No. 17 April. Rust,
J.
(1999),
“Strategies
for
Incorporating
Risk,
Uncertainty
and
Private
Insurance
Mechanisms
in
Models
of
Social
Insurance” (Chapter
5)in: Long Term Model Development for Social Security Policy Analysis, Urban Institute, Washington, DC.
Whitehouse Edward(2007), Life-Expectancy Risk and Pensions: Who Bears the Burden? DELSA/ELSA/WD/SEM15 (OECD). Whitehouse Edward, Anna D'Addio and Andrew Reilly(2009), Investment Risk and Pensions: Impacts on Individual Retirement Incomes and Government Budgets DELSA/ELSA/WD/SEM15 (OECD).
Convegno Economia e Incertezza
36
Elsa Fornero♣ - Chiara Monticone∗
Adequacy of Households’ Savings and Financial Literacy: Challenges from Pension Reforms♦
1 Introduction Household saving rates and wealth levels are very heterogeneous both across and within countries, varying with respect to demographic and economic factors, from a macroeconomic point of view, and with respect to age, cohort, education, family size, and health, from a microeconomic perspective. Given these differences, in what sense is it possible to enquire about the adequacy of households’ retirement savings? The concept of (retirement) savings adequacy combines two dimensions: (a) a well-structured institutional design for an efficient sharing and diversification of the main risks affecting financial security in retirement and (b) sensible individual behavior with
University of Turin and CeRP-Collegio Carlo Alberto; e-mail:
[email protected]. ∗ CeRP-Collegio Carlo Alberto; e-mail:
[email protected]. ♦ This contribution draws from the paper “Adequacy of Saving for Old-Age in Europe”, by Elsa Fornero, Annamaria Lusardi and Chiara Monticone, prepared for the Forward Look Project “Ageing, Health and Pensions in Europe” financed by the European Science Foundation (2009). ♣
Convegno Economia e Incertezza
37
respect to the time allocation of resources, in a given market and institutional context. The first aspect is crucial because even rational individuals will accumulate wealth poorly/inefficiently if they are forced to participate in ill-designed pension schemes or if they lack proper instruments and markets for accumulating. Institutional features are extremely important but difficult to characterise in a single model. In Europe, for example, a wide variety of retirement provisions are in place, varying according to the extent of state intervention, the provision of inter- and intra-generational insurance, the degree of actuarial fairness and of neutrality with respect to retirement choices, the amount of redistribution, and other characteristics (Kim and Lee 2007). Moreover, reforms are modifying, in some cases rather radically, the playing field. Given this diversity, individual saving behaviour is expected to vary not only because of heterogeneous preferences and constraints but also because of the different level of mandated saving, its characteristics, and its substitutability with respect to “discretionary” wealth accumulation. In particular, the pension reform process that started in the 1990s in most, if not all, European countries substantially increased workers’ uncertainty with regard to their replacement rates, typically by shifting from more guaranteed Defined Benefits (DB) formulae to less certain Defined Contribution (DC) ones. The reforms will make future pensions not only less generous
Convegno Economia e Incertezza
38
and more “self-made,” but also more uncertain and difficult to understand, thus imposing greater costs upon planning ahead. In the context of the pension systems’ transition, the success of the reforms and the possibility to achieve adequate outcomes rests also on the ability of individuals to fine-tune their saving decisions in response to the normative changes. As young generations can no longer rely on the experience of their parents to plan their resources in retirement, they have to use their own capability, and in particular their financial education, in order to understand reformed pension systems and take decision in the new institutional context. Financial literacy – defined as “the ability to use knowledge and skills to manage financial resources effectively for a lifetime of financial wellbeing” (President’s Advisory Council on Financial Literacy 2008; Jump$tart Coalition for Personal Financial Literacy 2007) is thus a very important element in the implementation of reforms and a subject that, in recent years, has attracted increasing attention and concerns among both governments and academia.
2 Several dimensions of saving adequacy 2.1
Adequacy from the point of view of the pension systems
Heterogeneous European retirement provisions are reflected in differences in the age saving profiles. Without ignoring that several driving forces can be at work in explaining cross-country saving
Convegno Economia e Incertezza
39
differences (including market imperfections and the stringency of borrowing constraints), part of the variations are the direct effects of the different pension setups: for instance, the more generous social security in Italy and Germany reduces the need to save for retirement during the working age, while the Dutch flat rate pension benefits— with rather lower replacement rates—are at the root of the marked hump-shaped saving profile in that country (Börsch-Supan and Lusardi 2003). Thus, a proper understanding of the adequacy of retirement savings cannot but start from pension provisions, which are the main vehicle for the accumulation of retirement wealth, substituting for discretionary savings with a mix of compulsory features and rather complex (dis)incentive structures. When looking at pension systems from an adequacy perspective, more important than benefit levels per se is the government’s role in promoting and delivering a good ex ante allocation/diversification of risks. This entails an institutional framework that, under a financial sustainability constraint1: a) provides efficient ways to broaden the scope for risk pooling and sharing, not only through public pensions (and other benefits for the elderly, such as survivor benefits), but also through a good regulation/supervision of market provisions; 1
Adequacy should always be viewed within a context of financial sustainability, given that it is always possible to increase benefit levels by ignoring—at least for a certain period—the government’s intertemporal budget constraint. Financial sustainability, however, “does not imply fully funded pensions, but only that unfunded obligations are not growing excessively relative to the contribution base” (Barr and Diamond 2008, p. 10).
Convegno Economia e Incertezza
40
b) reduces poverty among the elderly; c) encourages individuals’ awareness of retirement needs, and their capacity to make informed and farsighted decisions, by means of financial literacy programmes and appropriate choice designs. As for efficiency (point a), in overlapping generations models a source of market incompleteness comes from the impossibility of individuals to engage in intergenerational risk sharing with yet unborn generations: in the absence of such markets, governments substitute for them by establishing, as a vehicle to set up an intergenerational contract, a Pay-As-You-Go (PAYG) method of financing, entailing pension benefits correlated to the wage bill (Shiller 1998; Ball and Mankiw 2007). Risk diversification, however, also demands a good combination of public and private choices, as well as good regulation/supervision of market provisions, thus offering a rationale for a mixed system (Lindbeck and Persson 2003; Castellino and Fornero 2007). Finally, although from considerations of pure efficiency, less distortive DC formulae should be preferred, some kind of guarantees – and thus features of DB formulae – should not to be ruled out from pension system design, as they carry important implications in terms of social welfare (Gomes and Michaelides 2003). The last point is directly connected to the scope for state intervention from the point of view of intragenerational risk sharing, with poverty prevention as another way to look at the provision of
Convegno Economia e Incertezza
41
“adequate” pensions (point b). Even though the extent for intragenerational risk pooling might be reduced by issues such as moral hazard and prior income inequality (which obviously cannot be entirely “cured” by the pension system), there are many practical limitations to the ability of the elderly to diversify their incomes by themselves, which emphasize government’s role in providing this kind of risk sharing, as a way to fight poverty in old age (Shiller 1998; Barr and Diamond 2008), for example through the provision of a universalistic benefit or a means-tested minimum pension level. Finally, given that public provisions typically do not (and should not, given the efficiency considerations of point a) fully cover financial needs in retirement, governments should also aim at increasing and improving individuals’ ability to make sensible choices,
concerning
both
the
age
of
retirement
and
the
accumulation/investment of personal savings (point c). This can be done not only by fostering individual preparedness, but also by reducing the distortions embedded in pension formulae, and/or by choosing an enhanced choice structure, for example, through an appropriate design of pension default options (Madrian and Shea 2001; Holzmann and Pallarès-Miralles 2005; Lusardi 2008a; OECD 2008). The specific issue of financial preparedness will be expanded in section 4.
Convegno Economia e Incertezza
42
2.2
Adequacy from an individual perspective
The normative benchmark of the economic analysis of household savings
assumes
rational
individuals
who
make
consistent
intertemporal plans over their lifetime (Scholz and Seshadri 2008, p. 4). Starting from this premise, on a positive level: “a household is said to be saving adequately if it is accumulating enough wealth to be able to smooth the marginal utility of consumption over time in accordance with the optimizing model of consumption” (Engen et al. 1999, p. 70). The stylized version of the Life Cycle Model (LCM), in which individuals save during their working life to provide for consumption in old age, allows for a neat conceptualization of retirement savings adequacy: the annuity value that, under the constraint of life cycle resources, can support the preferred consumption path, which is proportional to life time resources. From the original Modigliani and Brumberg’s theory (1954), more complex versions have subsequently been exploited by including reallife features such as labour supply decisions and retirement choices; the timing of income receipts; uncertainty over future earnings, rates of return, length of life, and health conditions, all generating scope, even in old age, for precautionary savings. Borrowing constraints— although less important in retirement as household wealth reaches its peak in correspondence with retirement —may explain the decision of an individual to draw from her pension wealth and the timing of the decision. Other motives for saving, such as bequests, have also been added to the model.
Convegno Economia e Incertezza
43
Apart from predicting the smoothing of marginal utilities, an important feature of the model is its ability to distinguish between “inadequate” and low levels of saving/wealth. For instance, facing an upward sloping income profile, young people may save very little or indeed be borrowing. Similarly, older individuals may have little “discretionary” saving because the amount of mandatory saving is already providing (together with other public provisions, such as health and long term care) for their retirement needs. It is then almost natural to take the LCM model as a benchmark for assessing saving adequacy. However, the empirical evidence, implicitly or explicitly based on the LCM, is mixed, and also largely concentrated on data from the United States. Some studies use reduced forms to project households’ lifetime assets and income paths and derive from them implications for saving adequacy. Results are diverse: Kotlikoff et al. (1982), Love et al. (2008) and Hurd and Rohwedder (2008) all find there is no systematic under saving. On the contrary, according to Haveman et al. (2006) and Moore and Mitchell (1997) many households will not have enough resources in retirement to meet their pre-retirement consumption level. Other models are more sophisticated, as optimal household consumption and wealth accumulation profiles are simulated from a structural model and compared to actual data (Bernheim and Scholz 1992; Engen et al. 1999; Munnell et al. 2006; Scholz et al. 2006; Scholz and Seshadri 2008). These papers find that saving is adequate (or even more than adequate, suggesting some over saving) for the
Convegno Economia e Incertezza
44
large majority of the population and that under saving is concentrated among households without a college degree (Bernheim and Scholz 1992) or in the lower part of the wealth/earnings distribution. A different strand of literature – which also provides some evidence on European countries such as Germany, Italy, and the UK– studies the so-called “consumption drop,” i.e., whether or not consumption falls around the time of retirement, and for what reason. Optimal saving, however, does not necessarily mean smooth consumption; thus, the drop itself could be “optimal” (Banks et al. 1998; Bernheim et al. 2001; Miniaci et al. 2003), for instance because retirement is typically an anticipated (or even chosen) event, and there are reasons that justify a fall in consumption, such as a decrease in work-related expenses (Haider and Stephens 2007; Hurd and Rohwedder 2006; Smith 2006). On the whole, this kind of evidence – heavily centred on US data – points again to groups at risks, rather than to a general problem of inadequate savings in the general population.
3 Adequacy and pension systems reforms The pension systems of European countries are almost invariably undergoing transitions, with uncertain consequences on adequacy (Castellino and Fornero 2006). The effects on adequacy of pension system reforms occurred in Italy and in other European countries in
Convegno Economia e Incertezza
45
the ‘90s are not straightforward a priori. On the one hand, most reforms sensibly reduce pension benefits (in terms of replacement rates), while on the other many reforms redress distortions embedded in the PAYG systems, particularly implicit taxes on the continuation of the activity, which effectively encouraged early retirement. Three aspects of reforms are worth considering. First, since most of the recent reforms are negatively impacting (or will in the future) on the replacement rates offered by the public scheme (the first pillar, typically financed on a PAYGO basis), they have been accompanied by measures directed at increasing the average retirement age and at encouraging the development of occupational and personal pension plans (the second and third pillars). Indeed, most recent pension reforms are designed with the implicit idea that household saving is too scarce, at least for a large segment of the population (Borsch-Supan and Brugiavini 2001). As the growth of funding, per se a device to improve the risk diversification of pension provisions, is seen as an offsetting measure for the reduction of the PAYG coverage, the transition problem can be very severe: indeed, when the young are told that they will receive lower pensions for the same payroll tax rate, and encouraged to contribute to a funded pillar to compensate the gap, they are asked to save more for the same replacement ratio. This retrenchment of past promises would seem to shrink the adequacy of the pension system; however, by restoring its financial sustainability, it could indeed
Convegno Economia e Incertezza
46
reinforce it, because all future generations would benefit from a system that does not pile up additional (implicit) public debt. Second, another important feature of pension reforms is the move from DB to DC type of formulae, which implies both a stronger dependence, at the individual level, of benefits on contributions and a closer proximity (when not a strict correspondence, as in a Notional Defined Contribution, NDC, system) of the internal rate of return to the equilibrium rate represented by the growth of the wage bill (countries such as Italy, Sweden, Poland and Latvia have adopted this kind of actuarially fair formulae). Pensions based on actuarial principles are in sharp contrast to the history of many PAYG schemes, where workers had been accustomed to generous pay-offs. Moreover, the shift from DB to DC is also occurring in the private sector, induced by the increasing, and in some instances destabilizing, cost of DB plans to employers. The expansion of DC formulae within both PAYG and pension funds clearly implies an increase in the uncertainty surrounding the replacement rate at any given age of retirement and a transfer of risks resting on workers. Again, these greater risks would seem to undermine the adequacy of pension systems, but if the overall design should attain—although again with transition and redistributive costs, whose incidence should not be ignored—a better diversification of risks, the opposite could be true. Third, while pushing up the effective retirement ages, reforms are also, in general, implementing a greater flexibility of retirement, instead of the traditional “mandatory” retirement ages, differentiated
Convegno Economia e Incertezza
47
rather arbitrarily by gender and/or working categories. This introduces an important adjusting margin, as workers are not forced to leave at a certain age, neither induced to leave as soon as they reach the minimum requirements by pension formulae which contain high implicit taxes on the continuation of the activity. These aspects of pension system reforms can have a differential impact on retirement saving adequacy depending on the ability of individuals to understand the new rules/incentives and to adjust their behaviour accordingly. In order to fully comprehend the implications of the reformed system, however, individuals should have at least a grasp of some general financial principles. We will consider the interaction between financial literacy and pension reforms in the following section.
4 Adequacy and financial literacy
In recent years, a growing literature has documented significant departures from the standard life-cycle model, which assumes that people make rational, consistent intertemporal plans, and pointed to various behavioural and psychological “anomalies” and paradoxes, and to factors that limit individual ability to plan ahead and to compare consumption today with consumption in the far future . Lusardi and Mitchell (2006) studied the extent of retirement planning by looking at data from the Health and Retirement Study
Convegno Economia e Incertezza
48
(HRS) on respondents aged 51 or older. They found that only as many as one-third of respondents had thought about retirement. While some of this behaviour may be perfectly rational, it is nevertheless surprising that the majority of older respondents had not given any thought to retirement, even when only five to ten years away from it. The evidence on the lack of planning for retirement is reinforced by recent studies indicating that workers know little about their public pension benefits and the characteristics of their private pension plans (Gustman and Steinmeier 2004; Gustman et al. 2009). Results from the English Longitudinal Study of Ageing (ELSA) show that about 30% of individuals age 50–59 with a DB employer pension do not know the accrual rate of their pension plan, cannot tell how much they expect to receive from this pension, and do not know whether their pension benefit will go up by more or less than prices after their retirement (Banks and Oldfield 2006). One reason individuals do not engage in planning or are not knowledgeable about pensions or the terms of their financial contracts could be that they lack financial literacy. Lack of knowledge would be inconsequential if knowledge had little effect on behaviour. However, a growing body of literature has recently shown that financial knowledge affects a wide range of financial behaviors, including wealth accumulation (Lusardi and Mitchell 2007; Bernheim and Garrett 2003; van Rooij et al. 2008), stock market participation (van Rooij et al. 2007), portfolio diversification (Guiso and Jappelli 2008),
Convegno Economia e Incertezza
49
participation and asset allocation in 401(k) plans (Howlett et al. 2008), and debt behaviour (Lusardi and Tufano 2008). We argue that financial literacy can also be extremely important in relation to retirement decisions, because reformed PAYG pension systems are rather complex and call for a fair degree of knowledge. In particular, they require understanding the implications of the move from DB to DC and of the introduction of funding elements within the PAYG. Moreover, most reforms act in the direction of granting more freedom of choice, thus leaving more responsibility to individuals about both the accumulation and decumulation of their pension wealth. This means that people have to be aware of the various options they have and be able to choose among them. We will discuss all these elements in turn.
4.1
Many pillars and many choices
In many countries the shift to a multi-pillar system entailed the introduction or a strong encouragement towards forms of saving that until that moment were used by a very small fraction of the population, usually the wealthiest. Given the prospected reduction in pension benefits, young workers – who will suffer the most from the economic consequences of population ageing and from pension reforms – have to accumulate additional savings to ensure themselves an adequate retirement income. Occupational and personal pension plans (the second and third pillars) are the leading candidates.
Convegno Economia e Incertezza
50
However, even though they usually receive a favourable tax treatment, various elements reduce their attractiveness. There is, first, the question of why private pensions – annuities – are so unpopular, a paradox when judged from the stance of the paradigm of rational individuals. Economic theory states that, because of the “mortality premium,” annuities dominate (the return offered by other) financial assets, so that individuals should annuitize all their retirement wealth to remove both the risk of outliving their resources and the risk of leaving unintended bequests (Yaary 1965). Although in incomplete markets the arbitrage-like dominance argument does not hold any longer, suggesting that complete annuitization is not the optimal strategy (Davidoff et al. 2003), simulation exercises show that annuities are quite valuable to individuals, in terms of Money’s Worth Measures2 (MWM), (Geanakoplos et al. 2000) even when the optimal consumption trajectories differ substantially from the time paths of annuity payouts. In practice, many problems limit individuals’ propensity to annuitize and provide a rationale for preferring lump sums to annuities (Turra and Mitchell 2004; Sinclair and Smetters 2004; Kifmann, 2008). Selection effects—estimated by the difference between MWR calculated from annuitant and from population-wide mortality tables—and administrative costs could also restrain the demand by making annuities too expensive. Researchers have calculated the 2
The ratio of the expected present value of the future payment stream associated with an annuity to its purchase price.
Convegno Economia e Incertezza
51
MWR of annuities: although not equal to one (corresponding to the actuarial fair price), they are not very far from it, suggesting that cost is hardly the main reason for the limited demand. Their complexity and riskiness surely act as a further disincentives. In countries where these products are relatively new, individuals lack not only the financial literacy that would allow them to judge the pros and cons of annuities, but also the familiarity with the notion of financial risk itself. It is not surprising that individuals who do not understand the advantages of annuities or are not used to deal with risky products prefer lump sums, when these are available. In the case of Italy, the choice between annuities and lump sums includes the decision of how to distribute the severance payments (TFR) employees are entitled to upon retirement, between annuities provided by pension funds and the safer but less profitable lump sum provided by employers. Such choice is further complicated by the fact that it has to be taken a long time before retirement. Finally, individuals enter retirement not only with very different wealth levels but also with different wealth compositions. Apart from social security wealth, housing wealth—which is rather illiquid—is the other major component of wealth in old age. The house is an attractive investment because it combines a flow of services with an investment good and, given the low correlation between housing value and financial investment returns, provides scope for portfolio diversification. However, household do not appear to draw down housing wealth after retirement (Lusardi and Mitchell 2007a), even
Convegno Economia e Incertezza
52
though financial markets
have developed instruments to extract
equity from a home and to transform it into more liquid forms: mortgage refinancing, mortgage equity withdrawals, and reverse mortgages (Muellbauer 2007). A lack of financial knowledge reduces the ability to know which options are available to finance retirement in addition to public pension benefits, which are their characteristics, and to compare them in order to choose the most appropriate solution to the household’s financial needs.
4.2
From DB to DC: the power of compounding
One of the greatest novelties of reformed pension systems— especially where NDC systems have been introduced—concerns the way benefits are computed. The emphasis on actuarial fairness implies that applying some rule of thumb—such as a certain percentage of last earnings times the number of contribution years—is no longer sufficient to figure out the size of pension benefits. When the computation of benefits is of DC type, understanding interest compounding is crucial to figure out how benefits are obtained. Clearly, understanding inflation, risk and the main characteristics of financial products are also key elements of financial literacy, but interest compounding is particularly important when funding elements are introduced in PAYG systems. Failure to understand the power of compounding can affect choices workers make during the “accumulation phase” and therefore has
Convegno Economia e Incertezza
53
important implications on the accumulation of resources in retirement. First, it is important to understand that starting saving—even little amounts— as early as possible can produce greater results than saving a lot but only in the last few years of the career, due to effect of interest compounding. Second, since in DC-like systems contributions are accumulated along the entire career, workers should be aware that job discontinuities matter, and have more serious consequences if they happen at the beginning of the career. Analogously, withdrawing money from a fund before the retirement date (when it is possible) will have consequences lasting the whole retirement period, through reduced benefits. Third, one should understand that the shape of the earnings profile along time is also important, even though it is not entirely in the workers’ control. The shift from DB to DC type of formulae is one of the elements of recent pension systems reforms that implies the greatest change in mentality and therefore needs a considerable amount of financial knowledge to be appropriately understood.
4.3
Flexibility and incentives
The previous paragraph concentrated on the accumulation phase. However, financial literacy is also important in relation to the “withdrawal phase”, not only—as we said before—in the choice between annuities and lump sums, but also and above all in the choice of the retirement age.
Convegno Economia e Incertezza
54
In many countries, the introduction of defined contribution elements in a pension system is accompanied by more flexibility in the age of retirement. The formula is typically inspired by an actuarial neutrality principle, and flexibility is coupled with an adjustment of benefits, meaning that benefits are lower/higher if the time of retirement is anticipated/deferred. The various elements that affect the conversion of accumulated funds into an annuity—longevity expectations, hypotheses on the spouse (if benefit is reversible), indexation—are unified into a conversion factor that determines the size of benefits and that varies according to the age at which benefits are claimed. Again, this mechanism differs substantially from the traditional notion of “normal retirement age” and requires a change in mentality to be fully understood. In this respect, financial literacy matters, in the sense that more knowledgeable individuals—those who know at least interest compounding and the meaning of present discounted values— are more likely to understand the incentives provided by the system for retiring later and to take advantage of them.
5 Concluding remarks Unfortunately, saving for retirement is a typical situation where feedback is scarce. Other financial practices give immediate feedback: credit card holders, for instance, receive monthly statements showing
Convegno Economia e Incertezza
55
whether late or over-the-limit fees were incurred. Given that feedback is quite rapid, individuals can learn and adjust their behavior accordingly. It is more difficult to learn and accumulate knowledge in a process where feedback is limited and comes a long time after financial decisions were taken (Thaler and Sunstein 2008). In the case of long-term saving for retirement, people might not know whether they made the appropriate investment decisions until they reach retirement or even after. This makes choice more difficult and mistakes more painful. In their reform process, European pension systems became more financially sustainable, more actuarially fair and reduced distortions. However, at the same time they became more complex and handed over to individuals the burden of ensuring themselves an adequate income in retirement. While this allows a greater individual freedom of choice, it also gives considerable responsibility to individuals who are not necessarily ready to manage it. Improving financial literacy can help overcome the knowledge gap between what the average worker know in terms of basic economic and financial principles and what they are supposed to know in order to address responsibly and consciously some of the most important decision of their lifetime.
References Ball Laurence, and N. Gregory Mankiw (2007), “Intergenerational Risk Sharing in the Spirit of Arrow, Debreu, and Rawls, with
Convegno Economia e Incertezza
56
Applications to Social Security Design”, Journal of Political Economy 115(4), 523–547. Banks James, Richard Blundell, and Sarah Tanner (1998), “Is There a Retirement-Savings Puzzle?”, The American Economic Review 88(4), 769–788. Banks, James, and Zoe Oldfield (2006), “Understanding pensions: cognitive function, numerical ability and retirement saving”, IFS WP 06/05. Barr, Nicholas, and Peter Diamond (2008), “Reforming Pensions”, Center for Retirement Research, Boston College, WP#2008–26. Bernheim, Douglas, and Daniel Garrett (2003), “The Effects of Financial Education in the Workplace: Evidence from a Survey of Households,” Journal of Public Economics 87, 1487– 1519. Bernheim, Douglas, and John Karl Scholz (1992), “Private Saving and Public Policy”, NBER WP 4215. Bernheim, Douglas, Jonathan Skinner and Steven Weinberg (2001), “What Accounts for the Variation in Retirement Wealth Among US Households?”, The American Economic Review 91(4), 832–857. Börsch-Supan, Axel, and Agar Brugiavini, (2001), “Savings: the Policy Debate in Europe”, Oxford Review of Economic Policy 17(1), 116–143. Börsch-Supan, Axel, and Annamaria Lusardi (2003), “Saving: Cross-National Perspective”, in Axel Börsch-Supan (ed.), Life-Cycle Convegno Economia e Incertezza
57
Savings and Public Policy: A Cross-National Study in Six Countries, Elsevier Science. Castellino, Onorato, and Elsa Fornero (2006), “Private Pension in Europe and in the United States: A Comparison of Recent and Likely Future Developments”, The ICFAI Journal of Employment Law iv(4), 8–34. Castellino, Onorato, and Elsa Fornero (2007), “Pension Reform in Europe. Some Observations on Franco Modigliani’s Contribution”, in A. Muralidhar and S. Allegrezza (eds) Reforming European Pension Systems, Dutch University Press. Davidoff, Thomas, Jeffrey Brown, and Peter Diamond (2003), “Annuities and Individual Welfare”, MIT Working Paper 03–15. Engen Eric, William Gale, and Cori Uccello (1999), “The Adequacy of Household Saving”, Brookings Papers on Economic Activity 2, 65–187. Geanakoplos, John, Olivia Mitchell, and Stephen Zeldes (2000), “Social Security Money's Worth”, NBER Working Paper n. 6722. Gomes, Francisco, and Alexander Michaelides (2003), “Aggregate Implications of Social Security Reform”, Prepared for the Fifth Annual Joint Conference of the Retirement Research Consortium “Securing Retirement Income for Tomorrow’s Retirees” May 15–16, 2003, Washington, D.C. Guiso, L. and T. Jappelli (2008). Financial literacy and portfolio diversification. EUI Working Paper (ECO 2008/31).
Convegno Economia e Incertezza
58
Gustman, Alan, and Thomas Steinmeier (2004), “What People Don’t Know about their Pensions and Social Security”, in William Gale, John Shoven and Mark Warshawsky (eds), Private Pensions and Public Policies, Washington, D.C.: Brookings Institution, 57–125. Gustman, Alan, Thomas Steinmeier, and Nahid Tabatabai (2009), “Do Workers Know about Their Pensions? Comparing Workers’ and Employers’ Pension Information,” in A. Lusardi (ed.), Overcoming the Saving Slump: How to Increase the Effectiveness of Financial Education and Saving Programs, Chicago: University of Chicago Press. Haider Steven, and Melvin Stephens, (2007), “Is There a Retirement-Consumption
Puzzle?
Evidence
Using
Subjective
Retirement Expectations”, The Review of Economics and Statistics 89(2), 247–264. Haveman, Robert, Karen Holden, Barbara Wolfe, and Shane M. Sherlund (2006), “Do Newly Retired Workers in the United States Have Sufficient Resources to Maintain Well-Being?” Economic Inquiry 44(2), 249–264. Holzmann, Robert, and Montserrat Pallarès-Miralles (2005), “The Role, Limits of, and Alternatives to Financial Education in Support of Retirement Saving in the OECD, Eastern Europe and beyond”, The World Bank, Prepared for presentation at the Sixth Annual Conference “Individual Behavior with Respect to Retirement Saving” 14 October 2005 at CeRP, Turin, Italy.
Convegno Economia e Incertezza
59
Howlett, E., J. Kees, and E. Kemp (2008). The role of selfregulation, future orientation, and financial knowledge in long-term financial decisions. Journal of Consumer Affairs 42 (2), 223–242. Hurd, Michael, and Susann Rohwedder (2006), “Some Answers to the Retirement-Consumption Puzzle” RAND Working Paper Series No.WR-342. Hurd, Michael, and Susann Rohwedder (2008), “Adequacy of Resources in Retirement”, Prepared for the 10th Annual Joint Conference of the Retirement Research Consortium “Creating a Secure Retirement System”, August 7–8, 2008, Washington, D.C. Jump$tart Coalition for Personal Financial Literacy (2007), “National Standards in K-12 Personal Finance Education“, Jump$tart Coalition for Personal Financial Literacy. Kifmann, Mathias (2008), “The Design of Pension Pay Out Options When the Health Status During Retirement is Uncertain”, CESifo Working Paper Series No. 2211. Kim, Kyo-seong, and Yeonjung Lee (2007), “A qualitative comparative analysis of strategies for an ageing society, with special reference to pension and employment policies”, International Journal of Social Welfare 17(3), 225–235. Kotlikoff, Laurence, Avia Spivak, and Lawrence Summers (1982), “The Adequacy of Savings”, American Economic Review 72 (5), 1056–1069.
Convegno Economia e Incertezza
60
Lindbeck, Assar, and Mats Persson (2003), “The Gains from Pension Reform”, Journal of Economic Literature 41(1), 74–112. Love, David, Paul Smith, and Lucy McNair (2008), “A New Look at the Wealth Adequacy of Older U.S. Households”, Finance and Economics Discussion Series 2008-20, Divisions of Research & Statistics and Monetary Affairs, Federal Reserve Board, Washington, D.C. Lusardi, A. and P. Tufano (2008), “Debt literacy, financial experience and overindebtedness”, Working Paper No. W14808, National Bureau of Economic Research. Lusardi, Annamaria (2008a), “Household Saving Behavior: the Role of Financial Literacy, Information and Financial Education Programs”, NBER Working Paper No. 1382. Lusardi, Annamaria, and Olivia S. Mitchell (2006), “Financial Literacy and Planning: Implications for Retirement Wellbeing”, Working Paper, Pension Research Council, Wharton School, University of Pennsylvania. Lusardi, Annamaria, and Olivia S. Mitchell (2007), “Baby Boomer Retirement Security: The Role of Planning, Financial Literacy, and Housing Wealth”, Journal of Monetary Economics 54, 205– 224. Madrian, Brigitte, and Dennis Shea (2001), “The Power of Suggestion: Inertia in 401(k) Participation and Savings Behavior,” Quarterly Journal of Economics 116, 1149–1525.
Convegno Economia e Incertezza
61
Miniaci Raffaele, Chiara Monfardini, and Guglielmo Weber (2003), “Is There a Retirement Consumption Puzzle in Italy?”, IFS WP 03/14. Modigliani, Franco, and Richard H. Brumberg, 1954, “Utility analysis and the consumption function: an interpretation of crosssection data,” in Kenneth K. Kurihara, (ed.), Post-Keynesian Economics, New Brunswick, NJ. Rutgers University Press, 388–436. Moore, James , and Olivia Mitchell (1997), “Projected Retirement Wealth And Savings Adequacy In The Health And Retirement Study”, NBER Working Paper No. 6240. Muellbauer, John (2007), “Housing, credit and consumer expenditure”, paper prepared for the Kansas Federal Reserve Symposium, 31st August – 1st September 2007. Munnell, Alicia, Anthony Webb, and Luke Delorme (2006), “A New National Retirement Risk Index,” An Issue in Brief, Center for Retirement Research at Boston College, June, No. 8. OECD (2008), Improving Financial Education and Awareness on Insurance and Private Pensions, OECD, Paris. President’s Advisory Council on Financial Literacy (2008), “2008 Annual Report to the President“, The Department of the Treasury. Scholz John Karl, Ananth Seshadri, and Surachai Khitatrakun, (2006), “Are Americans Saving ‘Optimally’ for Retirement?”, Journal of Political Economy 14(4), 607–643.
Convegno Economia e Incertezza
62
Scholz John Karl, and Ananth Seshadri (2008), “Are All Americans Saving 'Optimally' for Retirement?”, prepared for the 10th Annual Joint Conference of the Retirement Research Consortium “Creating a Secure Retirement System” August 7-8, 2008 Washington, D.C. Shiller, Robert (1998), “Social Security and Institutions for Intergenerational, Intragenerational and International Risk Sharing”, paper prepared for the Carnegie–Rochester Public Policy Conference, April 24–25, 1998. Sinclair, Sven, and Kent Smetters (2004), “Health Shocks and the Demand for Annuities”, Congressional Budget Office, Technical Paper Series: No. 2004-09. Smith, Sarah (2006), “The Retirement-consumption Puzzle and Involuntary Retirement: Evidence from the British Household Panel Survey”, The Economic Journal 116. Thaler, Richard H., and Cass R. Sunstein. 2008. Nudge. Improving Decisions About Health, Wealth and Happiness. New Haven, CT: Yale University Press. Turra, Cassio, and Olivia Mitchell (2004), “The Impact of Health Status and Out-of-Pocket Medical Expenditures on Annuity Valuation”, WP 2004-2, Philadelphia, PA: Pension Research Council Van Rooij, M., A. Lusardi, and R. Alessie (2008), “Financial literacy, retirement planning, and household wealth”, mimeo.
Convegno Economia e Incertezza
63
Van Rooij, Maarten, Annamaria Lusardi, and Rob Alessie (2007), “Financial Literacy and Stock Market Participation”, NBER Working Paper n. 13565. Yaari, Menahem (1965), “Uncertain Lifetime, Life Insurance, and the Theory of the Consumer”, The Review of Economic Studies 32(2), 137–150.
Convegno Economia e Incertezza
64
Bruno de Finetti forerunner of modern finance Flavio Pressacco and Laura Ziani Dept. of Finance, University of Udine 33100 Udine, Italy
Abstract. In this paper we discuss the role of de Finetti as a forerunner of some of the more relevant concepts and tools of the modern theory of finance. It is shown that de Finetti gave some ground breaking contributions in such fields as arbitrage free pricing, mean variance efficiency, expected utility and risk aversion. We think it is not only a matter of historical remarks: indeed some of his ideas reveal to be fruitful even nowadays so that going on studying de Finetti’s papers may be a good investment for those interested in quantitative finance and economics of uncertainty.
Acknowledgement. We acknowledge financial support of MedioCredito FVG through the “B. Stringher” Laboratory of Finance, Department of Finance, University of Udine. 1
Introduction
It is rather natural in a colloquium concerning economics of uncertainty at Trieste to talk about the related work of Bruno de Finetti and his scholars. Indeed de Finetti spent an important part of his scientific life in Trieste, developing in that period some of his more important contributions to the modern theory of finance and laying the foundations, within the faculty of Economics, of the school of quantitative finance, whose relevance does not need to be underlined here. That is why we choose to dedicate this paper to a review of de Finetti’s early contributions to the modern theory of finance as well as to the new results that have been obtained by some of his direct or indirect scholars following and developing his ground breaking ideas. Let us start from a premise: as already underlined elsewhere ([30], [31]), de Finetti is universally known as one of the great mathematicians of the XX century, the founder of the theory of subjective probability and a refined scholar
Convegno Economia e Incertezza
65
of actuarial sciences, but a few people abroad and surprisingly also in Italy have been fully aware of the outstanding relevance of the contributions he gave to the foundations of economics under uncertainty and of the modern theory of finance. Then we intend to offer here a short critical discussion of such contributions and of its connections with recent advances in such fields of research (sometimes due to de Finetti’s direct or indirect scholars). On the other side, we do not aim to offer an exhaustive treatment of de Finetti’s contributions in economic subjects; rather we concentrate only on some specific points of overwhelming importance. The plan of the paper is as follows: section 2 introduces a scheme showing connections between inspiration sources, fundamental papers and main topics of economics of uncertainty to be treated in the paper; section 3 discusses the pervasive role of economic thinking in the subjective probability approach and the connections with the Arrow-Debreu theory of complete markets for contingent claims; section 4 describes the Pareto influence and the gambler’s ruin theorems as fundamental backgrounds of the paper “Il problema dei pieni”. Section 5 describes connections between de Finetti’s and Markowitz treatment of the mean-variance paradigm. Section 6 is devoted to a discussion of the new insights obtained through the application of de Finetti’s tool of the advantage functions to the portfolio selection problem. Section 7 recalls early de Finetti’s treatment of simple correlation structures at the light of recent results. Section 8 and 9 review the suggestion of the zero expected utility paradigm to solve multiperiod reinsurance problems along with his connection with the original introduction of a theory of risk aversion. Section 10 is devoted to a quick recall of early de Finetti’s suggestions on the way of a general treatment of reward-risk analysis. Conclusions follow in section 11.
2
A synthetic network of connections
Let us start with a scheme (see Fig. 1) in which a synthesis of the network showing connections between the inspiration sources (Gobbi, Pareto and Generali Insurance), the fundamental papers ([10], [16], [17]) and the main key concepts (arbitrage free pricing, reward-risk (mean-variance, mean-ruin probability and mean-VaR) efficiency, expected utility, CARA and CRRA risk aversion) characterizing de Finetti’s scientific production in the field of the economics of uncertainty.
Convegno Economia e Incertezza
66
Fig. 1.
3 3.1
Sources of inspiration U. Gobbi and the subjective theory of probability
While he was a young student of Mathematics at Politecnico of Milan, de Finetti decided to attend a free course in Insurance Economics (actually a course in the Economics of Uncertainty) given by U. Gobbi: an unusual decision for a student of such a degree. This course left an enduring mark in his mind opening large horizons to explore connections between mathematics and economics, which would prove fruitful along his entire scientific life. Yet the influence of the economic way of thinking was immediate and very strong. It played a decisive role in the definition of the probability of an event as the price of an asset (a bet in de Finetti’s terminology) with random gross return: precisely, 1 if the event occurs and 0 otherwise. In turn this definition is the pillar of de Finetti’s innovative subjective approach to probability [10], in which the price is given by an agent in a subjective but not arbitrary way as, at that price, the evaluator should be ready to take both the long position of buyer (better) and the short one of seller (bank) in the investment (in the bet).
Convegno Economia e Incertezza
67
This idea generates the whole building of the subjective approach to the probability theory, which is entirely based on economic grounds. Indeed de Finetti showed that all fundamental theorems of the probability theory may be derived as consequences of a proper coherency condition on probability assessments (i.e. on prices) regarding logically connected events (combinations of assets). Yet coherency relies entirely upon an economic reasoning. In de Finetti’s words: ”a person is coherent in evaluating the probabilities of some events if, for any combinations of bets a counterpart makes on whichever set of events among those considered, it is not possible that the gain of the counterpart is in any case positive” (rectius is in any case non negative but positive in some cases). From a more formal point of view, de Finetti takes as starting point the elements (events) C1 , C2 , . . . , Cn of a partition of the sure event (Ω). Elementary assets are bets on single events paying, at the end of the period, one unit of money iff the event occurs and nothing otherwise. Under a convenient hypothesis of zero risk free interest rate, the subjective probability of each event, for a specific agent and under a given (agent specific) information set, is the initial price of the asset (i.e. the price of the bet). Probabilities of compound events (those whose value depends logically on the set of elementary events) follow from a condition named by de Finetti economic coherency. According to this condition, the prices must be given in such a way to exclude the building of portfolios of long and short positions (better and bank) with positive initial cash flow and surely non negative final one or with null initial cash flow and non negative (but with at least a positive possibility) final one. The last sentences make clear that coherency was exactly the counterpart of what is nowadays known in current economic terminology as no arbitrage. And it is straightforward to understand that coherency of prices in the above sense implies that probabilities (that is the prices) must be: a) non negative; b) additive; c) normalized to one; or, said another way, that the classical properties of non negativity, additivity and normalization to one which characterize any theory of probability arise logically from the condition that probabilities behave as prices obeying the coherency (i.e. the arbitrage free) condition). More generally, expectations of random variables may be seen as prices of bundles of bets on the elementary events. In force of the linearity, such a price is just the combination of the prices of the single bets. It is astonishing to see that the link connecting (through coherency) probabilities and prices is exactly symmetrical to the one connecting prices and probabilities (through the no arbitrage condition) in the extension to a world of uncertainty of the formal theory of competitive equilibrium provided sometimes later by Arrow (1964), (1971) and Debreu (1959). In their single period version of their theory of competitive equilibrium under uncertainty Arrow-Debreu too keep as starting point a partition of the sure
Convegno Economia e Incertezza
68
event Ω in states of the world (states of nature) C1 , C2 , . . . , Cn , incompatible and exhaustive. In such a world (and under the additional assumption of zero risk free rate of interest) pure assets or Arrow-Debreu assets pay at the end of the period one unit of account if and only if a given state of nature happens and nothing elsewhere. Let us denote by πh = π(Ah ) the initial price of the pure asset corresponding to the state Ch . It is always possible to build portfolios X made by xh units of any pure asset. The initial! price of such a portfolio under an obvious linearity principle, will be given by h xh πh . Treating prices as probabilities, it turns out that ! the price Π(X) equals the expectation (under the π distribution) E(X) = h xh πh of its final value. Now, the prices may be seen as probabilities iff they are non negative and summing up to 1. It is easy to check that both conditions are satisfied only under no arbitrage opportunities. For example, with πh < 0 building a portfolio made only by long positions on the h−th asset would give a positive cash flow at time 0 followed by a cash flow surely non negative at the end of the period. In turn, a portfolio made by long positions in exactly one unit of any pure assets pays at maturity exactly 1. It is then equivalent to one unit of the risk free asset, whose initial! price must be (under the zero risk free rate assumption) equal to 1. It is then h πh = 1. At the end of the story, in a world described by the π distribution, the prices of the pure assets are probabilities and the prices of any portfolio (compound of pure assets) are expectations. Recently, it has been clearly perceived that such a world is a risk neutral world, that is made by risk neutral agents. Indeed, if the price is an index of preference and if prices are expectations, this implies that the agents preferences are driven solely by expectations, so that they are risk neutral. The following table resumes the symmetry of de Finetti’s and respectively Arrow-Debreu approaches centered on seeing probabilities as counterpart of prices of pure assets and expectations as counterparts of compound assets (i.e. bundles of pure assets).
de Finetti - Probabilities are prices - Properties of probabilities are properties of the prices under no arbitrage - Expectations are prices of portfolios
Arrow-Debreu - Prices are probabilities - Properties of prices are properties of probabilities under no arbitrage - Portfolios prices are expectations
It is worth to remark also that more than forty years after the groundbreaking paper by de Finetti the arbitrage free approach would become, through the work of Black-Scholes (1973) and their closed form formulas for option pricing, a pillar of the theory of modern finance and a booster of the exchange and over the counter markets for derivatives.
Convegno Economia e Incertezza
69
3.2
Generali Insurance and gambler’s ruin, V. Pareto and Pareto efficiency
Two other sources of inspiration played an important role in de Finetti’s thought during the thirties. On one side, in 1931 he was appointed by Generali Insurance, one of the leading (at that time and nowadays) worldwide insurance companies. As head of the research department he found there the opportunity to face with concrete insurance problems, while at the same time keeping in touch with the world of actuarial sciences, whose national and international meetings he regularly attended since the beginning of the decade. Of course in treating actuarial problems he had a big advantage coming from his enormous culture in probability theory coupled with the high ability to apply mathematical tools. An important example of this synergy between mathematics, probability theory and actuarial sciences is given by de Finetti’s treatment of the gambler’s ruin problem applied to insurance companies [15]. Let us shortly recall that in the classical approach going back to the origins of probability calculus (de Moivre), gambler’s ruin models consider an infinite sequence of fair games (with zero expectation conditionally to any past path of the game) played by two agents. The main result of the theory was that the probability of asymptotic ruin of each player was the ratio between the opponent’s initial wealth and the global initial wealth of both players. Hence in the asymmetric case (with only one strong player endowed with unlimited wealth), the sure ruin of the other weak player (as the ratio tends to one). Tailoring this theory to the ruin probability of an insurance company, de Finetti treated it as a weak gambler with finite wealth facing an asymmetric game versus a community of insured people seen as a unique player with infinite wealth. But differently from the classical problem, the company’s ruin is not sure because the sequence of games is no more fair. Indeed the safety loadings induce positive expectation, so as the game becomes advantageous for the weak player. In this modified scenario de Finetti obtains the following result: let us denote by Gh the company’s random gain from its h year portfolio and by β, a coefficient satisfying for any integer h the condition E(exp(−βGh )) = 1; then a company with initial wealth W0 which follows a strategy to insure a sequence of single periods independent portfolios whose random gains are characterized by the common coefficient β, has asymptotic ruin probability p = exp(−W0 β). The reciprocal of β is named by de Finetti risk level of each year portfolio. This was a milestone path breaking result in the branch of actuarial sciences known as collective risk theory. Indeed it launched a bridge between the classical, Scandinavian school, approach (see Lundberg (1909), Cramer (1930)) and a modern preference based approach.
Convegno Economia e Incertezza
70
On the other side, in the same decade de Finetti payed a lot of attention to the work and thinking of W. Pareto (1909) in order to understand and analyze the mathematical foundations of economic theory. There is no need to recall here that Pareto was a many sided scientist, well known as one of the leading members of the so called Lausanne school of Economics, also labelled the Mathematical school, due to its stress on mathematical tools. Let us say here that de Finetti was rather critical on some aspects of Pareto theory; for example, he denied the possibility to extend to an uncertain world the coincidence between competitive equilibrium and Pareto optimality. In some sense, this is surprising because, as correctly perceived by Arrow-Debreu, the key for the extension comes from the introduction of contingent claims as typical goods to be traded and priced in such a world. And in turn this was just at the core of de Finetti’s subjective probability approach. Anyway, at the end of his meditations on the foundations of economic theory, de Finetti was convinced that any approach to pure and applied economics should be based only on the powerful pillars of two Paretian concepts: ophelimity (reflecting an ordinal system of preferences of economic agents) and optimum (set of the allocations which, under a plurality of evaluation criteria, may be changed only worsening the situation at least with respect to one criterion). In line with his applicative guidelines, he worked on an analytic characterization of the optimum set and in 1937 wrote two milestone papers concerning the issue ([13], [14]). By the end of the decade, he could safely be considered one of the leading experts of the theory of optimum, both on the technical mathematical side as well as on applications to economic theory. 4
“Il problema dei pieni” and reward-risk efficiency
These human events, cultural propensities and technical results were the background of an extraordinary paper: ”Il problema dei pieni” [16], written by de Finetti at the end of the thirties, surely one of the most relevant writings in the theory of modern finance. Indeed, as recently recognized by leading scholars of modern finance (see Markowitz (2006) and Rubinstein (2006a)), this paper contains the core of the mean-variance (or rather of the reward-risk) approach to financial decisions under uncertainty and the seed of the theory of expected utility in economic decisions, that is two fundamental paradigms of the economic science of the XX century. Indeed, as we shall see in the next section, de Finetti and Markowitz formalised two at first sight quite different problems in a very similar way. In detail, de Finetti’s problem is as follows: an insurance company is faced with n risks (policies), The net profit of these risks is represented by a vector of
Convegno Economia e Incertezza
71
random variables with expected value m := mi > 0; i = 1, . . . , n and a non singular covariance matrix C := σij : i, j = 1, . . . , n. The company has to choose a proportional reinsurance or retention strategy specified by a retention vector x. The retention strategy is feasible if 0 ≤ xi ≤ 1 for all i. A retention x induces a random profit with expected value E = xT m and variance V = xT Cx. A retention x is by definition mean-variance efficient or Pareto optimum if for no feasible retention y we have both xT m ≤ yT m and xT Cx ≥ yT Cy, with at least one inequality strict. Let X ∗ be the set of optimal retentions. De Finetti looked at the set of feasible retentions as represented by the points of the n dimensional unit cube. The set X ∗ is a path in this cube. It connects the natural starting point, the vertex 1 of full retention (with largest expectation), to the opposite vertex 0 of full reinsurance (zero retention and hence minimum null variance). The core of de Finetti’s approach is that (under proportional reinsurance) each additional reinsurance has a twofold effect. It lowers the risk of the retained portfolio, but at the same time lowers its profitability. While in a first attempt to face the problem, de Finetti chose the ruin probability as the proper measure of risk of the company (we will come back to this point in more detail in section 10), he suddenly switched to the variance (a quadratic function of the retention quotas); in turn, the expectation (a linear function) of the retained portfolio represented a proper profitability index. Then, coherently with his economic ideas, this made possible to look at the problem like a typical (two criteria, mean-variance indeed) optimum problem, contrarily to the approach prevailing then in actuarial circles, exclusively concerned with the control of risk. As already said, this is to be seen as the original proposal to apply the mean-variance approach to face portfolio problems under uncertainty. And this is by no means only a methodological innovation. Looking for a system to solve concrete reinsurance problems and making recourse, as usual for him, to brilliant geometrical constructions, he offered a procedure to obtain the optimum set, in the n dimensional space of retention quotas, as a sequence of line segments, joining the vertex 1 of the unit hypercube corresponding to full retention of all policies with the vertex 0 of total reinsurance. On this “optimum reinsurance path” the corner points are the points corresponding to the entrance in active reinsurance of another new policy, joining some other already partially reinsured. It is interesting to give a sketch of de Finetti reasoning because it offers an idea of his ability to capture in a very simple way the very essence of a problem so as to be able to obtain a friendly solution. Rather than dealing with two goal variables (variance and expectation), it is convenient to view the expectation as a numeraire and to work with a sort of normalized variance. More precisely,
Convegno Economia e Incertezza
72
de Finetti introduced the so called advantage functions: Fi (x) =
1 2
∂V ∂xi ∂E ∂xi
:=
n " σij j=1
mi
xj
i = 1, . . . , n
(1)
which intuitively capture the advantage coming at x from a small (additional or initial) reinsurance of the i−th risk. The connection between the efficient path and the advantage functions is then straightforward: move in such a way to provide additional or initial reinsurance only to the set of those risks giving the largest benefit (that with the largest value of the advantage function). If this set is a singleton the direction of the optimum path is obvious, otherwise the direction should be the one preserving the equality of the advantage functions among all the best performers. Given the form of the advantage functions, it was easily seen that this implied a movement on a segment of the cube characterized by the set of equations Fi (x) = λ for all the current best performers. Here λ plays the role of the benefit parameter. And we should go on this segment until the advantage function of another, previously non efficient, risk matches the current value of the benefit parameter, thus becoming a member of the efficient set. Accordingly at this point the direction of the efficient path is changed as it is defined by a new set of equations, with the addition of the equation of the newcomer risk. Through a repeated sequential application of this matching logic, de Finetti was able to define the whole efficient set, offering closed form formulas for the no correlation case and giving a largely informal sketch of the sequential procedure in case of correlated risks. This procedure reveals to be an early counterpart of the celebrated critical line algorithm proposed by Markowitz in his subsequent treatment of the portfolio selection problem. 5
de Finetti versus Markowitz
In the following decade Markowitz published his milestone papers ([23], [24], [25]) on mean-variance portfolio selection, which brought him in 1990 the Nobel prize in Economics and the reputation to be the founder of modern finance; meanwhile de Finetti’s paper fell into oblivion. Only recently thanks to the work of de Finetti’s scholars1, leading economists began to recognize the importance of de Finetti’s paper. It came in the words of M. Rubinstein in [40] “it has recently came to the attention of economists in the English speaking world that among de Finetti’s papers is a treasurer trove of results in economics and finance written well before the works of the scholars that are traditionally credited with these ideas......de Finetti’s 1940 paper anticipating 1
Rubinstein (2006b) quotes verbal signaling by C. Albanese, L. Barone and F. Corielli and the paper by F. Pressacco (1986).
Convegno Economia e Incertezza
73
much of mean variance portfolio’s theory later developed by H. Markowitz”, and of Markowitz itself in [26]: “it has come to my attention that in the context of choosing optimum reinsurance levels, de Finetti essentially proposed mean variance portfolio analysis using correlated risks.” Additionally Markowitz underlined that de Finetti has worked out a special case of the so called global optimality conditions in quadratic programming, which Karush-Kuhn-Tucker (Karush (1939), Kuhn-Tucker (1952)) developed at the beginning of the fifties thus paving the way for the critical line algorithm. Concerning this point, we wish to underline de Finetti’s ability to face and solve his problem without having at his disposal the powerful technology of KKT conditions. On the other side, we will see hereafter that there is an nice connection between the friendly intuition of the advantage function and the advanced technology of optimality conditions. Let us consider the proportional reinsurance problem in its formal version: min
1 " x Cx 2 x" m ≥ E 0≤x≤1
(2)
And let us write the Lagrangian of that problem: L(x, λ, u, v) =
1 T · x C · x + λ · (E − mT · x) + u · (x − 1) − v · x 2
(3)
Making recourse to the KKT conditions, it turns out that x∗ is optimal iff there exists a triplet (λ∗ , u∗ , v∗ ) with u∗ , v∗ non negative vectors such that: 1. x∗ minimizes L(x, λ, u∗ , v∗ ) 2. x∗ is feasible 3. either x∗j = 0 or vj∗ = 0 (or both) and either x∗j = 1 or u∗j = 0 (or both) It is rather surprising to discover that optimality conditions may be expressed in the simplest and expressive way just through the advantage functions. Indeed, the optimality conditions turn out to be: x∗ is mean-variance efficient iff there exists λ ≥ 0 such that: i) Fi (x∗ ) = λ if 0 < x∗i < 1 ii) Fi (x∗ ) ≥ λ if x∗i = 0 iii) Fi (x∗ ) ≤ λ if x∗i = 1
To capture the intuitive meaning of the condition, look at the advantage function Fi (x) as the (pseudo) marginal utility at x of buying reinsurance of
Convegno Economia e Incertezza
74
the i-th risk and at λ as the shadow price of any (marginal in quota terms) reinsurance. After that, the optimality conditions mean that, given the shadow price, reinsurance of a risk is bought if the marginal utility is larger than the price and up to the point where the (diminishing) marginal utility just matches the price, or obviously if zero retention has been reached this way.
6
The application of de Finetti’s ideas in portfolios selection
As may be perceived by a glance to the following formal version of Markowitz portfolio selection problem: min
1 " x Cx 2 x" m ≥ E 1" x = 1 x≥0
(4)
this is quite similar to the reinsurance problem treated by de Finetti. The difference regards the constraints: besides being restricted to the condition ! 0 ≤ xi ≤ 1, we must add the one i xi = 1. Let us recall once more here that Markowitz solved the problem making recourse to the KKT optimality conditions and that he developed for the solution a sequential algorithm known as critical line algorithm. It may be thought as a path in the hyper plane of the feasible portfolios: such a path is piecewise linear joining the point of largest expectation with the one of minimum absolute variance. The corner points of the path correspond to points where the composition of the assets entering in the efficient portfolio is changing. There are still two types of corners: those in which a new asset enters in the efficient portfolio and those in which an asset stops to be part of the efficient portfolio (see Fig. 2). The role of the corners will be cleared later. Now it is exciting to find that, despite the fact that de Finetti did not treat at all the asset portfolio selection problem, his ideas are in direct close relation with the mean-variance optimum portfolio. Indeed, still Pressacco-Serafini (2009) showed that, through a proper reformulation of the advantage functions it is possible to build a procedure mimicking the one suggested by de Finetti for the reinsurance case to obtain in a natural and straightforward way something analogous to the critical line algorithm and a simple and meaningful characterization of the optimum mean-variance portfolio (not only in the classical problem but also in case of additional upper and lower bound collective constraints).
Convegno Economia e Incertezza
75
The advantage function is precisely given by: 1 Fij (x) := 2
∂V ∂xi ∂E ∂xi
− −
∂V ∂xj ∂E ∂xj
=
n " σih − σjh xh mi − mj
(5)
h=1
The idea behind this new version of the advantage function is that small movements of single assets are no more feasible; hence, we consider as basic feasible movement those coming from small bilateral trading between pairs i, j of assets. The corresponding advantage function Fij (x) is designed to capture the consequences (still measured by the ratio decrease of variance over decrease of expectation) coming from such basic movements. It turns out that the easiest way to express the optimality conditions is reached also in this case through the advantage functions. Indeed, given the Lagrangian of problem (4): L(x, λ, u, v) =
1 T x C x + λ (E − mT x) + u (1 − 1T x) − v x 2
(6)
and denoting by k a reference asset such that xk > 0 and partitioning the other assets into three sets as follows: Ik∗ := {h $= k : xh > 0},
I0k := {h < k : xh = 0},
Ik0 := {h > k : xh = 0}
the following result holds, at least if Ik∗ $= ∅ (note that Ik∗ is empty in the extreme case x∗k = 1; x∗h = 0 for h $= k)2 : Optimality conditions: let k such that x∗k > 0. Then x∗ ≥ 0 is optimal iff 1T x = 1 and there exists λ ≥ 0 such that: i) Fkh (x∗ ) = λ for h ∈ Ik∗ ii) Fkh (x∗ ) ≥ λ for h ∈ I0k iii) Fkh (x∗ ) ≤ λ for h ∈ Ik0
Then the optimality conditions require simply that all basic bilateral trading between each pair of active assets share the same advantage at the level λ, while all basic trading between an active i and a non active j have a lower advantage level3 . There are, once more, two corner types: matching corners in which a matching asset becomes efficient and enters in the efficient portfolio; breaking corners when along a segment of the optimum path one of the active assets reaches his boundary value 0 before a matching occurs. At a breaking corner, 2 3
For details about the case Ik∗ = ∅, see [33], pp. 265.). For h < k and xh = 0 in the optimality conditions ii) describe a toll rather than a premium.
Convegno Economia e Incertezza
76
the breaking asset leaves the efficient set and remain frozen maybe temporally at level 0 (see Fig. 2).
Fig. 2. Triangle of feasible portfolios lying on the plane defined by points (1,0,0);(0,1,0);(0,0,1). Path of efficient portfolios defined by dotted lines. Big Bang: initial point (1,0,0) of efficient path with largest expectation, asset 2 (matching) entering in efficient portfolios. Amphibious corner: point (0,1,0), asset 1 (breaking) leaving, asset 3 (matching) entering in efficient portfolios. Corner point A: asset 1 (matching) entering in efficient portfolios. Corner point B: asset 2 (breaking) leaving the efficient portfolios. Point C: terminal point of the efficient path with minimum absolute variance.
7
Special correlation structures
It is well known that either for reasons of computational speed or in order to get a better understanding of financial markets, many important authors introduced models exploiting specific simple correlation structures. In particular, the so called diagonal model of W. Sharpe (1964) had an overwhelming relevance in this field. Let us note that also on this point de Finetti was a forerunner. In [16], indeed, inspired by the same motivations, he suggested to face the reinsurance problem by utilizing a special correlation structure, named group correlation by him, offering also a quick hint to some key properties of the efficient set (see [16], p. 27-30).
Convegno Economia e Incertezza
77
Fig. 3. Influence of correlation.
Also this contribution has been ignored for a long time with the partial exception of the paper by Gigante (1990). We signal that in some recent papers treating the group correlation problem, we obtained ([34], [35]) closed form formulae of efficient retentions, both in the retention space and in the meanvariance one. This way relevant information may be derived about the influence on the efficient retentions of various correlation levels (see Figure 3) reprinted by Pressacco-Ziani (2010, Fig. 1, pp. 7). 8
de Finetti and the expected utility approach
Up to now we have discussed results obtained by de Finetti in the first part of his 1940 paper concerning the search for the efficient retentions in a single period problem. In the second part of the paper de Finetti faced the problem to select a single “best” from the optimum set and to reach the goal he moved to a multiperiod horizon, indeed an asymptotic one, aiming to choose a retention strategy consistent with a given acceptable (asymptotic) ruin probability. On the basis of the gambler’s ruin background, his proposal was simply to fix the retentions at a level corresponding to the risk coefficient β granting
Convegno Economia e Incertezza
78
the desired level of ruin probability. We do not enter in technical details here, simply signalling that for example in$ the toy model of normal no correlated risks # 2mi in each year it is xi = min βVi ; 1 (see [30], footnote 11, pp. 22). According to this approach the issue is mathematically clear but rather obscure as to its true economic meaning. Only after a careful reflection, it could be realized that organizing a sequence of portfolios characterized by a common coefficient β, is for the company equivalent to accept a sequence of indifferent games under exponential utility with risk aversion coefficient β , that is formally with utility of wealth u(x) = 1−e−βx. Thus it could be said that the second part of the 1940 paper is to be considered as an unconscious anticipation of the application of the expected utility paradigm and in particular the founder of the vast actuarial literature concerning the so called zero utility principle. 9
de Finetti and the theory of risk aversion
But at that time de Finetti was not aware of the importance of his suggestions. He clearly perceived it only some years later, after reading the fundamental work (Von Neumann- Morgenstern (1944)), where a neo Bernoullian theory of measurable (up to linear transforms) utility, concerning preferences among random variables, was coherently exposed4 . Hence, recognizing the connections between his early intuitions and the new paradigm, de Finetti was able to define some key concepts of the expected utility theory in another groundbreaking paper ([17], 1952). In detail and with the aim of defining proper measures of risk aversion, associated to a given cardinal utility function u(x), he introduced three new tools linking expected utility and risk aversion. Precisely: the absolute risk aversion function α(x) = !!
(x) , invariant to linear transforms of u; the probability premium defined as − uu! (x) the difference between winning and losing probability which renders a bet of amount h indifferent; the risk premium defined as the sure loss indifferent to a fair bet of amount h. Then he gave a sketch of the proof that both above premiums are (at least for “small” values of h) directly proportional to the value at the starting wealth of the risk aversion function ([17], pp. 700). Indeed, he showed that the probability premium is (1/2)hα while the risk premium is (1/2)h2 α. In addition, he recognized the exponential utility u(x) = 1 − exp(−αx) as the one associated with an attitude of constant (for any initial wealth x) risk aversion at the level α. And linked such attitude to the asymptotic theory of risk, with the explicit assertion that “the classical criterion of the riskiness level 4
As well known, the Von Neumann-Morgenstern theory may be considered a rigorous version of an old approach suggested more than two centuries early by Bernoulli and more recently by Ramsey (1931).
Convegno Economia e Incertezza
79
(applied in the second part of de Finetti (1940)) is coincident with the utility criterion under constant risk aversion”. Note that the criterion is to be intended here in the zero utility sense rather than in the optimizing one. Finally, he asserted that it would be u(x) = ln(x) for α(x) = 1/x and u(x) = −x1−c for α(x) = c/x;in this way also highlighting utility functions characterized by hyperbolic absolute risk aversion. Thus he should be considered also a forerunner of CARA and HARA utility functions. All these are tools and concepts are of major relevance in the foundations of economics of uncertainty, and universally credited to papers by Arrow (1971) and Pratt (1964), written well after de Finetti’s paper. We signal also that the claim of this primacy came from Italian de Finetti’s scholars in the eighties (see Daboni-Pressacco (1987), de Ferra-Pressacco (1986)), and found international imprimatur once more by Rubinstein (2006a): “in 1952 anticipating K. Arrow and J. Pratt by over a decade, he formulated the notion of absolute risk aversion, used it in connection with risk premia for small bets and discussed the special case of constant risk aversion”. 10
de Finetti and risk-reward analysis
Even more unknown is de Finetti work as a forerunner of reward-risk analysis (with the application of alternative risk measures) in finance , which he introduced in his 1940 paper too. Indeed, in his early introduction of the reinsurance problem, de Finetti considered at first as the proper target the mean-ruin probability efficiency. More precisely, in a single period setting, given a company with an initial free capital W and defining as ruin the event that the single period result X of the operations (net retained premiums minus retained liabilities) is lesser than −W , De Finetti’s looked at the problem of choosing the x vector of retentions just as that to define the mean-ruin probability efficient set (suggesting thus that the expected profit should be the proper reward measure, while the ruin probability should be the proper risk measure). Then he argued that under normality of X with parameters (m, s): % & X −m W +m p(W + X ≤ 0) = p(X ≤ −W ) = p ≤− = N (−t) s s with t = W +m and N (−t) the value of the distribution function of the standard s normal at −t. In order to launch a bridge between the mean-ruin probability and the mean-variance approach, he considered in the mean-variance plane, the equa2 tion of the parabola s2 = (W +m) giving this way a geometrical representat2 tion of all the portfolios sharing the same ruin probability at the level N (−t).
Convegno Economia e Incertezza
80
Exploiting geometric considerations, he then deduced the perfect equivalence between mean-variance efficiency and mean-ruin probability efficiency for his proportional reinsurance problem. The he paved the way to show that the set of mean-variance efficient retentions was also the set of efficient retentions in mean-free capital (or in modern language mean-VaR) for any fixed level of feasible ruin probability. In some sense it could be said that mean-VaR solutions naturally arise as the dual of the mean-ruin probability ones. In de Finetti’s opinion this was the key to connect mean-variance efficiency, expected utility and ruin probability in order to find optimal reinsurance strategies in a dynamic discrete framework (see Fig. 4).
Fig. 4.
We signal here that the bridge between ruin probability and variance is quite similar to that used by Roy (1952) in his safety first approach to the portfolio selection problem. In turn, modern reward-risk approaches based on VaR, CVaR and other sophisticated risk measures (Artzner et al. (1999), GaivoronskyPflug (2005), Rockafeller-Uryasev (2000)) gained a great popularity and have a big impact on theory and practice of finance. 11
Conclusions
In this paper we discussed the yet not well known role of de Finetti as a forerunner of some of the more relevant concepts and tools of the modern theory of finance. In detail, we recalled the role of the arbitrage free approach in
Convegno Economia e Incertezza
81
the theory of subjective probability, the early suggestions toward a theory of reward-risk efficiency and in particular the mean-variance approach in the theory of proportional reinsurance. Finally the application of the expected utility paradigm and of an early intuition of a risk aversion theory to discrete multiperiod optimization. Some comments on the connected recent works of some of his scholars is also offered. References 1. Arrow J.K. (1953): Le role des valeurs borsieres pour la repartizion la meilleure des risques, Colloques International CNRS, 40, Paris, 41-88. 2. Arrow J.K. (1964): The role of securities in the optimal allocation of risk bearing, Review of economic studies, 31, Paris, 91-96. 3. Arrow J.K. (1971): The theory of risk aversion, Essays in the theory of risk bearing, Markham, Chicago, 90-120. 4. Artzner P., F. Delbaen, J.M. Eber and D. Heath (1999), Coherent measures of risk, Mathematical Finance, 9, 203-228. 5. Black F., Scholes M. (1973): The pricing of options and corporate liabilities, Journal of Political Economy, 81, 637-659. 6. Cramer H. (1930): On the mathematical theory of risk, Skandia, Stoccolma. 7. Daboni L., Pressacco F. (1987): Mean variance, expected utility and ruin probability in reisunrance decisions, in the Probability and Bayesian Statistics, Viertl, Plenum Press, 121-128. 8. Debreu G. (1959): Theory of value, New York: John Wiley & Sons. 9. De Ferra C., Pressacco F. (1986): Contributi alla teoria delle decisioni, in Atti del convegno Ricordo di Bruno de Finetti, Dipartimento di Matematica Bruno de Finetti, Trieste, 171-179. 10. de Finetti B. (1931), Sul significato soggettivo della probabilit, Fundamenta Mathematicae, 17, 299-329. 11. de Finetti B. (1935): Vilfredo Pareto di fronte ai suoi critici odierni, Nuovi Studi di Diritto, Economia e Politica, 4, 225-244. 12. de Finetti B. (1936): Compiti e problemi dell’economia pura, Giornale Istituto Italiano Attuari, 7, 316-326. 13. de Finetti B. (1937a): Problemi di optimum, Giornale Istituto Italiano Attuari, 8, 48-67. 14. de Finetti B. (1937b): Problemi di optimum vincolato, Giornale Istituto Italiano Attuari, 8, 112-126. 15. de Finetti B. (1939): La teoria del rischio e il problema della rovina dei giocatori, Giornale Istituto Italiano Attuari, 10, 41-51. 16. de Finetti B. (1940), Il problema dei pieni, Giornale Istituto Italiano Attuari, 9, 1-88; English translation by L. Barone available as The problem of Fullrisk insurances, Ch. 1 ‘The problem in a single accounting period’, Journal of Investment Management, 4, 19-43, 2006. 17. de Finetti B. (1952), Sulla preferibilit, Giornale degli Economisti e Annali di Economia, 6, 685-709.
Convegno Economia e Incertezza
82
18. Gaivoronski A.A, Pflug G. (2005): Value at Risk in Portfolio Optimization: Properties and Computational Approach, Journal of Risk, 7-2, 1-31. 19. Gigante, P. (1990), L’approccio di B. de Finetti per la riassicurazione individuale proporzionale. Modelli semplificati e considerazioni operative, Rivista di Matematica per le Scienze Economiche e Sociali, 13, 1-2, 147-161 20. Karush, W. (1939), Minima of functions of several variables with inequalities as side constraints, M.Sc. dissertation, Department of Mathematics, University of Chicago, Chicago, IL, USA. 21. Kuhn, H.W. and A.W. Tucker (1951), Nonlinear programming, Proceedings of the Second Berkeley Symposium on Mathematical Statistics and Probability, J. Neyman ed., University of California Press, Berkeley, CA, USA. 22. Lundberg F. (1909): Zur Theorie der rckversicherung, Transactions of the International Congress of Actuaries. 23. Markowitz H. (1952), Portfolio selection, Journal of Finance, 6, 77-91. 24. Markowitz H. (1956), The optimization of quadratic functions subject to linear constraints, Naval Research Logistics Quarterly, 3, 111-133. 25. Markowitz H. (1959), Portfolio selection: efficient diversification of investments. New York: John Wiley & Sons (reprinted by Yale University Press, 1970; 2nd ed. Basil Blackwell, 1991). 26. Markowitz H. (2006), de Finetti scoops Markowitz, Journal of Investment Management, 4, 5-18. 27. Pareto V. (1909): Manuel d’economie politique, Giard e Briere. 28. Pratt J. (1964): Risk aversion in the small and in the large, Econometrica, 32, 132-136. 29. Pressacco F. (1986), Separation theorems in proportional reinsurance, Insurance and Risk Theory, M. Goovaerts et al. eds., Reidel Publishing, 209-215. 30. Pressacco F. (2006), The interaction between economics and mathematics in de Finetti’s thought and its relevance in finance, decision theory and actuarial sciences. Giornale Istituto Italiano Attuari, LXIX, 7-32. 31. Pressacco F. (2009), B. de Finetti, Actuarial sciences and the theory of finance in the 20th century. In Vinzenz Bronzin’s option pricing models. Springer ed.pp. 519-532. 32. Pressacco, F. and P. Serafini (2007), The origins of the mean-variance approach in finance: revisiting de Finetti 65 years later, Decisions in Economics and Finance, 10-1, 19-49. 33. Pressacco, F. and P. Serafini (2009): New insights on the mean-variance portfolio selection from de Finetti’s suggestions, New frontiers in Insurance and Bank risk management, McGraw Hill, Milano, 253-270. 34. Pressacco, F., P. Serafini and L. Ziani (2010), Mean-Variance efficient strategies in proportional reinsurance under group correlation in a Gaussian framework, Accepted for pubblication in European Actuarial Journal, 1. 35. Pressacco, F., L. Ziani (2010), The influence of correlation and loading on M-V efficient retentions in variable quota share proportional reinsurance, presented at the 4th MAF2010, Ravello. Submitted to Economic Journal of Finance. 36. Ramsey F.P. (1926): Truth and probability, in Ramsey 1931, The Foundations of Mathematics and other Logical Essays, R.B. Braithwaite, London, Ch. VII, 156-198.
Convegno Economia e Incertezza
83
37. Rockafellar R.T., S. Uryasev (2000), Optimization of conditional Value at Risk, Journal of Risk, 3, 21-41. 38. Rockafellar R.T., S. Uryasev and M. Zabarankin (2006), Generalized deviations in risk analysis, Finance & Stochastics, 10, 51-74. 39. Roy A. D. (1952), Safety first and the holding of assets, Econometrica, 20, 431-449. 40. Rubinstein M. (2006a), Bruno de Finetti and mean-variance portfolio selection, Journal of Investment Management, 4, 3-4. 41. Rubinstein M. (2006b), A history of the theory of investments, Wiley. 42. Sharpe W. (1964), Capital asset prices: a theory of capital market equilibrium under conditions of risk, Journal of Finance, 19, 425-442. 43. Von Neumann J., Morgenstern O. (1944): Theory of Games and Economic Behavior, Princeton N.J., Princeton University Press.
Convegno Economia e Incertezza
84
Exchangeable random partitions for statistical and economic modelling Antonio Lijoi1 , Pietro Muliere2 , Igor Pr¨ unster3 and Filippo Taddei4 1
Dipartimento Economia Politica e Metodi Quantitatavi, Universit` a degli Studi di Pavia, via San Felice 5, 27100 Pavia, and CNR-IMATI, Milano, Italy. E-mail :
[email protected]. 2
Dipartimento di Scienze delle Decisioni, Universit` a Bocconi, Via Roentgen 1, 20136 Milano, Italy. E-mail :
[email protected] 3
Dipartimento di Statistica e Matematica Applicata, ICER and Collegio Carlo Alberto, Universit` a degli Studi di Torino, Corso Unione Sovietica 218/bis, Torino, Italy. E-mail :
[email protected] 3
Collegio Carlo Alberto, via Real Collegio 30, 10024 Moncalieri, Italy. E-mail :
[email protected]
1
Introduction
Random partitions occur in a variety of probabilistic and statistical problems. In applied probability, for example, they define models for population genetics, species sampling and processes of coagulation and fragmentation. See Pitman (2006) and references therein. They also represent a key ingredient for various inferential methods arising in Bayesian nonparametric statistics, machine learning and for Markov Chain Monte Carlo algorithms that are used for clustering and density estimation. See the monograph edited by Hjort et al. (2010) for a comprehensive review. Recently random partitions have been exploited also in macroeconomic modelling as a tool for describing the clustering dynamics of economic agents according to their decision strategies. This approach has been introduced by M. Aoki in a series of papers and is effectively summarized in Aoki and Yoshikawa (2007). The illustrations we focus on in the
Convegno Economia e Incertezza
85
present review concern Bayesian nonparametric inference and macroeconomic modelling. To sum up the main theoretical framework, suppose X (∞) = (Xn )n≥1 is a sequence of observations or types of economic agents, defined on some probability space (Ω, F , P) with each Xi taking values in a complete and separable metric space X endowed with the Borel σ–algebra X . It will be assumed that X (∞) is exchangeable which implies that for any n ≥ 1 and any permutation π of the indices 1, . . . , n, the probability distribution (p.d.) of the random vector (X1 , . . . , Xn ) coincides with the p.d. of (Xπ(1) , . . . , Xπ(n) ). An important characterization is provided by the celebrated de Finetti’s representation theorem: it states that a sequence X (∞) is exchangeable if and only if there exists a probability measure Q on the space PX of all probability measures on X such that, for any n ≥ 1 and A = A1 × · · · × An × X∞ , one has !
P X
(∞)
"
∈A =
#
n $
p(Ai ) Q(dp)
(1)
PX i=1
where Ai ∈ X for any i = 1, . . . , n and X∞ = X × X × · · · . The probability Q is also termed the de Finetti measure of the sequence X (∞) . This particular form of the representation theorem can be found in de Finetti (1937), an article that contains a series of lectures delivered by de Finetti in Paris, at the Institut Henri Poincar´e, in 1935. The implication of (1) is apparent: conditional on a random probability measure p˜ from Q, the first n elements of the exchangeable sequence X (∞) are independent and identically distributed and their common p.d. is p˜. When Q is concentrated on a set of elements in PX that are discrete, one can show that there might be ties among X1 , . . . , Xn , i.e. P[Xi = Xj ] > 0 for i $= j. Correspondingly, define Ψn to be a random partition of the integers {1, . . . , n} such that any two integers i and j belong to the same set in Ψn if and only if Xi = Xj . Let k ∈ {1, . . . , n} and suppose {C1 , . . . , Ck } is a partition of {1, . . . , n} into k sets Ci . Hence, {C1 , . . . , Ck } is a possible realization of Ψn . A common and sensible specification for the probability distribution of Ψn consists in assuming that it depends on the frequencies of each set in the partition. To
Convegno Economia e Incertezza
86
illustrate this point, introduce the set % ∆n,k :=
(n1 , . . . , nk ) : ni ≥ 1,
k & i=1
'
ni = n .
Set ni = card(Ci ), then (n1 , . . . , nk ) ∈ ∆n,k and (n)
P[Ψn = {C1 , . . . , Ck }] = Πk (n1 , . . . , nk )
(2)
A useful and intuitive metaphor is that of species sampling: one is not much interested into the realizations of the Xi ’s, which stand as species labels thus being arbitrary, but rather in the probability of observing k distinct species with frequencies (n1 , . . . , nk ) in n ≥ k draws from a population. This leads us to state the following (n)
Definition 1. Let (Xn )n≥1 be an exchangeable sequence. Then, {Πk : (n) 1 ≤ k ≤ n, n ≥ 1} with Πk defined in (2) is termed exchangeable partition probability function (EPPF). Indeed, the EPPF defines an important tool which has been introduced in Pitman (1995) and it determines the distribution of a random partition of N. From the above definition it follows that, for any (n) n ≥ k ≥ 1 and any (n1 , . . . , nk ) ∈ ∆n,k , Πk is a symmetric function of its arguments, namely (n)
(n)
Πk (n1 , . . . , nk ) = Πk (nπ(1) , . . . , nπ(k) ) for any permutation π of (1, . . . , k), and it satisfies the consistency property (n)
(n+1)
Πk (n1 , . . . , nk ) = Πk+1 (n1 , . . . , nk , 1) +
k &
(n+1)
Πk
(n1 , . . . , nj + 1, . . . , nk ).
(3)
j=1
corresponding to the fact that the partition of X1 , . . . , Xn can be recovered from the partition of X1 , . . . , Xn+1 by dropping Xn+1 . On the other hand, as shown in Pitman (1995), every non–negative symmetric function satisfying (3) is the EPPF of some exchangeable sequence. See Pitman (1995, 2006) for a thorough and useful analysis of EPPFs. In the following sections we will emphasize the role played by EPPFs in two different contexts: Bayesian nonparametric inference and economic modelling.
Convegno Economia e Incertezza
87
2
Bayesian nonparametric modelling
Bayesian nonparametric inference is a relatively young area of research that has recently undergone a strong development. Most of its success can be explained by the considerable degree of flexibility it ensures in statistical modelling, if compared to parametric alternatives, and by the emergence of new and efficient simulation techniques that make nonparametric models amenable to concrete use in a number of applied statistical problems.
2.1
The Dirichlet process
Even if the formal setting for Bayesian nonparametric inference had been laid out by de Finetti during the 30’s, no tractable examples were given on how to construct a prior Q on PX so to make the nonparametric approach feasible in applied statistical problems. Such a task has been completed only 40 years later by T.S. Ferguson who defined in his 1973 paper, on the Annals of Statistics, the Dirichlet process. Nowadays it represents one of the most commonly used priors in Bayesian nonparametrics and its popularity can be explained by its mathematical tractability and by the recent development of Markov chain Monte Carlo (MCMC) techniques whose implementation allows a full Bayesian analysis of complex statistical models based on the Dirichlet process prior. As highlighted in Ferguson (1973), the Dirichlet process can be defined in various ways. Here we will point out three different definitions in terms of the family of its finite-dimensional distributions, by means of a series representation and through its representation as a normalized completely random measure. Definition 2. (Ferguson, 1973). Let c > 0 be a constant and P0 some probability measure on (X, X ). Moreover, to any measurable partition {A1 , . . . , Ak+1 } of X, associate the vector (p1 , . . . , pk+1 ) with pi = P0 (Ai ). Then, we say that p˜ is a Dirichlet process with parameter measure cP0 if the vector (˜ p(A1 ), . . . , p˜(Ak )) has density Γ(c)
(k+1 i=1
k $
Γ(cpi ) i=1
i −1 xcp (1 − x1 − · · · − xk )cpk+1 −1 1Sk (x1 , . . . , xk ) i
Convegno Economia e Incertezza
88
where Sk := {(x1 , . . . , xk ) : xi ≥ 0, simplex.
)k
i=1 xi
≤ 1} is the k–dimensional
An alternative characterization of the Dirichlet process can be given in terms of a normalized completely random measure µ ˜. This is a random element defined on (Ω, F , P) and taking values in the space of boundedly finite measures MX with the property that if A and B are two sets in X such that A ∩ B = ∅, then the random variables µ ˜(A) and µ ˜(B) are independent. See the Appendix for a short review on completely random measures. Theorem 1. (Ferguson, 1973). Suppose µ ˜ is a gamma completely random measure with parameter cP0 , namely for any set A ∈ X P[˜ µ(A) ≤ x] * + # 1(0,∞) (P0 (A)) x cP0 (A)−1 −s = s e ds + 1{0} (P0 (A)) 1[0,∞) (x). Γ(cP0 (A)) 0 If p˜ is a Dirichlet process with parameter measure cP0 , then µ ˜ d = p˜ µ ˜(X)
(4)
It is worth noting that µ ˜ is a jump process. If P0 is non–atomic, this ) entails that µ ˜ = i≥1 Ji δXi where the Ji ’s are independent and non– negative random variables and the Xi ’s are i.i.d from P0 . This suggests an important feature of the Dirichlet process that was first shown by Blackwell (1973): the Dirichlet process selects, almost surely, discrete probability distributions on (X, X ). This property becomes even more apparent if one considers an alternative definition of the Dirichlet process that can be given in terms of the so–called stick–breaking construction. Theorem 2. (Sethuraman, 1994). Let (Vi )i≥1 be a sequence of i.i.d. random variables with Vi ∼ Beta(1, c) and define w 1 = V1 ,
w k = Vk
k−1 $ i=1
(1 − Vi )
k = 2, 3, . . .
(5)
) Then k≥1 wk = 1, almost surely, and if (Xn )n≥1 is a sequence of i.i.d. random variables whose common p.d. P0 is non–atomic, the random
Convegno Economia e Incertezza
89
probability measure p˜ =
&
w k δX k
(6)
k≥1
coincides, in distribution, with the Dirichlet process with parameter measure cP0 . The representation in (6) highlights an interpretation of the Dirichlet process p˜ as a species sampling model. This entails that the population can be thought of as split into an infinite number of species, wk being the unknown proportion of the k–th species. As pointed out in the introduction, the discreteness of p˜ naturally leads one to analyze the partition structure it induces on a set X1 , . . . , Xn of the first n observations extracted from an infinite exchangeable sequence (Xn )n≥1 . The EPPF associated to the Dirichlet process is (n)
Πk (n1 , . . . , nk ) =
k ck $ (ni − 1)! (c)n
(7)
i=1
where (c)n = Γ(c + n)/Γ(c) is the n–th ascending factorial of c. See Antoniak (1974). It is worth noting that (7) is an equivalent form of the well-known Ewens sampling formula widely used in population genetics. Indeed, the formula introduced by Ewens (1972) represents the p.d. of the vector (m1 , . . . , mn ) of counts, where mi is the number of clusters of size i, and it is given by Π∗k,n (m1 , . . . , mn )
n n!ck $ 1 = (c)n i m i mi ! i=1
) for any vector of non–negative integers (m1 , . . . , mn ) such that ni=1 mi = )k k and i=1 imi = n. When the EPPF is known, the determination of the corresponding predictive distribution is straightforward. Indeed, if one adheres to the species sampling interpretation for p˜, the probability of observing a new species, conditional on a sample X1 , . . . , Xn featuring k distinct species X1∗ , . . . , Xk∗ with frequencies n1 , . . . , nk , is (n+1)
P[Xn+1 = new | X1 , . . . , Xn ] =
Convegno Economia e Incertezza
Πk+1 (n1 , . . . , nk , 1) (n) Πk (n1 , . . . , nk )
=
c c+n
90
On the other hand, the probability that Xn+1 is from any of the species observed in the conditioning sample is P[Xn+1 = new | X1 , . . . , Xn ] )k (n+1) (n1 , . . . , nj + 1, . . . , nk ) n j=1 Πk = = (n) c + n Πk (n1 , . . . , nk ) for any j = 1, . . . , n. These can be summarized in the following expression, known as predictive distribution, P[Xn+1 ∈ A | X1 , . . . , Xn ] =
c n ˆ P0 (A) + Pn (A) c+n c+n
∀A ∈ X
(8) )n ˆ where Pn = j=1 δXi /n is the empirical distribution. Besides prediction, the EPPF is also a useful tool for studying distributional properties of the number Kn of clusters generated by an exchangeable sample of size n. If one marignalizes with respect to the frequencies (n1 , . . . , nk ) in (7), one obtains the p.d. of Kn P[Kn = k] =
ck |s(n, k)| 1{1,...,n} (k) (c)n
(9)
where |s(n, k)| is the signless Stirling number of the first kind. Moreover, the asymptotic behaviour is readily available from results in Korwar and Hollander (1973), which state that Kn a.s −→ c log n
(10)
as n ↑ ∞. The rate of increase of Kn , as n increases, is an important quantity for assessing the implications of the use of the Dirichlet process in macroeconomic modelling and it will be compared to the behaviour associated to random probability measures that generalize the Dirichlet process.
2.2
The two–parameter Poisson–Dirichlet process
Despite the Dirichlet process has been a cornerstone in Bayesian nonparametrics, in some cases of interest for statistical applications it is not an adequate prior choice and alternative nonparametric models need to
Convegno Economia e Incertezza
91
be devised. An example is represented by survival analysis: if a Dirichlet prior is used for the survival time distribution, then the posterior, conditional on a sample containing censored observations, is not Dirichlet. It is, then, of interest to find an appropriate class of random distributions which contain, as a special case, the posterior distribution of the Dirichlet process given censored observations. Moreover, in survival problems one might be interested in modelling hazard rate functions or cumulative hazards and the Dirichlet process cannot be used in these situations. Also in clustering and prediction problems, which are of interest to the present paper, the predictive structure (8) induced by the Dirichlet process is sometimes not flexible enough to capture important aspects featured by the data. Indeed, the probabilities of generating a new observations and of re-observing one of the species that have appeared in the conditioning sample, c/(c + n) and n/(c + n), respectively, depend neither on the number k of clusters into which the data are grouped nor on the individual frequencies n1 , . . . , nk . An important piece of information for prediction is, then, neglected. This, and allied applied problems, have recently stimulated a number of contributions aiming at the definition of generalizations of the Dirichlet process that still preserve a reasonable amount of analytical tractability and that overcome some of the drawbacks inherent to modelling real phenomena with the Dirichlet process. Among these generalizations, a special role is played by the two–parameter Poisson–Dirichlet process introduced by Pitman (1995). Definition 3. Let (α, θ) be parameters such that either α ∈ [0, 1] and θ > −α or α = −x < 0 and θ = mx for some m = 1, 2, . . .. Moreover, (Vi )i≥1 is a sequence of independent random variables with Vi ∼ Beta(1− α, θ + iα) and (wi )i≥1 are random weights defined as w 1 = V1 ,
w i = Vi
i−1 $
j=1
(1 − Vj )
i ≥ 2.
If (Xi )i≥1 is a sequence of i.i.d. random variables with non–atomic ) p.d. P0 , the random probability measure i≥1 wi δXi is a two-parameter Poisson–Dirichlet process. This definition points out an analogy to the Dirichlet process, namely
Convegno Economia e Incertezza
92
the realizations of a two–parameter Poisson–Dirichlet process are almost surely discrete. Note also that the Dirichlet process stands as a particular case for which α = 0. Another useful definition can be given in terms of completely random measures as pointed out in Pitman and Yor (1997) for the case where α ∈ (0, 1). Let µ ˜α be a α–stable completely random measure with parameter measure P0 . This means that ! " # α −λ˜ µα (A) E e = e−λµ(A) Pα (dµ) = e−P0 (A)λ MX
Let µ ˜α,θ be a random measure on MX with law Pα,θ such that Pα,θ is absolutely continuous with respect to Pα and dPα,θ (µ) = {µ(X)}−θ . dPα Theorem 3. (Pitman and Yor, 1997). The normalized random measure µ ˜α,θ /˜ µα,θ (X) coincides in distribution with a two–parameter Poisson– Dirichlet process. Among all generalizations of the Dirichlet process, the PD(α, θ) process stands out for its tractability. The EPPF, which characterizes the induced random partition, of a PD(α, θ) process is (n) Πk (n1 , . . . , nk )
=
(k−1
k + iα) $ (1 − α)nj −1 (θ + 1)n−1 i=1 (θ
(11)
j=1
Now, denote by mj ≥ 0, j = 1, . . . , n, the number of sets in the partition which contain j objects or, using again the species metaphor, the number of species appearing j–times in a sample of size n. Then, an alternative equivalent formulation of (11), known as Pitman’s sampling formula, is given by Π∗k,n (m1 , . . . , mn )
= n!
(k−1
(θ +
n , $ + iα) (1 i=1 (θ ( n 1)n−1 i=1 mi ! i=1
− α)i−1 i!
-mi
) for any n ≥ 1 and m1 , . . . , mn such that mi ≥ 0, ni=1 i mi = n and )n i=1 mi = k. The above expression represents a two parameter generalization of the Ewens’ sampling formula that can be recovered by
Convegno Economia e Incertezza
93
letting α → 0. The availability of the EPPF in (11) allows one to determine the system of predictive distributions associated with the PD(α, θ) process. Indeed, if X1 , . . . , Xn is a sample consisting of k distinct values X1∗ , . . . , Xk∗ and nj of them are equal to Xj∗ , then P[Xn+1 ∈ dx | X1 , . . . , Xn ] =
k 1 & θ + kα P0 (dx)+ (nj −α) δXj∗ (dx) θ+n θ+n j=1
It can be noted that, unlike the Dirichlet process, the probability of observing a new species depends also on the number k of distinct observations. This is not the only remarkable difference from the Dirichlet process. Another important distinctive feature concerns the asymptotic behaviour of the number of distinct observations Kn detected in a sample of size n. For any n one has that (k−1 (θ + iα) P[Kn = k] = ki=1 C (n, k; α) k = 1, . . . , n, α (θ + 1)n−1 where
. / k 1 & j k C (n, k; α) = (−1) (−jα)n k! j j=0
is the generalized factorial coefficient. See Gnedin and Pitman (2005). In order to derive the asymptotic behaviour of Kn as n diverges, it is useful to first introduce a class of random variables, which will appear throughout the following developments. This class of random variables, which we term generalized Mittag–Leffler random variables, is defined as follows. Let fα be the density function of a positive α–stable random variable and define Zq to be, for any q ≥ 0, a positive random variable with density function Γ(qα + 1) q−1−1/α 0 −1/α 1 fZq (z) = z fα z . (12) α Γ (q + 1) Then, by Theorem 3.8 in Pitman (2006), one has that Kn a.s. −→ Zθ/α . n
(13)
Therefore, in the two–parameter case, one has that Kn increases at a rate of nα (rather than the logarithmic rate of the Dirichlet process) and,
Convegno Economia e Incertezza
94
moreover, the normalized version of Kn converges to a strictly positive random variable (in contrast to the convergence to a constant of the Dirichlet case).
3 3.1
Uncertainty in macroeconomics models Self–averaging phenomena
Aoki (2008) introduces the interesting concept of “ self-averaging ” in Economics in relation to stochastic growth models. Definition 4. A size–dependent random variable Xn is termed self– averaging if 2 Var(Xn ) C.V.(Xn ) = → 0 as n → ∞, (14) E(Xn ) where C.V. clearly denotes the coefficient of variation. Such a property typically holds for simple economic models, where some assumption of symmetry or homogeneity of the individuals underlies the whole model. The concept is best clarified by looking at an example: consider the popular Poisson model, in which for each “individual” an event (e.g. technical progress) occurs according to a Poisson process with parameter λ. Then, in the whole economy, which is based on n individuals, the number of events Xn follows a Poisson process with rate λn. Consequently, in a one–time period, we have E(Xn ) = Var(Xn ) = λn and it immediately follows that C.V.(Xn ) = λn−1/2 → 0 as n → ∞. Hence, the Poisson model is self–averaging. The same obviously holds for the Gaussian case. In fact, the self-averaging condition (14) can be equivalently expressed as . / Xn Var →0 n → ∞, (15) E(Xn ) from which it becomes evident that for self–averaging macroeconomic phenomena, one can focus attention on the means of the involved variables since for sufficiently large n the residual variability of the normal-
Convegno Economia e Incertezza
95
ized Xn becomes negligible. On the other hand, the model is non–self– averaging if . / Xn Var $→ 0 n → ∞. E(Xn ) In such a case, even if the number of agents diverges, the uncertainty about the “normalized” trajectories of Xn persists: clearly focusing solely on the mean behaviour is not enough for describing the phenomenon at issue. Some measure of the oscillations around the mean is essential for providing a clear picture. In the following we introduce a simple endogenous growth model and show that it leads, under reasonable assumptions, to non–self–averaging phenomena. The model represents a rigorous development of some ideas presented in Aoki and Yoshikawa (2007). By deriving exact asymptotic results we show how the mean can be combined with measures of uncertainty represented by highest posterior density intervals.
3.2
A simple endogenous growth model
In this section we review the results of Lijoi, Muliere, Pr¨ unster and Taddei (2010). In accordance with the literature on endogenous growth, we assume that the economy grows by innovations, which are stochastic events of two types: the first type is represented by a productivity rise in an existing sector, whereas the second type is represented by the creation of a new sector. By the time the n–th innovation occurs, the economy will consist of a random number Kn of sectors, the i–th sector will have ) n experienced ni innovations and obviously K i=1 ni = n. Furthermore, we assume that the output of sector i is of the form ni
Yi = η γ n1−σ
(16)
where γ > 1, η > 0 and σ ∈ (0, 1). Without loss of generality we can assume η = 1. Moreover, we will concentrate our attention on the case of γ close to 1, which is realistic in many situations. Therefore we can approximate (16) with ni Yi = 1 + β 1−σ n
Convegno Economia e Incertezza
96
where β = log(γ) > 0. Hence, the aggregate output of the economy, which is the sum of the outputs of the Kn sectors, is given by Xn =
n &
Y i = Kn + β n σ
(17)
i=1
which shows that Kn is the contribution to the aggregate output of the number of sectors and that nσ is the contribution of the innovations within sectors. Finally, the stochastic innovations are governed by a two–parameter Poisson–Dirichlet model with parameters α ∈ (0, 1) and θ > 0. This means that, given an economy with Kn sectors and the n innovations distributed as (n1 , . . . , nKn ), the probability that innovation n + 1 will create a new sector is θ + α Kn , θ+n whereas the probability that the n + 1–th innovation will happen in sector i is ni − α i = 1, . . . , Kn . θ+n Before proceeding it is worth to outline the reinforcement mechanism induced by the Poisson–Dirichlet process. The probability of having an innovation in one of the already existing sectors is (n − αKn )/(θ + n), but the mass is not allocated proportional to the number of innovations already observed in each sector. The probability of observing an innovation in sector i is determined by the size ni of the cluster and by α. In fact, a reinforcement mechanism driven by α takes place. Indeed, one can see that the ratio of the probabilities assigned to any pair of sectors (i, j) is given by (ni − α)/(nj − α). As α → 0, the previous quantity reduces to the ratio of the sizes of the two clusters, which characterizes the Dirichlet case and represents exactly the case of homogeneity of the sectors. If ni > nj , the ratio is an increasing function of α. Hence, as α increases the mass is reallocated from sector j to i. This means that the dynamics tends to reinforce, among the observed clusters, those having higher frequencies. Table 1 provides an idea of the magnitude of the reinforcement. See Lijoi et al. (2005, 2007) for details and more discussion on the reinforcement connected to such models.
Convegno Economia e Incertezza
97
Table 1: Ratio of the probabilities allocated to sector i observed ni times and sector j observed only once for different choices of α. ni = 2 ni = 10 ni = 50 ni = 100 Dir 2 10 50 100 PD(θ, α = 0.25) 2.33 13 66.33 133 PD(θ, α = 0.50) 3 19 99 199 PD(θ, α = 0.75) 5 37 197 397 PD(θ, α → 1) →∞ →∞ →∞ →∞ The following result distinguishes various cases corresponding to different choices of the parameters of the model: it is worth noting that α > σ (α < σ) means that the contribution to aggregate output from innovations represented by introduction of new sectors are more (less) relevant than those within an existing sector. Hence, our result essentially states that, when contributions to the economy given by the introduction of new sectors are at least as relevant as those given by the existing sectors, the economy presents a non–self–averaging behaviour. Proposition 1. Under the growth model (17) with innovations following a two parameter Poisson Dirichlet process, we have E[Xn ] =
(θ + α)n θ − + βnσ , α (θ + 1)n−1 α
(18)
where (a)n = a(a+1) . . . (a+n−1) is the ascending factorial. Moreover, (i) If α = σ = υ, Xn → Zθ/α + β a.s. nυ where Zq is a generalized Mittag–Leffler random variable defined in (12), and Xn is non–self-averaging. (ii) If α = υ > σ, Xn → Zθ/α a.s. nυ where Zq is a generalized Mittag–Leffler random variable defined in (12), and Xn is non–self-averaging.
Convegno Economia e Incertezza
98
(iii) If σ = υ > α, Xn →β nυ
a.s.
and Xn is self-averaging. Proof. The proof follows by combining formula (3.13) in Pitman (2006), the asymptotics of Kn as recalled in (13) and standard limiting arguments. From Proposition 1 it follows that the model can be described by the mean E[Xn ], given in (18), in self–averaging situations: this is in agreement with the usual macroeconomic attitude to consider aggregate average quantities. The question is, what one should do in non–self– averaging cases, which as shown in Proposition 1 arise systematically in presence in of highly dynamic economies. In such cases, it seems essential to combine the study of the mean beahviour with a measure of uncertainty and the natural tool in this framework is represented by the asymptotic highest posterior density (HPD) intervals of the limiting random variable, which represent the Bayesian counterpart to frequentist confidence intervals. As for the determination of the asymptotic HPD intervals, consider case (ii), case (i) follows then immediately: one can take the 95% HPD interval (z1 , z2 ) of Zθ/α i.e. (z1 , z2 ) such that z2 − z1 is minimal under the condition P(z1 < Zθ/α < z2 ) ≥ 0.95. The asymptotic HPD interval for Xn is then given by (z1 nυ , z2 nυ ). However, the determination of the quantiles of a generalized Mittag– Leffler random variable Zq is cumbersome and, hence, we devise a simulation algorithm for generating values of Zq by adapting arguments in Favaro et al. (2009) and one can then use the output to evaluate quan−1/α tiles. The basic idea consists in setting Wq = Zq so that Wq has density function given by # ∞ αΓ(qα) −qα α f (w) = w fα (w) = fα (w) uqα−1 e−uw du Γ(q) Γ(q) 0 Via augmentation, one then has f (u, w) =
α fα (w) uqα−1 e−uw = f (u)fα (w|u) Γ(q)
Convegno Economia e Incertezza
99
where f (u) is the density function of a r.v. Uq such that Uqα ∼Gamma(q, 1), and α fα (w|u) = fα (w) e−uw+u . This means that, conditional on Uq , Wq is a positive tempered–stable random variable, according to the terminology adopted in Rosi´ nski (2007). In order to draw samples from it, a convenient strategy is to resort to the series representation derived in Rosi´ nski (2007), which, in our case, yields ∞ 3 4 & d 1/α Wq |Uq = min (ai Γ(1 − α))−1/α , ei vi (19) i=1
iid
iid
where ei ∼ Exp(Uq ), vi ∼ U(0, 1) and a1 > a2 > · · · are the arrival times of a Poisson process with unit intensity. Other possibilities for simulating from a tempered stable random variable are the inverse L´evy measure method as described in Ferguson and Klass (1972) and a compound Poisson approximation scheme proposed in Cont and Tankov (2004). Summarizing the above considerations, an algorithm for simulating from the limiting random variable Zθ/α is as follows: 1. generate X ∼ Ga(θ/α, 1) and set U = X 1/α ; 2. for a given truncation N and U sampled in step 1., generate: iid iid iid {ei } ∼ Exp(U ), {vi } ∼ U(0, 1), ξj ∼ Exp(1) and take ai = )i j=1 ξj , for i = 1, . . . , N ; 3. compute W according to (19) and set Z = W −α .
Recently two alternative and more efficient algorithms for drawing samples from the limiting distribution of Kn /nα has been derived by Montagna (2009), who exploits results of Devroye (2009). With such algorithm at hand, it is straightforward to describe the growth model via E(Xn ) combined with the corresponding HPD intervals, which account for the persisting uncertainty due to the non–self– averaging nature of the phenomenon at issue. The previous model can be seen as an unconditional model, where the economy starts from scratch. A more realistic model, would consider the status quo of the economy and analyze the contribution to the aggregate output of sectors which will emerge only in the future. From a
Convegno Economia e Incertezza
100
mathematical point of view this means predicting the future behaviour conditionally on a given state of the world. Therefore, we now assume the status quo as given (i.e. there are at present Kn = k sectors where n1 , . . . , nk innovations occurred) and study the aggregate output of new future sectors. By the time the m–th innovation occurs, there will be (n) a random number Km = Km − Kn of new sectors in the economy, where the i–th will have experienced si innovations. In this model, not (n) ) m (n) all innovations will belong to the new sectors: in fact, K i=1 si = Lm represents the number of innovations concerning the new sectors and (n) m − Lm innovations will concern the “old” sectors. Under the same assumptions of the unconditional case, the output of the i–th new sector is then of the form (Yi |Kn = j, n1 . . . , nj ) = 1 + β
si m1−σ
(n) i = 1, . . . , Km (n)
where β > 0 and σ ∈ (0, 1). The aggregate output of the Km new sectors is then given by (n)
(n) (Xm |Kn = j, n1 . . . , nj ) = Km +β
Lm m1−σ
(20)
Again, we model the stochastic innovations with a two–parameter Poisson– Dirichlet model with parameters α ∈ (0, 1) and θ > 0. The following result provides a complete description of the model showing that non– self–averaging appears under any assumption on the innovation parameters α and σ highlighting how common such phenomena arise. Proposition 2. Under the growth model (20) with innovations following a two parameter Poisson Dirichlet process, we have . /* + θ (θ + n + α)m θ + jα σ E[Xm |Kn = j, n1 . . . , nj ] = j + − 1 +β m . α (θ + n)m θ+n (21) Moreover: (i) If α = σ = υ, (Xm |Kn = k, n1 . . . , nk ) → Un,j + β Bθ+αj,n−αj mυ
Convegno Economia e Incertezza
a.s.
101
d
where Un,j = Bj+θ/α, n/α−j Z(θ+n)/α , Zq is a generalized Mittag– Leffler random variable with density (12), Ba,b is a beta random variable with parameters (a, b) and the random variables Bj+θ/α, n/α−j and Z(θ+n)/α are independent. Hence, the model is non–self-averaging. (ii) If α = υ > σ, (Xm |Kn = k, n1 . . . , nk ) → Un,j mυ
a.s.
and the model is non–self-averaging. (iii) If σ = υ > α, (Xm |Kn = k, n1 . . . , nk ) → β Bθ+αj,n−αj mυ
a.s..
(n)
Proof. We start by considering the limiting behaviour of Km , which is one of the two components the aggregate output (20) is made of. The proof strategy is as follows: we first mimick the arguments of (n) Favaro et al. (2009) in order to establish that Km /mα converges a.s. and in the p–th mean for any p > 0, determine the moments of the limiting random variable and show that the limiting random variable is characterized by its moments. Then, the asymptotic behaviour of the second component of the aggregate output is studied and the two bits combined to achieved the desired result. Let us start by computing the likelihood ratio (n) Mα,θ,m
(n)
(n) 5 (n) (n) dPα,θ 5 qα,θ (Km ) 5 := = (n) (n) (n) 5 dPα,0 Fm(n) qα,0 (Km ) (n)
where Fm = σ(Xn+1 , . . . , Xn+m ), Pα,θ is the conditional probability distribution of a PD(α, θ) process given Kn and, by virtue Proposition 1 (n) in Lijoi, Pr¨ unster and Walker (2008), qα,θ (k) = αKn ( αθ + Kn )k /(θ + n)m (n)
(n)
(n)
for any integer k ≥ 1 and qα,θ (0) := 1/(θ+n)m . Hence (Mα,θ,m , Fm )m≥1 (n)
(n)
is a Pα,0 –martingale. By a martingale convergence theorem, Mα,θ,m has (n)
(n)
a Pα,0 almost sure limit, say Mα,θ , as m → ∞. Convergence holds in the (n)
(n)
p–th mean as well, for any p > 0. One clearly has that Eα,0 [Mα,θ ] = 1,
Convegno Economia e Incertezza
102
(n)
(n)
where Eα,0 denotes the expected value w.r.t. Pα,0 . It can be easily seen that 8 9 (n) θ/α Γ(θ + n)Γ(Kn ) Km (n) 7 6 Mα,θ,m ∼ mα Γ(n)Γ αθ + Kn (n)
(n)
as m → ∞. Hence (Km /mα )θ/α converges Pα,0 –a.s. to a random variable, say Un,j such that ! " Γ(n)Γ 6 θ + K 7 n (n) θ/α α Eα,0 Un,j = . Γ(θ + n)Γ(Kn )
In order to identify the distribution of the limiting random variable Un,j (n) (n) w.r.t. Pα,θ , we consider the asymptotic behaviour of E[(Km )r | Kn ] as m → ∞, for any r ≥ 1. Hence, we first need to identify the moments (n) E[(Km )r | Kn ]. Indeed, one has m . / " & ! 5 m i (n) r 5 E (Km ) Kn = j, w = w (1 − w)m−i E [Kir ] i i=0
where the unconditional moment E [Kir ] is evaluated w.r.t. P˜α,θ+jα prior. Such an expression is already available from Yamato and Sibuya (2000) and it is given by
E [Kir ] . / . / r & θ + jα θ + jα (θ + jα + να + 1)i−1 = (−1)r−ν 1 + S r, ν; α α (θ + 1)i−1 ν ν=0
where S is the non–central Stirling number of the second kind. Hence, one has " ! 5 (n) r 5 ) Kn = j E (Km ! " :1 (n) 5 Γ(θ + n) 0 wθ+jα−1 (1 − w)n−jα−1 E (Km )r 5 Kn = j, w dw = Γ(θ + jα)Γ(n − jα) 0 1 0 1 ) θ+jα Γ(θ + n) rν=0 (−1)r−ν 1 + θ+jα S r, ν; α α ν = Γ(θ + jα)Γ(n − jα) :1 m. / & m (θ + jα + να + 1)i−1 0 wθ+jα+i−1 (1 − w)n−jα+m−i−1 dw × i (θ + 1)i−1 i=0
Convegno Economia e Incertezza
103
. / . / r & 1 θ + jα θ + jα θ + jα r−ν = (−1) 1+ S r, ν; (θ + n)m α α θ + jα + να ν ν=0
m . / & m × (θ + jα + να)i (n − jα)m−i i i=0
=
. / . / r & θ θ + jα 1 (−1)r−ν +j S r, ν; (θ + n + να)m , (θ + n)m α α ν ν=0
(22)
where the last equality follows by an application of the Chu–Vandermonde formula. See, e.g., Charalambides (2005). Note, that for r = 1, we have . /* + θ (θ + n + α)m (n) E[Km | Kn = j] = j + −1 , (23) α (θ + n)m
Now we can obtain the asymptotic moments by letting m → ∞ in (22): using the Stirling formula we have . / ! " 5 1 θ Γ(θ + n) (n) r 5 E (K ) K → K + =: µ(n) (24) n n m r . mrα α r Γ(θ + n + rα) d
Such a moment sequence arises by taking Un,j = Bj+θ/α, n/α−j Z(θ+n)/α , with the beta random variable Bj+θ/α, n/α−j independent from Z(θ+n)/α , which has density (12). Hence, we are left with showing that the distri(n) bution of Un,j is uniquely characterized by the moment sequence {µr }r . In order to establish this, one can evaluate the characteristic function of Un,j which, at any t ∈ R, coincides with 6 7 Γ θ+n Γ(θ + n + 1) α 7 6n 7 6 θ+n 7 Φ(t) = 6 θ Γ Kn + α Γ α − Kn Γ α + 1 # ∞ # ∞ θ n itz Kn + α −1 × e z w (w − z) α −Kn −1 gα (w) dw dz 0
=
z
#
∞
α Γ(θ + n) 7 6 7 w gα (w) Γ Kn + αθ Γ αn − Kn 0 # w θ n × eitz z Kn + α −1 (w − z) α −Kn −1 dz dw 6
0
6 7 # θ ∞ θ+n Γ(θ + n + 1) & (it)r Kn + α r 7 6 θ+n 7 = 6 θ+n w α +r gα (w) dw Γ α + 1 r≥0 r! 0 α r Convegno Economia e Incertezza
104
7 6 6 θ+n 7 & (it)r Kn + θ α r Γ(θ + n + 1) Γ α +r+1 6 θ+n 7 6 7 = r! Γ(θ + n + 1 + rα) Γ θ+n α r α +1 r≥0 & (it)r = µ(n) r! r r≥0
(n)
Hence, we have established that (Km |Kn = j)/mα converges a.s. and in p-th means to Un,j . As for the second component of the aggregate output (20), namely (n) βLm /m1−σ , first note that by Proposition 2 in Lijoi, Pr¨ unster and Walker (2008), we have E[L(n) m ]=m
θ + αj . θ+n (n)
This, combined with (23), yields immediately (21). The law of Lm is given in Eq. (22) of Lijoi, Pr¨ unster and Walker (2008), which is easily seen to coincide with a P´ olya distribution . / m Be(m − s + n − jα, s + θ + jα) (n) P(Lm = s|Kn = j) = , (25) s Be(n − jα, θ + jα) for s = 0, . . . , m, where Be(a, b) denotes a beta function. Hence, the number of innovations within the new sectors follows a P´ olya distribution. Therefore, by well–known martingale convergence arguments, (n) it follows that Lm /m converges a.s. and in the p–th mean to a beta random variable with parameters θ + jα and n − jα. (n) Now, combining this limit result with the previous concerning Km the asymptotic statements in (i), (ii) and (iii) follow immediately. In order to associate the HPD intervals, which provide a measure of uncertainty of predictions based on the mean behaviour, to the limiting quantities of the conditional case one can easily extend the algorithm set forth for the unconditional case. Some comments are in order at this point. The previous result shows how by complicating models so to adhere more closely to realistic assumptions non–self–averaging behaviours appear even more frequently. This represents a clear indicator that one cannot confine himself to studying mean behaviours but has to take the associated variability into account. This can be achieved in a quite straightforward way by
Convegno Economia e Incertezza
105
associating HPD intervals to the mean quantities. Therefore, the indication which clearly emerges from our analysis is that the usual way of proceeding in macroeconomics is legitimate as long as it is combined with suitable measures of uncertainty.
A
Appendix: Completely random measures
In this Appendix we provide a concise account on completely random measures, a concept introduced by Kingman (1967), which has the advantage of allowing to unify in an elegant way most classes of random probability measures dealt with in Bayesian Nonparametrics: indeed, all of them can be derived as suitable transformations of completely random measures. See Lijoi and Pr¨ unster (2010) Let (X, X ) be a Polish space equipped with the corresponding Borel σ–field and recall that a measure µ on X is said to be boundedly finite if µ(A) < +∞ for every bounded measurable set A. Denote by (MX , MX ) the space of boundedly finite measures endowed with the corresponding Borel σ–algebra. Let now µ ˜ be a measurable mapping from (Ω, F , P) into (MX , MX ) and such that for any A1 , . . . , An in X , with Ai ∩Aj = ∅ for i $= j, the random variables µ ˜(A1 ), . . . , µ ˜(An ) are mutually independent. Then µ ˜ is termed completely random measure (CRM). A CRM on X can always be represented as the sum of two compo) nents: a proper CRM µ ˜c = ∞ i=1 Ji δYi , where both the positive jumps Ji ’s and the X–valued locations Yi ’s are random, and a measure with random masses at fixed locations in X. Accordingly µ ˜=µ ˜c +
M &
V i δ zi
(26)
i=1
where the fixed jump points z1 , . . . , zM , with M ∈ {1, 2, . . . , +∞}, are in X, the (non–negative) random jumps V1 , . . . , VM are mutually independent and they are independent from µ ˜c . Finally, µ ˜c is characterized by the Laplace functional * # + ! " ! ! " −sf (x) − X f (x) µ ˜c (dx) E e = exp − 1−e ν(ds, dx) (27) R+ ×X
Convegno Economia e Incertezza
106
: where f : X → R is a measurable function such that |f | d˜ µc < ∞ + (almost surely) and ν is a measure on R × X such that # # min{s, 1} ν(ds, dx) < ∞ (28) R+
B
for any B in X . From (27), which provides a L´evy-Khintchine representation of CRMs, it is apparent that they are closely connected to Poisson processes. Indeed, µ ˜c can be represented as a linear functional ˜ of a Poisson process M on R+ × X with mean measure ν. To state this ˜ is a random subset of R+ × X and if N ˜ (A) = card(M ˜ ∩ A) precisely, M + for any A ⊂ B(R ) ⊗ X such that ν(A) < ∞, then (ν(A))k e−ν(A) k!
˜ (A) = k] = P[N It can then be shown that # # µ ˜c (A) = A
R+
k = 0, 1, 2, . . . .
˜ (ds, dx) sN
∀A ∈ X .
(29)
The measure ν characterizing µ ˜c is referred to as the L´evy or Poisson intensity of µ ˜c : it contains all the information about the distributions of the jumps and locations of µ ˜c . It is often useful to separate the jump and location part of ν by writing it as ν(ds, dx) = ρx (ds) γ(dx)
(30)
where γ is a measure on (X, X ) and ρ a transition kernel on X×B(R+ ), i.e. x /→ ρx (A) is X –measurable for any A in B(R+ ) and ρx is a measure on (R+ , B(R+ )) for any x in X. If ρx = ρ for any x, then the distribution of the jumps of µ ˜c is independent of their location and both ν and µ ˜c are termed homogeneous. Otherwise, ν and µ ˜c are termed non–homogeneous. Another important property of CRMs is their almost sure discreteness (Kingman, 1993), which means that their realizations are discrete measures with probability 1. This fact essentially entails discreteness of random probability measures obtained as transformations of CRMs. The reader is referred to Kingman (1993) for a detailed treatment of the subject. Two important CRM to the present treatment are gamma CRM and the α–stable CRM, which we briefly outline here.
Convegno Economia e Incertezza
107
A homogeneous CRM µ ˜ whose L´evy intensity is given by ν(ds, dx) =
e−s ds γ(dx) s
(31)
is a gamma process with parameter measure γ on X. It is characterized by its Laplace functional which is given by ! ! " ! E e− f d˜µ = e− log(1+f ) dγ (32) : for any measurable function f : X → R such that log(1 + |f |) dγ < ∞. Now set f = λ 1B with λ > 0, B ∈ X such that γ(B) < ∞ and 1B denoting the indicator function of set B. In this case one obtains ! " E e−λ µ˜(B) = [1 + λ]−γ(B) ,
from which it is apparent that µ ˜(B) has a gamma distribution with scale and shape parameter equal to 1 and γ(B), respectively. As for the α–stable CRM, let α ∈ (0, 1), and γ be a boundedly finite measure on X and consider a CRM µ ˜ with L´evy intensity defined by ν(dv, dx) =
α dv γ(dx). Γ(1 − α) v 1+α
The Laplace functional of such a CRM has the form ! ! " ! α E e− f d˜µ = e− f dγ
(33)
(34)
: for any measurable function f : X → R such that |f |α dγ < ∞. For instance, if α = 1/2 and f = λ 1B with λ > 0, B ∈ X such that γ(B) < ∞ one obtains the well–known Laplace transform of a 1/2– stable distribution ! " √ E e−λ µ˜(B) = e−γ(B) λ .
Acknowledgements Antonio Lijoi and Pietro Muliere are partially supported by the Italian Ministry of University and Research, grant 2008MK3AFZ. Igor Pr¨ unster is supported by Regione Piemonte, “Progetto Scienze Umane e Sociali”.
Convegno Economia e Incertezza
108
References Antoniak, C.E. (1974). Mixtures of Dirichlet processes with applications to Bayesian nonparametric problems. Ann. Statist. 2, 1152–1174. Aoki, M. (2008). Thermodynamic limits of macroeconomic or financial models: one- and two-parameter Poisson-Dirichlet models. J. Econom. Dynam. Control 32, 66–84. Aoki, M. and Yoshikawa, H. (2007). Non-self-averaging Economic Growth: A Criticism of Endogenous Growth Theory. Technical Report, UCLA. Charalambides, C.A. (2005). Combinatorial Methods in Discrete Distributions. Hoboken, NJ: Wiley. Blackwell, D. (1973). Discreteness of Ferguson selections. Ann. Statist. 1, 356-358. Cont, R. and Tankov, P. (2004). Financial modelling with jump processes. Chapman & Hall/CRC, Boca Raton, FL. Devroye, L. (2009). Random variate generation for exponentially and polynomially tilted stable distributions. ACM Transactions on Modeling and Computer Simulation 19, N. 18. Ewens, W. J. (1972). The sampling theory of selectively neutral alleles. Theor. Popul. Biol. 3 87-112. ¨ nster, I. (2009). Favaro, S., Lijoi A., Mena, R. H. and Pru Bayesian nonparametric inference for species variety with a two parameter Poisson-Dirichlet process prior. J. R. Stat. Soc. Ser. B 71, 993–1008. Ferguson, T.S. (1973). A Bayesian analysis of some nonparametric problems. Ann. Statist. 1, 209–230. Ferguson, T.S. and Klass, M.J. (1972). A representation of independent increments processes without Gaussian components. Ann. Math. Statist. 43, 1634–1643. Gnedin, A. and Pitman, J. (2005). Exchangeable Gibbs partitions and Stirling triangles. Zap. Nauchn. Sem. S.-Peterburg. Otdel. Mat.
Convegno Economia e Incertezza
109
Inst. Steklov. (POMI) 325, 83–102. de Finetti, B. (1937). La pr´evision : ses lois logiques, ses sources subjectives. Ann. Inst. H. Poincar´e 7, 1–68. ¨ ller, P., Walker, S.G. (Eds.) Hjort, N.L., Holmes, C.C. Mu (2010). Bayesian Nonparametrics. Cambridge University Press, Cambridge. Kingman, J.F.C. (1967). Completely random measures. Pacific J. Math. 21, 59–78. Kingman, J.F.C. (1993). Poisson processes. Oxford University Press, Oxford. Korwar, R.M. and Hollander, M. (1973). Contributions to the theory of Dirichlet processes. Ann. Probab. 1, 705–711. ¨ nster, I. (2005). Hierarchical mixture Lijoi, A., Mena, R.H. and Pru modeling with normalized inverse-Gaussian priors. J. Amer. Statist. Assoc. 100, 1278–1291. ¨ nster, I. (2007). Controlling the Lijoi, A., Mena, R.H. and Pru reinforcement in Bayesian non-parametric mixture models. J. R. Stat. Soc. Ser. B 69, 715–740. ¨ nster and Taddei (2010). Economic growth and Lijoi, Muliere, Pru averaging in macroeconomic models: a caveat. Working Paper. ¨ nster, I. (2010). Models beyond the Dirichlet proLijoi, A. and Pru cess. In Bayesian Nonparametrics (Hjort, N.L., Holmes, C.C. M¨ uller, P., Walker, S.G. Eds.), pp. 80–136. Cambridge University Press, Cambridge. ¨ nster, I., and Walker, S.G. (2008). Bayesian nonLijoi, A., Pru parametric estimators derived from conditional Gibbs structures. Ann. Appl. Probab. 18, 1519–1547. Montagna, S. (2009). Random probability measures and their applications to Bayesian Nonparametrics. Undergraduate thesis, University of Torino, Torino. Pitman, J. (1995). Exchangeable and partially exchangeable random
Convegno Economia e Incertezza
110
partitions. Probab. Theory Related Fields 102, 145–158. Pitman, J. (2006). Combinatorial stochastic processes. Lectures from the 32nd Summer School on Probability Theory held in Saint-Flour, July 7–24, 2002. Lecture Notes in Math., Vol. 1875. Springer, Berlin. Pitman, J. and Yor, M. (1997). The two-parameter Poisson-Dirichlet distribution derived from a stable subordinator. Ann. Probab. 25, 855– 900. ´ ski, J. (2007). Tempering stable processes. Stochastic Process. Rosin Appl. 117, 677–707. Sethuraman, J. (1994). A constructive definition of the Dirichlet process prior. Statist. Sinica 2, 639–650. Yamato, H. and Sibuya, M. (2000). Moments of some statistics of Pitman sampling formula. Bull. Inform. Cybernet. 32, 1–10.
Convegno Economia e Incertezza
111
Convegno Economia e Incertezza
113
Convegno Economia e Incertezza
114
Convegno Economia e Incertezza
115
Convegno Economia e Incertezza
116
Convegno Economia e Incertezza
117
Convegno Economia e Incertezza
118
Convegno Economia e Incertezza
119
Convegno Economia e Incertezza
120
Convegno Economia e Incertezza
121
Convegno Economia e Incertezza
122
Convegno Economia e Incertezza
123
Convegno Economia e Incertezza
124
Convegno Economia e Incertezza
125
Convegno Economia e Incertezza
126
Convegno Economia e Incertezza
127
Convegno Economia e Incertezza
128
Convegno Economia e Incertezza
129
Convegno Economia e Incertezza
130
Convegno Economia e Incertezza
131
Convegno Economia e Incertezza
132
Convegno Economia e Incertezza
133
Convegno Economia e Incertezza
134
Convegno Economia e Incertezza
135
Convegno Economia e Incertezza
136
Rendite vitalizie: tra vecchie formule e nuovi scenari Ermanno Pitacco Università di Trieste Email:
[email protected]
Sommario Alcune classiche formule della matematica attuariale, riguardanti la valutazione di rendite vitalizie, sono esaminate criticamente, alla luce di recenti variazioni nello scenario demografico (e finanziario) da un lato, e, dall’altro, dei nuovi approcci alla identificazione, quantificazione e gestione dei rischi, che si delineano nell’ambito del Risk Management assicurativo. Parole chiave Rendite vitalizie, Garanzie di conversione in rendita, Dinamica della mortalità, Longevity risk, Risk management
Convegno Economia e Incertezza
137
1
Introduzione
Le origini della matematica attuariale delle assicurazioni sulla vita possono essere collocate nella seconda metà del Seicento. In tale periodo furono proposte, in particolare, formule per il calcolo del valore attuale atteso (o valore “attuariale”) di rendite vitalizie (si veda in proposito Haberman (1996), Haberman e Sibbett (1995), Hald (1987), Pitacco (2004a)). Nel 1725, A. De Moivre pubblica “Annuities on lives”, che può essere considerato il primo testo di matematica attuariale. Nel plurisecolare periodo che ci separa dalle sue origini, la matematica attuariale è stata oggetto di una progressiva evoluzione, grazie anche agli sviluppi del calcolo delle probabilità, agli apporti della finanza matematica, alle accresciute capacità di calcolo automatico. Un significativo salto nel processo evolutivo si verifica peraltro in tempi recenti. Nuove normative, anche a livello europeo, disegnano un nuovo scenario in cui, tra l’altro, può esprimersi la concorrenza tra operatori assicurativi sul mercato. Inoltre, variazioni in ambito demografico ed economicofinanziario contribuiscono a determinare un radicale mutamento del contesto operativo dell’assicurazione vita. Tale contesto, profondamente innovato, trova la matematica attuariale impreparata ad affrontare nuove sfide. La tecnica assicurativa deve pertanto avvalersi anche di contributi provenienti da diversi ambiti disciplinari, alcuni tradizionalmente lontani dalla scienza e tecnica attuariale: l’economia aziendale, la finanza d’azienda, ecc. Da tale incontro di diverse discipline scaturiscono problemi di linguaggio, di coerenza tra concetti, di incompatibilità tra approcci ormai consolidati nei rispettivi ambiti disciplinari. Un nuovo approccio all’analisi dei rischi nell’attività assicurativa dischiude, peraltro, nuove prospettive. Si tratta dell’approccio suggerito dal Risk Management (RM), disciplina non certo nuova nell’ambito aziendale generale, ma solo di recente applicazione in quello assicurativo. È auspicabile che, nel contesto di tale approccio, si riesca a raggiungere, in tempi brevi, una unificazione concettuale e “linguistica” che certamente potrà favorire un’appropriata gestione dei rischi assicurativi. Il presente lavoro è basato prevalentemente su risultati scientifici conseguiti congiuntamente con Annamaria Olivieri (Università di Parma), e su varie esperienze seminariali e didattiche. L’esposizione è articolata nei seguenti capitoli. Il cap. 2 presenta il “caso” della Equitable Life, caso paradigmatico nel contesto della gestione di rischi assicurativi nei nuovi scenari demografici e finanziari. Il cap. 3 è dedicato ad un’analisi dei classici modelli attuariali per rendite vitalizie e dei relativi limiti di applicabilità. Nuovi scenari ed evoluzione dei modelli di calcolo attuariale sono illustrati Convegno Economia e Incertezza
138
nel cap. 4. Il cap. 5 presenta i tratti salienti dell’approccio RM e la sua applicazione all’analisi quantitativa di un portafoglio di rendite vitalizie. Alcune conclusioni sono esposte nel cap. 6.
2
Il caso Equitable Life
Il “caso” della compagnia assicuratrice inglese Equitable Life Assurance Society costituisce un paradigma nel contesto della gestione dei rischi relativi ad un portafoglio di rendite. Il fallimento di tale impresa può infatti suggerire appropriate linee-guida per l’individuazione, la quantificazione e la gestione dei rischi.
2.1
Un po’ di storia
L’Equitable Life fu fondata nel 1762, prima mutua assicuratrice nel Regno Unito. Le basi tecnico-statistiche per il calcolo dei premi erano date, tra l’altro, dalla tavola di mortalità costruita da Edmond Halley nel 1693 e dal modello attuariale proposto nel 1750 da James Dodson. Nel 1913 l’Equitable Life inizia la vendita di rendite vitalizie collegate a fondi pensione, e nel 1957 propone rendite vitalizie per lavoratori autonomi. Negli anni Ottanta l’Equitable Life lancia il prodotto assicurativo GAO (Guaranteed Annuity Option). L’8 dicembre 2000 l’Equitable Life blocca la vendita di rendite vitalizie e, a breve distanza di tempo, segue il suo fallimento. Per ulteriori dettagli sulle vicende della Equitable Life, si veda, ad esempio, Institute of Actuaries (2001). I motivi del fallimento devono essere ricercati nella natura del prodotto GAO, nei conseguenti rischi a carico dell’assicuratore, nella gestione di tali rischi e, naturalmente, nell’evoluzione dello scenario demografico e finanziario verificatasi tra gli anni Ottanta ed il 2000.
2.2
Il prodotto GAO
Il prodotto assicurativo GAO può essere descritto nei seguenti termini. – Il prodotto consiste, anzitutto, in un piano di accumulazione, alimentato da successivi versamenti da parte del sottoscrittore. L’importo accumulato a scadenza può essere convertito in rendita vitalizia. – Le scelte possibili a scadenza, in relazione all’importo accumulato, sono: – riscossione in contanti; Convegno Economia e Incertezza
139
– conversione alle condizioni (tasso di interesse e tavola di mortalità) correnti al momento della conversione stessa, cioè secondo il cosiddetto CAR (Current Annuity Rate); – conversione alle condizioni stabilite all’inizio dell’accumulazione, cioè secondo il GAR (Guaranteed Annuity Rate). Evidentemente le possibili scelte a scadenza costituiscono opzioni incluse nel prodotto assicurativo-finanziario.
2.3
Scenari
Gli anni Ottanta, decennio in cui fu lanciato il prodotto GAO, erano caratterizzati da elevati tassi di interesse, e, nell’ambito delle assicurazioni vita, dalla presenza di tavole proiettate sulla base di ipotesi di modesti miglioramenti della mortalità. Una vivace competizione nel mercato britannico delle rendite vitalizie rendeva poi il prodotto GAO particolarmente appetibile al pubblico inglese, e ciò contribuì a determinare elevati volumi di vendite. Radicali mutamenti di scenario si verificarono verso la fine degli anni Novanta. In particolare: (a) sui mercati finanziari, tassi di interesse minori di quello garantito dalla clausola GAR nel prodotto GAO; (b) miglioramenti imprevisti nella mortalità; (c) costruzione ed adozione di nuove tavole proiettate, basate su ipotesi di ulteriori forti miglioramenti della mortalità futura. I mutamenti di cui ai punti (a) e (c) resero il coefficiente GAR decisamente più conveniente agli assicurati del coefficiente CAR. Ne seguì che l’opzione di conversione in rendita secondo il GAR si rivelò “in the money” e, pertanto, fu esercitata da numerosi sottoscrittori del prodotto GAO.
2.4
Rischi implicati dal prodotto GAO
Sono evidenti i rischi, a carico dell’assicuratore, implicati dal prodotto GAO, e dalla presenza del GAR in particolare, originati da un lato dal trend di mortalità e, dall’altro, dall’andamento dei tassi di interesse. Occorre rilevare che tali rischi non erano stati appropriatamente quantificati dalla Equitable Life, o, quantomeno, non erano stati adeguatamente prezzati. È ovvio che l’adozione del classico principio di equità, seppure con un caricamento implicito incluso nei premi, non può fornire adeguata protezione all’assicuratore. Del resto, l’Equitable Life non aveva fatto ricorso Convegno Economia e Incertezza
140
ad alcuno strumento per un (almeno parziale) hedging di tali rischi, né era stata predisposta un’adeguata allocazione di capitale proprio. Il default fu quindi la naturale conseguenza di uno scenario demografico e finanziario decisamente avverso alla Equitable Life.
3
Rendite vitalizie: alle origini del “valore attuariale”
Come accennato nell’Introduzione, le formule per il calcolo del valore attuale atteso di una rendita vitalizia, proposte nella seconda metà del Seicento e tuttora impiegate, costituiscono una delle prime pietre miliari della matematica attuariale. Prenderemo spunto da queste, per sottolineare i limiti che il classico approccio attuariale rivela in scenari profondamente innovati.
3.1
Il valore attuale atteso di una rendita vitalizia
Si consideri una rendita vitalizia immediata, posticipata, con rata annua unitaria. Il valore attuariale di tale rendita, ax secondo la tradizionale notazione attuariale, può essere espresso mediante la formula proposta nel 1693 da Edmond Halley: ω−x X −t ax = (1) t px (1 + i) t=1
dove (1+i)−1 è il fattore annuo di attualizzazione, ω denota l’età estrema, t px è la probabilità che l’assicurato, di età x all’inizio del periodo di pagamento della rendita, sia in vita all’età x + h. Le probabilità t px sono “stimate” dai rapporti lx+t lx , cioè dagli elementi che usualmente costituiscono la tavola di sopravvivenza. In alternativa, si può ricorrere alla formula proposta nel 1671 da Jan de Witt: ω−x X ax = ahe h px qx+h (2) h=1
in cui ahe è il valore attuale di una rendita posticipata certa di durata h, qx+h è la probabilità di decesso entro un anno per una persona di età x + h, e quindi h px qx+h è la probabilità di decesso tra le età x + h e x + h + 1 per una persona di età x. Le due formule portano, ovviamente, allo stesso risultato come è agevole provare tramite alcune semplici manipolazioni. Convegno Economia e Incertezza
141
3.2
Alcune osservazioni
Dal confronto tra la (1) e la (2) appare quanto segue: – la formula di Halley è più snella da punto di vista computazionale (e ciò, in passato, costituiva un apprezzabile vantaggio); – la formula di de Witt è basata su una partizione dell’evento certo e sulla relativa distribuzione di probabilità, e dunque è “aperta” ad ulteriori sviluppi, quali il calcolo del momento secondo e della varianza della valore attuale aleatorio della rendita vitalizia. Osserviamo inoltre che il modello attuariale sottostante le due formule è, in particolare: (a) deterministico (b) discreto rispetto al tempo (c) ad una causa d’uscita (d) (implicitamente) statico Ci soffermiamo brevemente sugli aspetti (a) e (d). Il modello è deterministico in quanto, pur basato sull’uso di probabilità (o di quantità interpretabili come probabilità, cioè i rapporti lx+t lx ), impiega le probabilità stesse solo al fine di calcolare valori attesi, mancando qualsiasi quantificazione di rischio. La presenza di rischi può pertanto essere considerata esclusivamente in termini di un caricamento implicito di sicurezza, attuato calcolando il valore attuariale con una base “prudenziale”. La giustificazione di un approccio deterministico al calcolo di valori attuariali risiede nel fatto che la rischiosità, originata dagli scarti accidentali della mortalità, diminuisce in termini relativi (ad esempio in termini di scarto quadratico medio del pagamento aleatorio di portafoglio rapportato al valore atteso) al crescere della dimensione n del portafoglio. Tale risultato, eviden√ ziato da Johannes Tetens nel 1786 in termini del ruolo di n, costituisce una pietra angolare della teoria individuale del rischio. Vanno, d’altra parte, tenuti presenti i possibili scarti sistematici della mortalità rispetto ai valori attesi dei numeri di decessi. Il rischio di scarti sistematici è, in termini relativi, indipendente dalla dimensione n del portafoglio, ed il suo impatto finanziario totale è crescente con n. Si tratta pertanto di un rischio non diversificabile tramite un aumento della dimensione di portafoglio. Convegno Economia e Incertezza
142
In relazione al punto (d), occorre osservare che, tradizionalmente, i modelli attuariali erano (e, in parte, sono tuttora) basati sull’impiego di probabilità di sopravvivenza tratte da osservazioni “di periodo”. Com’è noto, la costruzione di una tavola di mortalità di periodo è retta dall’ipotesi di mortalità “statica”. Tale ipotesi è in palese contrasto con la dinamica della mortalità (si veda in proposito il par. 4.1). In conclusione, è ovvia l’incompatibilità – di un modello statico con l’evidente dinamica della mortalità; – di un modello deterministico con l’incertezza sulla dinamica futura della mortalità.
4
Nuovi scenari ed evoluzione dei modelli
Le evidenti variazioni negli scenari demografici hanno imposto la definizione e l’uso di modelli attuariali basati su ipotesi meno restrittive di quelle adottate nei modelli classici. Si è quindi manifestato un progressivo spostamento da modelli statici a modelli dinamici, e da modelli deterministici a modelli stocastici.
4.1
Da modelli statici a modelli dinamici
Da diversi decenni l’evoluzione della mortalità si manifesta, in particolare, con: – la diminuzione delle probabilità annue di decesso su ampi intervalli di età; – l’aumento della vita attesa (sia alla nascita, sia ad età elevate); – l’aumento della durata modale di vita (punto di Lexis). Per un’ampia e dettagliata presentazione dei vari aspetti dei trend di mortalità, il lettore può consultare, ad esempio, Tabeau et al. (2001). È evidente che dette componenti del trend di mortalità hanno effetto sui valori attuariali di vari prodotti assicurativi. In relazione alle rendite vitalizie, in particolare, l’uso di tavole di periodo comporta una sottovalutazione del costo di una rendita vitalizia. Si impone pertanto la costruzione e l’impiego, soprattutto nella valutazione attuariale delle rendite vitalizie, di tavole proiettate nelle quali le probabilità di sopravvivenza sono determinate proiettando il trend di mortalità osservato in un periodo passato. La complessità del problema di Convegno Economia e Incertezza
143
proiezione della mortalità esclude la possibilità di presentarne in questa sede anche i soli tratti essenziali. Il lettore interessato può trovare un’esauriente presentazione di tali problematiche ad esempio in Pitacco et al. (2009). Qui ci limiteremo a ricordare che la consapevolezza dell’esistenza di trend di miglioramento della mortalità può essere fatta risalire almeno alla seconda metà dell’Ottocento. Nel 1876, infatti, H. Gyldén propose una estrapolazione lineare del tasso centrale di mortalità della popolazione svedese. Successivamente, l’argomento è stato oggetto di attenzione da parte di demografi ed attuari. Si veda, ad esempio, Pitacco (2004b). Tra i più significativi contributi recenti, si ricorda il metodo di Lee-Carter, sviluppato tra il 1992 ed il 2000, mirato a produrre stime puntuali ed intervallari di varie funzioni biometriche, quali ad esempio le probabilità annue di decesso e la speranza matematica della durata di vita.
4.2
Da modelli deterministici a modelli stocastici
La transizione, almeno a livello teorico, da modelli attuariali prettamente deterministici a modelli atti a quantificare la rischiosità di un portafoglio assicurativo vita è graduale ed estesa su un ampio intervallo di tempo. Tra i primi contributi, va menzionato quello, già ricordato, di J. Tetens che, nel 1786, gettò le basi della teoria individuale del rischio. Carl Bremiker, nel 1859, analizzò la distribuzione di probabilità del risultato aleatorio di portafoglio e propose, come misura di rischio per un prodotto assicurativo, la varianza del risultato aleatorio per contratto. Nel 1869, Karl Hattendorff provò la non correlazione tra i risultati annuali di un contratto, derivando quindi formule per la varianza del risultato aleatorio complessivo per contratto. Occorre comunque segnalare che tali contributi (e diversi altri successivi) sono limitati alla componente di rischio data dalla volatilità, cioè dagli scarti accidentali, essendo per contro trascurata la componente costituita dagli scarti sistematici. Tali contributi non ebbero rilevanti applicazioni pratiche, verosimilmente a causa di uno scarso interesse per la quantificazione della volatilità, grazie alla possibilità di diversificazione di tale rischio nell’ambito del processo assicurativo-riassicurativo. In tempi recenti (in particolare negli ultimi due-tre decenni), una marcata (ma irregolare) evoluzione della mortalità ha contribuito a diffondere la consapevolezza del longevity risk, rischio originato dalla incertezza sul futuro trend di mortalità e quindi fonte di possibili scarti sistematici, e del suo possibile impatto sui risultati relativi a portafogli di rendite vitalizie ed a fondi pensione. Convegno Economia e Incertezza
144
In tempi ancor più recenti la necessità di una rigorosa valutazione della solvibilità ha stimolato lo sviluppo di nuovi modelli per la quantificazione del profilo di rischio di una gestione assicurativa, basata su una dettagliata identificazione delle varie cause di rischio. Tra queste, nelle assicurazioni vita, è ovviamente presente l’evoluzione aleatoria della mortalità. In questi anni, stimolato anche dal progetto Solvency II, si sviluppa l’approccio RM ai problemi della tecnica assicurativa. Solvency II attribuisce infatti particolare importanza ai processi di RM, intesi come processi coinvolgenti tutte le fasi dell’attività assicurativa, dal disegno dei prodotti assicurativi, al relativo pricing, dal trasferimento di rischi mediante riassicurazione alla allocazione di capitale proprio.
5
RM: un nuovo approccio alla tecnica assicurativa
In questo capitolo, dopo la presentazione di alcune idee generali sul processo di RM e la sua implementazione in ambito assicurativo (par. 5.1, 5.2 e 5.3), illustreremo una possibile applicazione alla gestione tecnica di un portafoglio di rendite vitalizie (par. 5.4).
5.1
Alcune idee preliminari
Il RM in ambito assicurativo non va inteso come un “nuovo modello” attuariale in sostituzione di quelli più o meno tradizionali e comunque di uso consolidato. Piuttosto, il RM costituisce un insieme di “linee guida” per una reinterpretazione, formale ed operativa, del processo assicurativo - riassicurativo. In particolare, tali linee guida dovrebbero stimolare una maggiore consapevolezza nell’uso di strumenti attuariali tradizionali (prevalentemente deterministici) da un lato e, dall’altro, evidenziare la necessità di implementare strumenti attuariali stocastici, sia tradizionali sia innovativi. Il processo di RM si articola nelle seguenti fasi (si veda la fig. 1): – identificazione dei rischi; – quantificazione dei rischi; – analisi delle azioni disponibili; – scelta delle azioni; – monitoraggio. Il processo di RM dev’essere tuttavia inteso come processo ciclico (si veda ancora la fig. 1). La fase di monitoraggio, tesa a valutare le conseguenze delle Convegno Economia e Incertezza
145
azioni intraprese nonché ad accertare l’eventuale evoluzione degli scenari rispetto alle ipotesi adottate in fase di identificazione e quantificazione dei rischi, costituisce infatti la premessa per una nuova fase di identificazione dei rischi, successiva quantificazione, ecc.
Risk identification
Risk assessment
Analysis of actions
Monitoring
Choice of actions
Figura 1: Il processo di RM La fig. 2 esemplifica l’applicazione delle vari fasi di RM ad una gestione assicurativa vita. I par. 5.2 e 5.3 forniscono ulteriori dettagli sulle fasi di identificazione e quantificazione dei rischi. Azioni di RM relative ad una gestione di rendite vitalizie sono descritte in dettaglio nel par. 5.4.
5.2
Identificazione dei rischi
La fase di identificazione dei rischi si propone di individuare le potenziali esposizioni a perdite. Con riferimento ad un portafoglio assicurativo vita, si tratterà di individuare: – le “cause” di rischio, convenientemente raggruppate (ad esempio: underwriting risk, market risk, ecc,) e, nell’ambito di ciascun gruppo, specifiche cause (ad esempio: nell’ambito dell’underwriting risk, i rischi collegati alle prestazioni assicurative in caso di decesso, sopravvivenza, insorgere di invalidità, ecc.); – per ogni causa di rischio, le relative “componenti” (scarti accidentali o “volatilità”, scarti sistematici dovuti all’incertezza nella rappresentazione, tramite modelli e relativi parametri, del livello e/o trend di un fenomeno). La fase di identificazione dei rischi può essere agevolata dal riferimento alle linee guida fornite da varie istituzioni ed associazioni; si vedano in proposito IAA (2004) e, in relazione a Solvency II, CEIOPS (2007). Convegno Economia e Incertezza
146
IDENTIFICATION
UNDERWRITING RISK Mortality risk - Volatility - Level uncertainty - Trend uncertainty - Catastrophe
Lapse risk ... MARKET RISK ...
ASSESSMENT
DETERMINISTIC MODELS Sensitivity testing Scenario testing STOCHASTIC MODELS Risk index, VaR, Probability of default ...
RISK MANAGEMENT TECHNIQUES LOSS CONTROL Loss prevention (frequency control)
Loss reduction (severity control)
RISK MITIGATION
LOSS FINANCING Hedging Transfer Retention
PORTFOLIO STRATEGIES
PRODUCT DESIGN Pricing (life table, guarantees, options, expense loading, etc) Participation mechanism PORTFOLIO PROTECTION Natural hedging Reinsurance, ART No advance funding Capital allocation
Figura 2: Le fasi del processo di RM
Convegno Economia e Incertezza
147
5.3
Quantificazione dei rischi
La fase di quantificazione dei rischi richiede: (a) la scelta di variabili aleatorie atte a rappresentare i fenomeni che costituiscono cause di rischio (nelle assicurazioni vita, ad esempio, la mortalità tra gli assicurati, il rendimento degli investimenti a fronte delle riserve matematiche, ecc.), e la assegnazione a queste di una adeguata struttura probabilistica; (b) la scelta di quantità atte a rappresentare l’impatto finanziario ed economico dei rischi (flussi di cassa, profitti, capitale netto, ecc.). Mentre il “passo” (b) non presenta particolari difficoltà (se non quelle legate alla rappresentatività dei risultati in funzione degli obiettivi di analisi prescelti), il passo (a) costituisce un punto cruciale nell’analisi del profilo di rischio. Diversi approcci possono essere adottati nell’analisi del fenomeno aleatorio di interesse. Ne presentiamo una possibile schematizzazione. Si indichi con Y un risultato ritenuto significativo (ad esempio un flusso di cassa annuale). Si assuma che Y dipenda da alcune variabili aleatorie, indicate con X1 , X2 , X3 , ad esempio numero di decessi, tasso di rendimento, ecc. Formalmente: Y = Φ(X1 , X2 , X3 ) (3) Le fig. 3 e 4 schematizzano vari approcci all’analisi del risultato aleatorio Y . L’approccio 1 è puramente deterministico. Tramite l’assegnazione di un valore specifico a ciascuna delle tre variabili aleatorie in input, il calcolo della determinazione y del risultato in output è eseguito ovviamente secondo la y = Φ(x1 , x2 , x3 ). Osserviamo che il classico calcolo attuariale segue questo approccio, sostituendo variabili aleatorie con i relativi valori attesi o, comunque, con valori stimati. Secondo una più moderna prospettiva, l’approccio 1 è altresì adottato in sede di scenario testing, o di stress testing quando si concentra l’interesse sugli effetti di valori “estremi” di alcune variabili in input. L’aleatorietà delle variabili in input è considerata, seppure in modo molto grezzo, nell’implementazione iterativa dell’approccio 1, secondo la quale vengono stabiliti ragionevoli insiemi di valori per le variabili in input e, conseguentemente, calcolato il corrispondente insieme di determinazioni per il risultato Y . L’approccio 2 fornisce un esempio di modello stocastico, tipicamente adottato per la quantificazione del rischio di scarti accidentali. Una struttura probabilistica è assegnata in termini di distribuzione di probabilità congiunta delle variabili in input, o tramite le distribuzioni marginali ed appropriate Convegno Economia e Incertezza
148
INPUT
OUTPUT
IMPLEMENTATIONS
EXAMPLES - traditional actuarial
X1 1
a - single
X2 X3
Y b - iterative
2
f X1
a - analytical
f X2
b - analytical approx
f
f
X3
c - numerical
approach e.g. Embedded Value - stress testing e.g. Solvency 2 - scenario testing - sensitivity testing
assessment of process risk, for - pricing - reserving - capital allocation - reinsurance
Y
d - simulation + CORRELATIONS
Figura 3: Approcci alla quantificazione dei rischi (1)
ipotesi di correlazione e/o indipendenza (fig. 3). La distribuzione di probabilità di Y può essere determinata con metodo analitico solo in casi molto elementari (solitamente costruiti mediante varie ipotesi semplificative). Casi più realistici richiedono metodi numerici o di simulazione stocastica. La quantificazione dell’impatto di scarti sistematici può essere di importanza cruciale, anche nell’ambito delle assicurazioni vita. L’approccio 3 consiste nella semplice applicazione iterata dell’approccio 2, ciascuna iterazione corrispondendo ad una specifica ipotesi circa la distribuzione di probabilità di una o più variabili aleatorie in input (la variabile X1 nella fig. 4), espressa ad esempio mediante una scelta dei valori di alcuni parametri della distribuzione stessa. Il risultato consiste in un insieme di distribuzioni di probabilità subordinate (alle varie ipotesi) della variabile aleatoria Y . L’approccio 4, infine, mira ad ottenere la distribuzione di probabilità non condizionata della variabile Y . A tal fine è richiesta una struttura probabilistica più complessa, comprendente ad esempio una distribuzione di probabilità sull’insieme di ipotesi (solitamente corrispondenti a diversi scenari); si veda Olivieri (2001). L’applicazione di tale approccio a casi di interesse pratico richiede, ovviamente, l’impiego di procedure di simulazione stocastica. In relazione alle assicurazioni vita ed alle rendite vitalizie in particolare, si vedano ad esempio Olivieri e Pitacco (2003, 2008a, 2009a). Convegno Economia e Incertezza
149
INPUT
fX1 | Ai
OUTPUT
A1 A2 A3
IMPLEMENTATIONS
a - analytical b - analytical approx
3
EXAMPLES
fX2 c - numerical fY| A
fX3
assessment of process risk and scenario testing for uncertainty risk
i
d - simulation
+ CORRELATIONS fX1 | Ai
+
4 fX2
simulation
f X3
assessment of process risk and uncertainty risk
fY
+ CORRELATIONS
Figura 4: Approcci alla quantificazione dei rischi (2)
5.4
Azioni di RM. Applicazione a un portafogli di rendite vitalizie
Al fine di semplificare l’esposizione, illustreremo un insieme di azioni di RM riferendoci ad un portafoglio di rendite vitalizie immediate, e pertanto a premio unico, costituito da un’unica generazione di contratti. Ci riferiremo al solo rischio di longevità (dunque escludendo, in particolare, rischi di tipo finanziario), e supporremo che, come risultato per la quantificazione dell’impatto di tale rischio, sia scelta la sequenza dei flussi annui di cassa. Escluderemo inoltre la considerazione di spese, riferendoci dunque al solo pagamento dei benefici assicurati. La fig. 5 illustra una sequenza di flussi di cassa effettivi, assieme ai relativi valori attesi e ad una soglia (threshold) che, in ciascun anno, rappresenta un ammontare di pagamento “sostenibile” dal portafoglio di rendite. La situazione descritta in fig. 5, in cui i flussi di cassa in alcuni anni superano la soglia di accettabilità, deve ovviamente essere evitata. Per diminuire la probabilità di una tale situazione critica, il gestore del portafoglio di rendite ha varie azioni (o “strategie di portafoglio”) a disposizione. La fig. 6 illustra un insieme di strategie di portafoglio volte alla risk mitiConvegno Economia e Incertezza
150
expected values
threshold
annual cash flows
actual cash flows
time
Figura 5: Cash flows in un portafoglio (una generazione)
gation, intesa come contenimento (in termini probabilistici) del numero e dell’ammontare di superamenti del livello di soglia. Le strategie di portafoglio possono avere come obiettivo: (a) un incremento dell’ammontare accettabile del flusso di cassa annuo, cioè un aumento del livello di soglia; (b) un abbassamento (ed un “livellamento”) dei flussi di cassa nel caso questi dovessero invece aumentare a causa di diminuzioni della mortalità. Gli obiettivi (a) e (b) possono essere raggiunti sia mediante azioni di loss control che azioni di loss financing, secondo la terminologia RM (si veda la fig. 2). Le azioni di loss control sono solitamente realizzate mediante il “disegno” del prodotto assicurativo. In particolare, la loss prevention mira a ridurre la frequenza attesa di perdite, mentre la loss reduction è volta a diminuirne l’ammontare atteso. Il calcolo del premio di un prodotto assicurativo fornisce uno strumento di loss prevention. Questa strategia di portafoglio è rappresentata dal percorso (1) → (a) in fig. 6. Con riferimento alle rendite vitalizie, sono di particolare rilievo i seguenti aspetti. – I progressivi miglioramenti del livello di mortalità richiedono l’uso di tavole proiettate nel calcolo del premio (e della riserva matematica) di rendite vitalizie. Convegno Economia e Incertezza
151
(1) Single premiums
Reserve
(a) THRESHOLD (2) Allocation (3) Undistributed
Shareholders' capital
profits
(4) Profit partic. (5) [Reduction]
Annual benefits
GROSS OUTFLOW
(b) NET OUTFLOW
(6) Reinsurance (7) Swaps
TRANSFERS
(8) Longevity bonds
Figura 6: Azioni di RM
– L’incertezza circa il futuro trend di mortalità richiede, a rigore, l’adozione di principi di calcolo del premio diversi dal tradizionale principio di equità. Si noti che tale principio consente esclusivamente l’adozione di (grossolani) caricamenti impliciti di sicurezza attuati mediante aumento delle probabilità di sopravvivenza. – La presenza, in un prodotto finanziario o assicurativo (come l’assicurazione mista) di un’opzione di conversione in rendita (quale la GAO, cfr. il par. 2.2) richiede un appropriato modello di calcolo atto a valutare l’opzione stessa. Le strategie di loss reduction richiedono interventi sull’ammontare dei benefici pagati. È pertanto necessaria l’introduzione di flessibilità nel prodotto di rendita vitalizia. Un’azione (possibile, almeno in linea di principio) è data dalla riduzione della rata annua a fronte di un inatteso miglioramento della mortalità (percorso (5) → (b) in fig. 6). Si noti, peraltro, che in tal caso il prodotto risultante sarebbe una rendita non garantita (nonostante la possibile presenza di un ragionevole ammontare minimo garantito). Uno strumento di più verosimile attuazione, compatibile con le caratteristiche di una rendita garantita, è dato dalla riduzione del livello di partecipazione agli (eventuali) utili finanziari in presenza di un inatteso miglioramento della mortalità (percorso (4) → (b)). Si noti, anche, che una riduzione della parteConvegno Economia e Incertezza
152
cipazione agli utili incrementa il capitale proprio assegnato al portafoglio, elevando pertanto la soglia di accettabilità (percorso (3) → (a)). Le strategie di loss financing richiedono specifiche azioni riguardanti l’intero portafoglio e, talvolta, anche altri portafogli della stessa impresa assicuratrice. Il trasferimento di rischi può essere realizzato mediante tradizionali trattati riassicurativi (percorso (6) → (b)), riassicurazioni di tipo swap (percorso (7) → (b)) e securitization, cioè Alternative Risk Transfers (ART). In relazione a portafogli di rendite vitalizie, gli ART richiedono l’uso di specifici strumenti, i longevity bonds (percorso (8) → (b)), il cui rendimento è indicizzato a una appropriata misura di longevità in una data popolazione. L’interesse della cessione in riassicurazione risiede, dal punto di vista del riassicuratore, soprattutto nella possibilità di diversificare il rischio di scarti accidentali grazie ad una maggiore dimensione di portafoglio. Tale possibilità non sussiste, peraltro, in relazione agli scarti sistematici. Per tale componente di rischio (e quindi, in particolare, per il longevity risk) l’operatività del trasferimento riassicurativo è dovuta alla possibilità, per il riassicuratore, di attuare un ulteriore trasferimento, precisamente al mercato finanziario tramite l’uso di longevity bonds. Su tali aspetti si vedano, in particolare, Olivieri (2005) e Pitacco et al. (2009). Nella misura in cui i rischi di mortalità/longevità sono trattenuti dall’impresa assicuratrice, un’adeguata presenza di capitale proprio (percorsi (2) → (a) e (3) → (a) in fig. 6) può fronteggiare situazioni avverse all’impresa stessa, quali, nel caso delle rendite vitalizie, inattesi miglioramenti della mortalità. Sulla quantificazione dei requisiti di capitale proprio si vedano, ad esempio Olivieri e Pitacco (2009a, 2009b). I rischi di mortalità / longevità devono essere gestiti tramite appropriati mix delle azioni sopra descritte. Ovviamente, nella valutazione di tali mix occorre considerare diverse componenti di costo, quali il costo della riassicurazione, il costo-opportunità del capitale proprio (si veda, ad esempio, Olivieri e Pitacco (2008b)), ecc.
6
Conclusioni
È naturale chiedersi le ragioni a causa delle quali l’approccio RM è entrato solo in tempi molto recenti nell’attività (e nella tecnica) assicurativa, nonostante questa attività sia naturalmente basata sulla gestione di rischi. Una risposta possibile (e ragionevole) può essere trovata nella solidità dei tradizionali modelli di tecnica attuariale, scientificamente rigorosi ma non più sufficienti a fronte dell’evoluzione degli scenari e delle conseguenti necessità di calcolo e di documentazione. Convegno Economia e Incertezza
153
Attualmente l’approccio RM, tipicamente interdisciplinare (si veda, ad esempio Tapiero (2004)), può significare per le discipline attuariali e, in particolare, per la matematica e tecnica attuariale delle assicurazioni vita: – la necessità di aprire, consapevolmente, a contributi scientifici provenienti da altre discipline (soprattutto di area economico-aziendale); – un significativo ruolo nel conseguente processo di fusione di contributi tecnici e scientifici; – l’opportunità di ideare nuovi modelli e tecniche di calcolo. Non va trascurato, infine, l’importante ruolo che la “prospettiva” RM può svolgere nel suggerire impostazioni didattiche mirate a superare i tradizionali confini delle singole discipline, consolidati nella prassi di insegnamento ma non più rispondenti alla realtà aziendale.
Riferimenti bibliografici [1] CEIOPS (2007) QIS3 Technical Specifications. //www.ceiops.eu/media/files/consultations/QIS/QIS3/ QIS3TechnicalSpecificationsPart1.PDF
http:
[2] Haberman S. (1996) Landmarks in the history of actuarial science (up to 1919), Actuarial Research Paper No. 84, Dept. of Actuarial Science and Statistics, City University, London. http://www.cass.city.ac. uk/arc/reports/84ARC.pdf [3] Haberman S. e Sibbett T.A. (Ed.) (1995) History of actuarial science, Pickering & Chatto, London [4] Hald A. (1987) On the early history of life insurance mathematics, Scandinavian Actuarial Journal, 1: 4–18 [5] IAA (2004) A global framework for insurer solvency assessment, Insurer Solvency Assessment Working Party, International Actuarial Association. http://www.actuaries.org/LIBRARY/Papers/Global_ Framework_Insurer_Solvency_Assessment-members.pdf [6] Institute of Actuaries (2001) Report of the Corley Committee of Inquiry regarding The Equitable Life Assurance Society, London. http://www.actuaries.org.uk/__data/assets/pdf_file/ 0006/27456/corley_report.pdf Convegno Economia e Incertezza
154
[7] Olivieri A. (2001) Uncertainty in mortality projections: an actuarial perspective, Insurance: Mathematics & Economics, 29(2): 231–245 [8] Olivieri A. (2005) Designing longevity risk transfers: the point of view of the cedant, Giornale dell’Istituto Italiano degli Attuari, 68(1-2): 1–35 (Reprinted on: ICFAI Journal of Financial Risk Management, March 2007) [9] Olivieri A. e Pitacco E. (2003) Solvency requirements for pension annuities, Journal of Pension Economics & Finance, 2(2): 127–157 [10] Olivieri A. e Pitacco E. (2008a) Solvency requirements for life annuities: some comparisons, Giornale dell’Istituto Italiano degli Attuari, 71(1-2): 59–82 [11] Olivieri A. e Pitacco E. (2008b) Assessing the cost of capital for longevity risk, Insurance: Mathematics & Economics, 42(3): 1013–1021 [12] Olivieri A. e Pitacco E. (2009a) Stochastic mortality: the impact on target capital, ASTIN Bulletin, 39(2): 541–563 [13] Olivieri A. e Pitacco E. (2009b) Solvency requirements for life annuities allowing for mortality risks: internal models versus standard formulas, in: M. Cruz (Ed.), The Solvency II Handbook. Developing ERM frameworks in insurance and reinsurance companies, Risk Books: 371-397 [14] Pitacco E. (2004a) From Halley to “frailty”: a review of survival models for actuarial calculations, Giornale dell’Istituto Italiano degli Attuari, 67(1-2): 17–47 [15] Pitacco E. (2004b) Survival models in a dynamic context: a survey, Insurance: Mathematics & Economics, 35(2): 279–298 [16] Pitacco E., Denuit M., Haberman S. e Olivieri A. (2009) Modelling longevity dynamics for pensions and annuity business, Oxford University Press [17] Tabeau E., van den Berg Jeths A. e Heathcote C. (2001) Forecasting mortality in developed countries, Kluwer Academic Publishers [18] Tapiero C. S. (2004) Risk Management: An interdisciplinary framework, in: Teugels J. L. e Sundt B. (Ed.), Encyclopedia of Actuarial Science, John Wiley & Sons, vol. 3: 1483–1493
Convegno Economia e Incertezza
155
PROCESSI STOCASTICI DI LEVY O DI DE FINETTI – LEVY ? Attilio Wedlin – Università di Trieste 1. Dopo aver ottenuto a ventun’anni la laurea in Matematica applicata all’Università di Milano nel 1927, Bruno de Finetti ebbe una prima occasione per presentare le sue idee sulla probabilità al Congresso Internazionale dei Matematici di Bologna nel 1928; in quell’occasione parlò dei processi stocastici scambiabili a parametro discreto e della loro applicazione a problemi di inferenza statistica. Come venne riconosciuto in seguito, si trattava di un contributo scientifico molto importante che però non venne colto appieno dagli studiosi presenti al Congresso. Negli anni immediatamente successivi, dal 1929 al 1931, egli concentrò la sua attenzione sui processi stocastici a parametro continuo “con incrementi omogenei e indipendenti” e sulle relative distribuzioni di probabilità che sono “infinitamente divisibili”. Egli dedicò a questo argomento sei pubblicazioni, dalla [2] alla [7] in Bibliografia. Scopo principale di questa relazione è una breve rivisitazione dei suoi contributi su quest’ultimo tema che nella letteratura scientifica corrente viene indicato generalmente con la denominazione di “processi di P. Lèvy” dal nome del grande probabilista francese che, accanto a B. de Finetti, A.N. Kolmogorov, A.Y. Khintchine e K. Ito, diede contributi fondamentali su questi processi stocastici. E’ il caso di chiarire subito che non esiste un qualche problema di priorità scientifica: infatti i probabilisti che si occuparono dell’argomento negli anni Trenta, e cioè P. Lévy, A.N. Kolmogorov e A.Y. Khintchine, riconobbero chiaramente nei loro lavori la priorità di de Finetti nella posizione dei problemi connessi con quei processi e quelle distribuzioni e nella parziale risoluzione degli stessi. Bisogna anche dire che de Finetti non continuò negli anni successivi ad approfondire gli studi iniziali sul tema: forse perché riteneva che con il decisivo contributo di Lévy nel suo lavoro [12] del 1934 dal titolo “Sur les intégrales dont les éléments sont des variables aléatoires indépendantes” i principali problemi fossero già risolti o forse perché negli stessi anni egli era principalmente impegnato a dare una forma organica alle sue idee sulla probabilità soggettiva. Convegno Economia e Incertezza
157
Ricordiamo che nel maggio del 1935 B. de Finetti presentò all’Istituto H. Poincarè di Parigi, su invito del matematico e probabilista M. Fréchet che era direttore di quell’Istituto, la sua impostazione soggettiva della teoria delle probabilità. I contenuti delle cinque sessioni del Seminario di de Finetti furono pubblicati negli Atti dell’Istituto con il titolo “La prévision: ses lois logiques, ses sources subjectives” nel 1937. In questa relazione ci proponiamo di ricordare gli aspetti essenziali dei principali contributi di de Finetti, Kolmogorov, Lévy, Khintchine e Ito sui processi stocastici con incrementi omogenei e indipendenti. Una buona introduzione in lingua italiana ai contributi di de Finetti si trova nelle seguenti pubblicazioni: “Processi stocastici: teoria e applicazioni” di L. Daboni, L. Sigalotti e M. Zecchin in Atti del Convegno “Ricordo di Bruno de Finetti, professore nell’Ateneo triestino” (Trieste, maggio 1986); “Teoria e calcolo delle probabilità” di E. Regazzini in “La matematica italiana dopo l’unità – Gli anni tra le due guerre mondiali” (1998).
2. Incominciamo il nostro percorso ricordando che nel testo “Calcul des Probabilités” del 1925 (Gauthier – Villars, Paris) P. Lévy aveva introdotto la nozione di “distribuzioni stabili”; esse, com’è noto, costituiscono un sottoinsieme proprio delle distribuzioni infinitamente divisibili che de Finetti introdurrà nel lavoro [2], “Sulle funzioni ad incremento aleatorio” del 1929, ricollegandole strettamente ai processi stocastici ad incrementi omogenei e indipendenti. Ricordiamo che una distribuzione di probabilità, di cui indichiamo con F(x) la funzione di ripartizione, è detta “stabile” se, essendo X i , i ≥ 1, numeri aleatori indipendenti con la medesima distribuzione F(x), accade che per ogni intero positivo n ≥ 2 risulti n
∑X
d
i
= n1/ α . X 1 + β n ,
i =1
ove β n è un numero reale dipendente dall’intero n e α ∈ (0, 2] . L’interesse principale di Lévy per le distribuzioni stabili riguardava la caratterizzazione delle distribuzioni dotate di un “dominio di Convegno Economia e Incertezza
158
attrazione” analogamente alla distribuzione Gaussiana (che è una particolare distribuzione stabile per la quale α = 2 ) e non il loro collegamento con i processi ad incrementi indipendenti e omogenei. Nella Nota del 1929 sopra ricordata de Finetti introdusse la nozione di processo a parametro continuo con incrementi omogenei e indipendenti { X (t ); t ≥ 0} sotto la denominazione “funzione X (t ) ad incremento aleatorio, soggetta a legge fissa”: con ciò egli intendeva che, suddiviso l’intervallo [0, 1] in n subintervalli di ampiezza 1/n , gli h +1 h incrementi X ( ) − X ( ) , h = 0, 1,….. ……, n-1, sono numeri n n aleatori indipendenti e ugualmente distribuiti (in seguito i.i.d.); la nozione si estendeva ovviamente ad un qualunque intervallo del semiasse reale positivo suddiviso in subintervalli di uguale ampiezza e non sovrapposti. Indicata con F1/ n ( x) la comune distribuzione degli h +1 h incrementi X ( ) − X ( ) e con Φ1/ n (u ) la corrispondente funzione n n caratteristica, dalle ipotesi precedenti si ricavano facilmente le relazioni
P { X (1) ≤ x} = F1 ( x) = [ F1/ n ( x)]n* , ove [ F1/ n ( x)]n* indica la convoluzione n-ma di F1/ n ( x) , e E[eiuX (1) ] = Φ1 (u ) = [Φ1/ n (u )]n .
Estese al caso generale di un qualunque intervallo contenuto in [0, ∞) , tali relazioni caratterizzano le distribuzioni infinitamente divisibili la cui definizione è la seguente: un numero aleatorio X e la sua distribuzione di probabilità sono detti infinitamente divisibili se, per ogni intero positivo n esistono numeri aleatori i.i.d. X ni , 1 ≤ i ≤ n, d
tali che risulti X =
n
∑X
ni
.
i =1
Convegno Economia e Incertezza
159
Si prova che, dato un processo a parametro continuo con incrementi omogenei e indipendenti { X (t ); t ≥ 0} , la distribuzione di ogni X (t ) è infinitamente divisibile; viceversa, considerata una distribuzione infinitamente divisibile, con funzione caratteristica Φ(u ) , ad essa corrisponde un processo a parametro continuo con incrementi omogenei e indipendenti
{ X (t ); t ≥ 0}
per il quale è
E[eiuX (t ) ] = Φ t (u ) = [Φ (u )]t . A rigore, per la dimostrazione di tale relazione è necessario richiedere che il processo X(t) sia “stocasticamente continuo”, cioè che sussista per ogni t ≥ 0 ed ε ≥ 0 la condizione lim P { X ( s ) − X (t ) > ε } = 0 . s →t
In effetti la moderna definizione di processo di Lévy richiede, oltre all’indipendenza e uguale distribuzione degli incrementi su intervalli disgiunti della stessa ampiezza, anche le condizioni di continuità stocastica per ogni t > 0 e di normalizzazione X (0) = 0 . Si dimostra che allora ogni traiettoria di X (t ) è continua a destra per ogni t e dotata di limite sinistro X (t − ) : per indicare sinteticamente tali proprietà si usa il termine “càdlàg” di derivazione francese. In questo primo lavoro sull’argomento de Finetti introdusse la nozione di “legge derivata” della distribuzione infinitamente divisibile con funzione caratteristica Φ(u ) definendola attraverso il passaggio al n
limite lim [ Φ1/ n (u )] , per n → ∞ ; nei lavori successivi egli riconobbe però l’inadeguatezza di tale strumento per un’analisi approfondita di ulteriori questioni in proposito. Decidiamo quindi di non parlarne in questa breve esposizione. Nel lavoro citato e nella nota [5] “Le funzioni caratteristiche di legge istantanea” del 1930 de Finetti si sofferma sulle distribuzioni infinitamente divisibili dotate entrambe di momenti secondi finiti con funzioni caratteristiche σ 2 2 Φ1 (u ) = exp iuγ − u , γ ∈ R, σ 2 ≥ 0, e 2 Φ 2 (u ) = exp {λ.[ χ (u ) − 1]} , λ > 0, χ (u ) ≈ E ( eiuY ) . Convegno Economia e Incertezza
160
corrispondenti al processo di Wiener – Lévy (o di moto browniano) e, rispettivamente, al processo di Poisson composto : sono entrambi processi di Lévy. Vedremo in seguito che la somma σ2 2 Φ(u ) = Φ1 (u ) + Φ 2 (u ) = exp iuγ − u + λ.[ χ (u ) − 1] 2 (1) σ2 2 u + ∫ ( eiux − 1) λ F (dx) = exp iuγ − 2 R è ancora la funzione caratteristica di una distribuzione infinitamente divisibile corrispondente nel senso suddetto ad un processo di Lévy che risulta abbastanza generale. Nell’ultimo membro dell’espressione (1), F ( x) è la funzione di ripartizione corrispondente alla funzione caratteristica χ (u ) . Nella nota già citata del 1930 de Finetti si pose il problema di caratterizzare la classe delle distribuzioni infinitamente divisibili e dimostrò per grandi linee il seguente notevole risultato: “Le distribuzioni infinitamente divisibili sono tutte e sole quelle aventi funzione caratteristica Φ(u ) = exp {λ .[ χ (u ) − 1]} ed inoltre quelle ottenute come limiti di opportune successioni di funzioni caratteristiche del tipo precedente.” In breve, se Φ(u ) è infinitamente divisibile essa può sempre ottenersi con il seguente passaggio al limite ln Φ(u ) = lim n. Φ1/ n (u ) − 1 , n →∞ nel quale interviene una sequenza di funzioni caratteristiche del tipo su indicato. Egli riconobbe però, e riportiamo le sue parole, che “per una discussione completa di tale risultato occorrono ulteriori e più ampi sviluppi”.
{
}
A.N. Kolmogorov, nel 1932, nella nota [11] dal titolo “Sulla forma generale di un processo stocastico omogeneo – Il problema di Bruno de Finetti” diede la caratterizzazione generale, nel caso che le Convegno Economia e Incertezza
161
distribuzioni abbiano momenti secondi finiti, della classe di distribuzioni infinitamente divisibili mediante la rappresentazione
(2)
σ2 2 Φ(u ) = exp iuγ '− u + ∫ ( eiux − 1 − iux )ν (dx) , 2 R −{0}
ove la misura, eventualmente σ-finita, ν (dx) sostituisce la più particolare misura finita λ.F (dx) della rappresentazione (1) ; si prova che essa deve soddisfare la condizione
∫
x 2ν (dx) < ∞ assieme alla
x ≥1
ν ({0} ) = 0 . Ci sembra utile soffermarci ad interpretare il significato dei suddetti risultati con riferimento ai corrispondenti processi di Lévy X (t ) , cioè ai processi stocastici per i quali X (1) ha una distribuzione di probabilità con funzione caratteristica espressa dalla (1) o dalla (2). In corrispondenza alla (1) si hanno processi costituiti dalla sovrapposizione di un processo X 1 (t ) di moto browniano con drift γ .t N (t )
e un processo di Poisson composto X 2 (t ) = ∑ Y j ove i n.a. Y j sono j =0
i.i.d. con funzione di ripartizione F ( x) e funzione caratteristica χ (u ) , mentre il processo di Poisson N (t ) , indipendente dagli Y j , ha intensità λ . In corrispondenza alla (2) si hanno ancora processi del tipo X 1 (t ) + X 2 (t ) ove però X 2 (t ) è a sua volta una sovrapposizione di processi di Poisson composto tra loro indipendenti e indipendenti da X 1 (t ) .
3. I risultati precedenti vennero generalizzati nel 1934 da P. Lévy nell’importante nota [14] dal titolo “Sur les intégrales dont les éléments sont des variables aléatoires indépendantes” pubblicata negli Annali della Scuola Normale di Pisa. In essa Lévy pervenne ad una rappresentazione analoga alla precedente Convegno Economia e Incertezza
162
σ2 2 (3) Φ(u ) = exp iuγ '− u + ∫ ( eiux − 1 − iux.I ( −1,1) ( x) ) π (dx) 2 R −{0} ove però la misura π (dx) è più generale della precedente ν (dx) dovendo soddisfare ad una condizione più debole, e cioè alla
∫ (x
2
∧ 1)ν (dx) < ∞ e ν ({0} ) = 0 ,
R
che non implica l’esistenza di momenti per X (t ). L’espressione in parentesi della (3) è spesso denominata “esponente caratteristico” della distribuzione infinitamente divisibile con funzione caratteristica Φ(u ) . Si usano anche i nomi di “terna generatrice” per la (γ , σ 2 , π ) e di “misura di Lévy” per π (dx) . Dopo l’articolo ricordato di P. Lévy, il probabilista russo A. Khintchine nell’articolo [12], “A new derivation of a formula of Paul Lévy” del 1937, pervenne ad una dimostrazione semplificata della (3) seguendo l’impostazione di Kolmogorov nella nota del 1932 cosicchè in letteratura la (3) è spesso denominata “rappresentazione di Lévy – Khintchine”. L’interpretazione probabilistica della (3), già presente sostanzialmente nella nota di Lévy, venne definitivamente precisata nel 1942 dal matematico giapponese K. Ito nell’articolo [8] dal titolo “On stochastic processes – Infinitely divisible laws of probability” : ne daremo una sommaria descrizione. Dalla (3) si deduce che il corrispondente generale processo di Lévy può essere così rappresentato: (4)
X (t ) = γ .t + Bσ 2 (t ) + ∑ ∆X ( s ) , s ≤t
ove γ.t indica il drift deterministico, Bσ 2 (t ) è un processo di moto browniano con σ 2 = Var [ B(1)] mentre
∑ ∆X (s)
rappresenta una
s ≤t
somma aleatoria delle discontinuità del processo nell’intervallo [0, t] , Convegno Economia e Incertezza
163
essendo ∆X ( s ) l’eventuale discontinuità X ( s ) − X ( s − ) all’epoca s, anteriore o coincidente con t . Le due ultime componenti stocastiche di X (t ) sono indipendenti tra loro. Nel caso che la misura di Lévy sia finita, cioè che sia π (0, ∞ ) < ∞ ,
∑ ∆X (s)
è un processo di Poisson composto e, come si è visto,
s ≤t
π (dx) = λ.F (dx) ; se invece π (0, ∞) = ∞ il processo
∑ ∆X (s)
ha la
s ≤t
seguente rappresentazione in termini di “integrali di Poisson”: (5)
∑ ∆X (s) = ∫ x [ Νω (t , dx) − t.π (dx)] + ∫ s ≤t
x <1
xΝω (t , dx) ,
x ≥1
ove Νω (t , dx) denota una “misura aleatoria di Poisson” il cui significato è quello di numero aleatorio delle discontinuità di ampiezza compresa tra x e x + dx che si manifestano entro l’epoca t. Dalla notazione impiegata per indicarla appare che la misura aleatoria di Poisson, Νω (t , B ) , dipende da tre argomenti: l’evento elementare ω ∈ Ω , il periodo di tempo tra 0 e l’epoca t e l’insieme boreliano B ∈ Β( R ) . Se supponiamo fissati t = t ' e B = B ' allora Νω (t ', B ') è un numero aleatorio con distribuzione poissoniana avente intensità π ( B ') ; fissato soltanto B = B ' , Ν ω (t , B ') è un processo di Poisson con intensità π ( B ') e funzione valor medio E [ Ν ω (t , B ') ] = t.π ( B ') ; infine, fissati t = t ' e ω = ω ' , Ν ω ' (t ', B ) è una misura σ – finita su Β( R ) .
L’integrale rispetto alla misura aleatoria di Poisson o, più semplicemente, l’integrale di Poisson ∫ xΝ ω (t , dx) che appare come x ≥1
secondo addendo nella (5) rappresenta la somma aleatoria delle discontinuità con ampiezza non minore di 1, in modulo, nell’intervallo temporale [0, t]. Si prova che esso ha una distribuzione
Convegno Economia e Incertezza
164
di probabilità tipo Poisson composto con valor medio e varianza dati dalle E ∫ xΝω (t , dx) = t. ∫ xπ (dx) e x ≥1 x ≥1 Var ∫ xΝ ω (t , dx) = t. ∫ x 2π (dx) , x ≥1 x ≥1 se π { x : x ≥ 1} < ∞ . Il primo addendo del secondo membro nella (5) è detto “somma (aleatoria) compensata delle discontinuità di ampiezza compresa tra -1 e 1 nell’intervallo temporale [0, t]”; la compensazione si rende necessaria in quanto nel caso π (0, ∞ ) = ∞ l’integrale ∫ xΝ ω (t , dx) 0 < x <1
potrebbe essere non finito a causa della presenza di moltissime discontinuità di ampiezza molto piccola. Per ovviare a questa possibilità si usa la “misura compensata” Ν ω (t , dx) − t.π ( dx) . Un esempio in proposito è fornito dal processo di Lévy denominato “processo Gamma” ove X(t) ≈ Γ (α.t, β), cioè ove la densità di
β α t α t −1 − β x x .e . Esso è Γ(α t ) generatrice γ = 0, σ 2 = 0 e
probabilità di X(t) è data dalla f t ( x) = caratterizzato
dalla
terna
∞
π ( x) = α .x −1.e − β x
e risulta
π (0, ∞) = α .∫ x −1.e − β x dx = ∞ , essendo 0
però tale misura σ – finita. Infatti considerando, per esempio, la partizione di (0, ∞) costituita dal sottoinsieme illimitato (1, ∞) e dagli 1 1 infiniti intervalli limitati con n = 1, 2, ………. si ha che, , n + 1 n come facilmente si verifica, ognuno degli intervalli suddetti ha misura π finita.
Convegno Economia e Incertezza
165
4. Riteniamo utile aggiungere qualche ulteriore osservazione sul termine ∫ x [ Νω (t, dx) − t.π (dx)] 0 < x <1
che compare nella (5). Suddividendo l’insieme di integrazione al modo seguente
{ x : 0 < x < 1} = (−1, 0) ∪ (0,1) = U x : 21 n≥ 0
n +1
≤ x<
1 = U An 2n n ≥0
il suddetto integrale si può esprimere come una somma infinita di integrali (6)
∫ x [ Nω (t, dx) − t.π (dx)] = ∑ ∫ x [ Nω (t, dx) − t.π (dx)] n ≥ 0 An
0 < x <1
alla quale corrisponde l’esponente caratteristico iux λ − − λ t . . e 1 F ( dx ) iu . xF ( dx ) ( ) , ∑ n ∫ n n ∫ n n≥ 0 A A n n π (dx) . ove si è posto λn = π ( An ) e Fn (dx) =
λn
Si tratta evidentemente di una somma numerabile di processi di Poisson composto, tra loro indipendenti, con drift lineari. Si prova che questa componente costituisce una “martingala quadrato-integrabile” con un’infinità numerabile di discontinuità su ogni intervallo di tempo finito. Rinviando il lettore per maggiori dettagli al testo di A.E. Kyprianou indicato in Bibliografia, ci limiteremo a fare alcune osservazioni in proposito. Il singolo addendo della somma a secondo membro della (6), ∫ x [ Νω (t , dx) − t.π (dx)] , corrisponde ad un processo di Poisson An Nn (t )
composto,
∑ξ
(n) j
, per il quale l’intensità del processo di Poisson
j =1
Convegno Economia e Incertezza
166
N n (t ) è data dalla λn = π ( An ) e la comune distribuzione di probabilità
dei numeri aleatori indipendenti ξ (j n ) è la Fn (dx) = π (dx) / λn . Chiaramente si tratta del processo delle discontinuità la cui ampiezza aleatoria è contenuta nell’insieme An = (−2 − n , −2− ( n +1) ] ∪ [2− ( n +1) , 2− n ) e tale processo è stocasticamente indipendente da tutti gli altri processi consimili. La corrispondente funzione valor medio ha l’espressione Nn (t ) E ∑ ξ (j n ) = λn t.∫ xFn (dx) j =1 R e la differenza Nn (t )
∑ξ
(n) j
j =1
− λnt.E ξ1( n ) = M n (t ) = ∫ x [ Ν ω (t , dx) − t.π (dx)] An
costituisce un processo martingala M n (t ) che si prova facilmente essere quadrato - integrabile. k
Indicando con X ( k ) (t ) = ∑ M n (t ) il processo stocastico delle n =0 k
discontinuità la cui ampiezza è contenuta nell’insieme
UA
n
si ha che
n =0
tale processo è ancora una martingala quadrato – integrabile e contemporaneamente un processo di Lévy. Si prova che la sequenza { X ( k ) (t ); k ≥ 0} è una sequenza di Cauchy nello spazio di Hilbert delle martingale
quadrato – integrabili rispetto alla norma M (t ) = E sup M 2 (t ) . Pertanto esiste un processo limite X (t ) = t
= lim X ( k ) (t ) = k →∞
∫ x [ Nω (t, dx) − t.π (dx)] = ∑ ∫ x [ Nω (t, dx) − t.π (dx)] 0 < x <1
n ≥ 0 An
che è un processo di Lévy ed anche una martingala quadrato – integrabile. Convegno Economia e Incertezza
167
Ci siamo limitati ad indicare sommariamente la linea dimostrativa della decomposizione di Lévy – Ito presentata nel testo [12] sorvolando su alcuni punti critici per i quali rinviamo il lettore al detto testo. Riteniamo che quella su esposta a grandi linee sia una delle dimostrazioni più semplici del Teorema di Lévy - Ito tra quelle presenti in letteratura.
5. Indicazioni bibliografiche. [1] Applebaum D. (2009). Lévy Processes and Stochastic Calculus, 2nd ed. Cambridge University Press. [2] de Finetti B. (1929). Sulle funzioni ad incremento aleatorio. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [3] de Finetti B. (1929). Sulla possibilità di valori eccezionali per una legge di incrementi aleatori. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [4] de Finetti B. (1929). Integrazione delle funzioni a incremento aleatorio. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [5] de Finetti B. (1930). Le funzioni caratteristiche di legge istantanea. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [6] de Finetti B. (1931). Le funzioni caratteristiche di legge istantanea dotate di valori eccezionali. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [7] de Finetti B. (1931). Le leggi differenziali e la rinuncia al determinismo. In Rendiconti del Seminario Matematico della R. Università di Roma. [8] Ito K. (1942). On stochastic processes I – Infinitely divisible laws of probability. Japan J. Math. 18, 261 – 301. (Reprinted in Kiyosi Ito Selected Papers, Springer, 1987). Convegno Economia e Incertezza
168
[9] Kallenberg O. (1997). Foundations of Modern Probability. Springer. [10] Khintchine A.Ya. (1937). A new derivation of a formula by P. Lévy. Bulletin of the Moskov State University 1. [11] Kolmogorov A.N. (1932). Sulla forma generale di un processo stocastico omogeneo – Un problema di bruno de Finetti. In Rendiconti della R. Accademia Nazionale dei Lincei. Roma. [12] Kyprianou A.E. (2006). Introductory Lectures on Fluctuations of Lévy Processes with Applications. Springer.
Convegno Economia e Incertezza
169
!"#$%# '$(& )%* +&, -.&*$/ 0$#1 23*&4# 54$#) 6"7$)%3 8%$9&.#$/: *$ '3.$%3; <-50 = -344&>$3 -).43 ?4@&./3
-3%9&>%3 573%3($) & <%7&./&AA); '.$/&; BC D//3@.& BEEF !"#$%&'$ 'G$# H)H&. &I)($% ) %&, (3*&4 3J 7.&*$/ .$#1 (&)K #".&(&%/; /G& L).$)%7& M)(()K 2&./3% 3%&; ,G$7G #&&(# /3 @& )*&N")/& J3. *.$@$%> #$%>4& *&J)"4/ 377"..&%7& )%* *&J)"4/ 73..&4)/$3% $% /".@"4&%/ /$(O $# @)#&* 3% /G& %3/$3% 3J @"#$%# /$(&O !"#$%# /$(& ."%# J)#/&. /G)% 7)4K &%*). /$(& ,G&% /G& ().1&/ $# 9&.P )7/$9& )%* ) 43/ 3J $%K J3.()/$3% )..$9Q $/ ."%# )/ ) #43,&. H)7& /G)% 7)4&%*). /$(& ,G&% J&, $%J3.()/$3% )..$9O R& .&H3./ ) 7)4$@.)/$3% /3 8S? #H.&)* *)/); ,G$7G #G3,# /G& )77".)/&%# 3J /G& (3*&4 )/ /G& #$%>4& *&J)"4/ 4&9&4Q ,& )4#3 73(H).& /G& H&.K J&3.()%7& ,./ ) /.)*$/$3%)4 #/."7/".)4 (3*&4 )/ /G& T3$%/ *&J)"4/ 4&9&4O
(
)*$%+,-'$.+*
'G$# H)H&. &I)($% ) %&, (3*&4 3J 7.&*$/ .$#1 (&)#".&(&%/; /G& L).$)%7& M)(()K 2&./3% 3%&; ,G$7G #&&(# /3 @& )*&N")/& J3. *&K #7.$@$%> #$%>4& *&J)"4/ 377"..&%7& )%* *&J)"4/ 73..&4)/$3% $% /".@"K 4&%/ /$( #"7G )# /G& 7"..&%/; 7.$#$# 3. )J/&.K7.$#$# 3%O $# @)#&* 3% /G& %3/$3% 3J @"#$%# /$(&O !"#$%# /$(& ."%# J)#/&. /G)% 7)4K &%*). /$(& ,G&% /G& ().1&/ $# 9&.P )7/$9& )%* ) 43/ 3J $%J3.()/$3%
Convegno Economia e Incertezza
171
)..$9Q $/ ."%# )/ ) #43,&. H)7& /G)% 7)4&%*). /$(& ,G&% J&, $%J3.K ()/$3% )..$9O R& .&H3./ ) 7)4$@.)/$3% /3 8S? #H.&)* *)/); ,G$7G #G3,# /G& )77".)/&%# 3J /G& (3*&4 )/ /G& #$%>4& *&J)"4/ 4&9&4Q ,& )4#3 73(H).& /G& H&.J3.()%7& ,$/G .H&7/ /3 ) /.)*$/$3%)4 #/."7K /".)4 (3*&4 )/ /G& T3$%/ *&J)"4/ 4&9&4O 'G& #/."7/".& 3J /G& H)H&. $# )# J3443,#U #&7/$3% B ."( /G& @)#$7 H.&K7.$#$# #/."7/".)4 (3*&4 3J 7.&*$/ .$#1; @3/G J3. #$%>4& )%* T3$%/ *&J)"4/#O <% /G& ("4/$H4& *&J)"4/ 7)#& $/ #H&7$! @3/G /G& &IK /&%*&* )%* #$(H4$!&* K 3. J)7/3. 73H"4) K 9&.#$3%O #O S&7/$3% C #&/# "H 3". )4/&.%)/$9&; @"#$%#K/$(& 7.&*$/ (3*&4; @3/G J3. #$%>4& )%* T3$%/ *&J)"4/ 377".K .&%7O S&7/$3% V#"(().$A $/# 7)4$@.)/$3% /3 8S? #H.&)* *)/)O S&7/$3% W H.&%/# /G& 7)4$@.)/$3% /3 T3$%/ *&J)"4/#O 'G& 73%74"K #$3%# J3443,O
/
012 3%24'%.#.# " 5+,26 +7 '%2,.$ %.#8
/9(
:.*;62 ,27&-6$#< =2%$+*
'G& @)#$7 H.&K7.$#$# #/."7/".)4 (3*&4 3J 7.&*$/ .$#1 $# $%#H$.&* @P /G& #&($%)4 H)H&. @P 2&./3% XYFZV[O -3%#$*&. ) !.( ! ,G$7G G)# ) #$%>4& A&.3 73"H3% *&@/O
XY[
,G$4& /G& *$#/.$@"/$3% 3J /G& /$(& /3 *&J)"4/; ( ! ; $# ! " ' "%! ""# ! #! ""## (! $ %" ' "%! ""# $ #! ""## 2&./3% )##"( /G)/ 43> )##&/ H.$7 X)* %! [ 3. )##&/ .&/".%# ).& %3.()4; $O&O M)"##$)%O 5N"$9)4&%/4P; G& )##"( /G)/ /G& )##&/ 9)4"&
Convegno Economia e Incertezza
172
%! J3443,# ) >&3(&/.$7 !.3,%$)% (3/$3%O 8%*&. G$# )##"(H/$3%# /G& X().>$%)4[ *&J)"4/ H.3@)@$4$/P 3J !.( ! $# &! ""# $ !"#+!! ""## ,G&.& ! $# /G& X"%$9).$)/&[ #/)%*).* %3.()4 *$#/.$@"/$3%; +!! &$
'( "%! "!#,#! ""## % "-! # . !! ,)#" $ .! "
-! )%* . ! ).& .H&7/$9&4P /G& $%#/)%/)%&3"# (&)% .&/".% 3% )##&/# X/ "%*&. /G& .$#1 %&"/.)4 (&)#".&[ )%* $/# #/)%*).* *&9$)/$3%O
/9/
>+.*$ ,27&-6$#
^3. #$(H4$7$/P; ,& 73%#$*&. /G& @$9).$)/& 7)#& /3 #/)./ ,$/GO ',3 !.(# X3. %)([; *&%3/&* )# ! $ *0 ); &I$#/O <% 2&./3%]# (3*&4; $J 3%& )##"( /G)/ 43> )##&/# ).& T3$%/4P %3.()44P *$#/.$@"/&*Y ; ,$/G 73..&4)/$3% 73&!7$&%/ 1; /G& T3$%/ *&J)"4/ H.3@)@$4$/P 3J /,3 %)( ,$/G 73((3% &IH$.P 3J *&@/ $# & ""# $ ' "%" ""# ! #" ""#0 %! ""# ! #! ""## $ !" "#+!" ""#0 #+!! ""## ,G&.& !" $# /G& X@$9).$)/&[ #/)%*).* %3.()4 *$#/.$@"/$3% ,$/G 73.K .&4)/$3% 73&!7$&%/ 1O 8#$%> /G& J)7/ /G)/ #+!! ""# $ !!" "&! ""##; /G& T3$%/ *&J)"4/ H.3@K )@$4$/P 7)% @& .&H.&%/&* )#U " # & ""# $ !" !!" "&" ""##0 !!" "&! ""##
'G$# $# /G& #3 7)44&* '+3-6& %23%2#2*$&$.+* 3J /G& T3$%/ H.3@)K @$4$/PO $# ()*& H3##$@4& @P S14).]# /G&3.&(U J3. *&/)$4# #&& J3. $%#/)%7&B +&4#&% XYFF_[; 3. -G&."@$%$; 6"7$)%3; L&77G$)/3 XBEEV[O Y
?# $# 1%3,%; T3$%/ %3.()4$/P $# ) J"./G&. )##"(H/$3% ,./ ().>$%)4 %3.()4K
$/PO B
!3/G /G& .&J&.&%7 %3/ 3%4P $%/.3*"7& /G& %3/$3% 3J 73H"4) )%* S14).]# /G&3.&(; @"/ )4#3 /G& M)"##$)% )%* S/"*&%/#] 73H"4)#; /3 @& "#&* @&43,O +&4#&% $# /G& #&($%)4 @331 $% /G& !&4*; -G.OOOO $# ()$%4P J37"#&* 3% ^$%)%7& )HH4$7)K /$3%#O
Convegno Economia e Incertezza
173
'G& 73H"4) ,G$7G ,& G)9& 3@/)$%&* $# /G& #3K7)44&* X@$*$(&%#$3%)4[ M)"##$)% 73H"4); *&!%&* )# # " 2# "3" 0 3! # &$ !" !!" "3" #0 !!" "3! #
?%)43>3"#4P; J3. /G& * %)( /G& T3$%/ *&J)"4/ H.3@)@$4$/P $#
& ""# $ ' "%" ""# ! #" ""#0 4444%$ ""# ! #$ ""## $ !% "#+!" ""#0 4440 #+!$ ""## ,G$7G 7)% @& ,.$//&% "#$%> /G& 73..H3%*$%> * *$(&%#$3%)4 M)"##$)% 73H"4); ,$/G 73..&4)/$3% ()/.$I 5U " # & ""# $ !% !!" "&" ""##0 4440 !!" "&$ ""## XB[ <%#/&)* 3J T3$%/ %3.()4$/P; 3%& 7)% )##"(& ) S/"*&%/ / 73H"4) )(3%> )##&/ 9)4"U # " !" !" 2& "3" 0 3! 0 440 3$ # &$ "%'( "!" ( "3" #0 "( "3! #0 4440 "( "3$ #
,G&.& "%'( $# /G& *K*$(&%#$3%)4 S/"*&%/]# / *$#/.$@"/$3% 3J H).)(&/&. 6; ,G$4& "( $# /G& "%$K*$(&%#$3%)4 S/"*&%/]# / *$#/.$@"/$3%O <% /G& S/"*&%/]# 7)#&; /G& T3$%/ *&J)"4/ H.3@)@$4$/P $# !" & ""# $ "%'( ""!" ( "&" ""##0 4440 "( "&$ ""###
XC[
<% >&%&.)4; )##"($%> ) 73H"4) 2; 3%& G)# & ""# $ 2"&" ""#0 4440 &$ ""##
/9?
XV[
@&'$+% '+3-6A +% B+.*$ ,27&-6$ #.536.!2,
3.# $%7.&)# /G& .&H.&%/)/$3%# XB[ 3. XV[; $% #H$/& 3J /G&$. 73%7&H/")4 #$(H4$7$/P; 7)% @&73(& 7"(@&.#3(&O 'G&.&J3.&; $/ ,)# 73((3% H.)7/$7& @&J3.& /G& !%$%7$)4 7.$#$# 3J /G& 4)#/ P&).#; H&7$)44P J3. H.$7$%> )%* G&*>$%> )HH4$7)/$3%#; ,G$7G 7)% $%9349& (3.& /G)% ) G"%*.&* %)( /3 #"@#/$/"/& /G& )7/")4 73H"4) ,$/G /G& #3 7)44&* J)7/3. 3%&; )# J3443,#O 6&/ "# )##"(& /G)/ /G& )##&/ 9)4"& G)# "%$/ 9)4"& )/ /$(& A&.3 )%* %3.()4$A& /G& 43> )##&/ 9)4"& X3. )##&/ .&/".%[ 3J !.( !O 'G& 4)//&. $#U '( %! # "-! # . !! ,)# " $ %!! $ .! "
Convegno Economia e Incertezza
174
?% )%)43>3"# &IH.#$3% G34*# "%*&. /G& .$#1 %&"/.)4; H.$7$%> (&)K #".&O ?##"(& /G)/ &)7G 43> )##&/ 9)4"& $% /G& H3./J34$3 7)% @& J)7/3.$A&* $% ) 73((3% 73(H3%&%/ 7 )%* )% $*$3#P%7.)/$7 3%&; 8! ; )# J3443,#U $ ! XW[ %! $ 1! 7 % * # 1!! 8!
,G&.& 1! % !; 7 )%* 8! 0 ! $ *0 440 * ).& $%*&H&%*&%/ #/)%*).* % M)"##$)%O 'G& ,&$>G/$%> 73&!7$&%/# 1! )%* * # 1!! ).& 7G3#&% #3 /G)/ %!! $# #/)%*).* %3.()4O 'G& )##"(H/$3%# 3% /G& J)7/3.$A)K /$3% ).& #"7G /G)/ %3/ 3%4P /G& 43> )##&/ 9)4" %!! # ).& $%*&H&%*&%/; 73%*$/$3%)44P 3% /G& 73((3% J)7/3. 7; @"/ )4#3 /G)/ /G& "%73%K *$/$3%)4 4$%&). 73..&4)/$3% 73&!7$&%/ @&/,&&% /,3 43> )##&/ 9)4" %!! )%* %)! $# 1! 1) O 'G& 73%*$/$3%)4 ().>$%)4 *&J)"4/ H.3@)@$4$/$ 9&! ":#; $J #!! $# /G& H.3H&.4P %3.()4$A&* 43> 4$)@$4$/P; #!! ""# &$
'( #! # "-! # . !! ,)# $ .! "
).& &)#$4P 7)47"4)/&*U 9&! ":#
$'
"%!!
!
#!!
! :# $ !
&
#!! # 1! : % * # 1!!
'
'G& &IH.#$3%# J3. /G& "%73%*$/$3%)4 3% J3443, @P #$(H4& $%/&K >.)/$3% 39&. /G& #"HH3./ 3J /G& J)7/3.U ( &! ""# $ 9&! ":#;":#+: X`[ !
,G&.& ; $# /G& #/)%*).* M)"##$)% *&%#$/PO ')1$%> $%/3 73%#$*&.)/$3% /G)/ )##&/ 9)4" K )%* /G&.&J3.& *&K J)"4/# K ).& 73%*$/$3%)44P $%*&H&%*&%/; /G& 73%*$/$3%)4 T3$%/ *&J)"4/ H.3@)@$4$/P $# #$(H4P /G& H.3*"7/ 3J /G& ().>$%)4 3%U & "" ! :# $
$ )
9&! ":#
!#"
/G& H.3*"7/ 73H"4) 2 " O ?# /G& %)(& #)P#; /G& 4)//&. $# #$(H4P /G& H.3*"7/ 3J $/# ).>"(&%/#U 2 " "3" 0 3! 0 440 3$ # &$ 3" " 3! " 44 " 3$
Convegno Economia e Incertezza
175
'G& 73..H3%*$%> &IH.#$3%# J3. /G& T3$%/ "%73%*$/$3%)4 H.3@)@$4K $/P &)#$4P J3443,U
& ""# $
( ) $
9&! ":#;":#+:
$
! !#"
(
!
# " 2 " 9&" ":#0 440 9&$ ":# ;":#+:
XZ[
'G& /&7G%$N"& )@39& 7)% @& &I/&%*&* @&P3%* /G& M)"##$)% 7)#&O <% >&%&.)4; $J /G& 73((3% J)7/3. 7 G)# ) *&%#$/P < ":# 3% /G& .&)4 4$%& !; $/ J3443,# J.3( /G& *&!%$/$3% 3J 73%*$/$3%)4 H.3@)@$4$/P /G)/ /G& ().>$%)4 X"%73%*$/$3%)4[ *&J)"4/ H.3@)@$4$/$ 7)% @& ,.$//&% )# ( &! ""# $ 9&! ":#< ":#+: X_[ !
'G& T3$%/ "%73%*$/$3%)4 H.3@)@$4$/$ 7)% @& .&H.&%/&* /G.3">G /G& X73%*$/$3%)4[ H.3*"7/ 73H"4) 2 " ; )# *$.&*U & ""# $
( ) $
9&! ":#< ":#+:
$
! !#"
/9C
(
!
# " 2 " 9&" ":#0 440 9&$ ":# <":#+:
XF[
:1+%$'+5.*;#
'G& /.)*$/$3%)4; 2&./3%]# /PH& (3*&4 /&%*# /3 H.3*"7& 9)%$#G$%> #H.&)*# )/ 9&.P #G3./ ()/".$/$O M&%&.)44P; $/ "%*&./$()/ /G& )7/")4 3%O 'G& (3*&4 #G3,# )4#3 H33. !/ 39&. 43%>&. ()/".$/$ ,$/G 39&.K /$()/& 3J .$#1P *&@/ )%* "%*&./$()/& 3J 43,K.$#1 3%&O 'G$# @$)# G)# @&&% *37"(&%/&* @P 53(; a&4,&>&; a")%> XBEEV[ )%* ,)# ,&44 1%3,%; @&J3.& /G& 7.$#$#; @3/G $% /G& 4$/&.)/".& )%* $% /G& H.)7/$7&O 2&./3%]# (3*&4 G)# @&&% &I/&%*&* $% ) %"(@&. 3J ,)P#O D%& ()$% &I/&%#$3% 73%#$#/&* $% $%74"*$%> 73"H3%# 3% *&@/ 3. *&@/ 739&%)%/#O 'G$# ()*& *&J)"4/ @&J3.& *&@/K&IH$.P H3##$@4&O ?%K 3/G&. $(H3./)%/ &I/&%#$3% 73%#$#/&* $% $%74"*$%> X.$#14#[ #/37G)#K /$7 $%/&./ .)/O 'G& &I/&%#$3%# ).& ,&44 @&P3%* /G& #73H& 3J /G$#
Convegno Economia e Incertezza
176
H)H&.O a3,&9&.; 3%7& 73(H).&* ,$/G )7/")4 #H.&)* *)/); /G& &IK /&%*&* 2&./3%]# (3*&4# #/$44 H.39$*& 7.&*$/ #H.&)*# ,&44 @&43, /G& )7/")4 3% J3. #G3./ ()/".$/$ )%* K &9&% J3. 43%>&. ()/".$/$ K G$>G .)/$%>#Q ,&44 )@39& /G& )7/")4 3% J3. 43%>&. ()/".$/$ )%* 43, .)/$%># X#&& 53(; a&4,&>&; a")%> XBEEV[[O 'G& ()$% .&)#3% @&G$%* /G& #7).7& 73%#$#/&%7P 3J 2&./3%]# (3*&4 ,$/G ().1&/ *)/) $# /G& )##"(H/$3% /G)/ /G& !.( 9)4"& J34K 43,# ) 73%/$%"3"# H.37#O 'G$# )##"(H/$3%; ,G$7G $# H.&.9&* @P /G& &I/&%#$3%# K @& /G&( /G.3">G 73"H3%#; 739&%)%/# 3. #/37G)#/$7 .)/ K ()1 /G& )##&/ 9)4"& @&G)9$3. %3/ /3/)44P "%H.&*$7/)@4&O <%/"$/$9&4P; %3 #".H.$#& 7)% 377".O ?# ) 73%#&N"&%7&; #H.&)*# $% 2&./3%]# (3*&4 ).& >&%&.)44P /33 43,O 'G&P @&73(& /33 G$>G ,G&% 934)/$4$/P $# 39&./$()/&*; %)(&4P $% /G& 43%> ."% )%* J3. 43, 7.&*$/ .)/$%>#O ? (3*&4 $# %&&*&* ,G$7G *3 7)H/".& /G& )7/")4 *$#H&.K #$3% K 3. 934)/$4$/P K @P 7)H/".$%> /G& H3##$@4& $%J3.()/$3% )..$9)4#; $%74"*$%> #".H.$# 3. T"(H#; )HH.3H.$)/&4PO
?
!* &6$2%*&$.D2A "-#.*2##4$.52 ", 5+,26
'G& )4/&.%)/$9& (3*&4 ,& ).& >3$%> /3 H.&%/ $# @)#&* 3% /G& *$#K /$%7/$3% @&/,&&% 7)4&%*). )%* @"#$%# /$(&O 'G$# $*&) >3 @)71 /3 -4).1 XYFZC[ )%* G)# @&&% *&9&43H&*; J3. $%#/)%7&; @P M&()%; 2)*)% )%* b3. XBEEY[; M&()% XBEEW[O 'G& $*&) $# /G)/ @"#$%# K 3. /.)%#)7/$3% K /$(& ."%# J)#/&. /G)% 7)4&%*). /$(& ,G&% /G& ().1&/ $# 9&.P )7/$9&; /.)*& $# G$>G; ) 43/ 3J $%J3.()/$3% )..$9 )%* 73%#&N"&%/4P )##&/ H.$7 ).& N"$/& 934)/$4&O /G& H.&9$3"# *$#/$%7/$3% $% 7.&*$/ .$#1 (3*K &4# $# /G)/ 3J H.39$*$%> @3/G ) @&//&. /G&3.&/$7)4 J.)(&,3.1 )%* ) @&//&. &(H$.$7)4 !/O 'G&.& $# )% 2'+*+5.' %&$.+*&62 J3. 3". 7G3$7&O 'G& @"#$%#K /$(& (3*&4# 7)% @& ,.$//&% )# /$(&K7G)%>&* !.3,%$)% (3/$3%#O 'G$# (&)%# /G)/ H.$7 ).& *$""#$3%# $% @"#$%# /$(&; %3/ $% 7)4K &%*). /$(&O 'G& H)7& )/ ,G$7G @"#$%# /$(& ."%# *&H&%*# 3J $%K
Convegno Economia e Incertezza
177
J3.()/$3% )%*c3. /.)*&O '$(& $% N"$&/ /.)*& H&.$3*# *3 %3/ ."% )# $% )7/$9& K 3. GPH&.#&%#$/$9& K H&.$3*# )# ) @33( 3. ) 7.$#$#; ,G&% &9&.P3%& 1&&H# )4&./; .&)*P /3 @"P 3. #&44O 'G& *$#/$%7/$3% @&/,&&% /G& /,3 /$( $# )4$1& ) #/37G)#/$7 74371C O ?##&/ H.$7 ).& %3/ )%P (3.& *$""#$3%#; 3%7& /G& #/37G)#/$7 /$(& 7G)%>& G)# @&&% )773"%/&* J3.O 'G& 5&$125&$.'&6 &*, #$&$.#$.'&6 %&$.+*&62 $# /G& %&&* J3. )##&/ (3*&4# )@4& /3 H.&%/ T"(H#O ?# #33% )# /G&P H.&%/ T"(H# )/ /G& /.)T&7/3.$)4 4&9&4 /G&P ,$44 H.&%/ #1&,%#; 1"./3#$# )%* 3/G&. *&9$)/$3%# J.3( %3.()4$/P )/ /G& *$#/.$@"/$3%)4 4&9&4O 59&% )H)./ J.3( /G& 7.&*$/ *3()$%; ,& 1%3, /G)/ $% (3*&.% ().1&/# &N"$/P H.$7 K ,G$7G ).& ) 73(H3%&%/ 3J !.(]# )##&/# K H.&%/ 9&.P 3J/&% *&9$)/$3%# J.3( %3.()4$/PO 'G$# $# ) J"./G&. (3/$9)/$3% J3. )*3H/$%> @"#$%#K/$(& @)#&* (3*&4#; #"7G )# /G& #3 7)44&* 6d9P (3*&4# X3J /G& H".& T"(H /PH&[ ,& ).& >3$%> /3 J37"# 3%O D%4P #"*K *&% T"(H# /3 *&J)"4/ 7)% 39&.73(& /G& 4)71 3J /3/)4 "%H.&*$7/)@$4$/P 3J *&J)"4/ 3J *$""#$9& (3*&4#O )* 3%&'$.'2; $% 6d9P (3*&4# X3J /G& H".& T"(H /PH&[ /G& #G$J/ J.3( /G& /.)*$/$3%)4; 2&./3%]# )4$1& (3*&4 $# )773(H4$#G&* @P ()1K $%> % ! ) H".& T"(H H.37#O & G)# 9)4"& =& )/ /$(& "; /G& 43> .&/".% $% 7)4&%*).K/$(& $#U $!%
%!! ""# $ >! =& % . ! ?#! 0
" & !4
XYE[
$!%
,$/G >! % !0 . ! $ ! )%* ?& ) /$(" !.3,%$)% (3/$3% /PH$7)4 3J !.( !O <% /G& 7.&*$/ *3()%$; /G$# *&9$7& ,)# !.#/ )*3H/&*; )# J). )# ,& 1%3,; @P 2)*)% XBEEE[O a& #H&7$!&* /G& /$(& 7G)%>& /3 @& 3J /G& >)(() /PH& ,$/G H).)(&/&. @O !P #3 *3$%>; G& >3/ /G& #3 7)44&* L).$)%7& M)(() XLM[ H.37# J3. 43> )##&/ H.$7 ,G$7G G)* @&&% #/"*$&* $% 2)*)% )%* S&%&/) XYFFE[O ?# $% /G& 2&./3%]# 7)#&; $/ $# N"$/& &)#P /3 #G$J/ /3 /G& .$#1 %&"/.)4 (&)#".&; @P )**$%> /3 /G& )##&/ 9)4"& /G& 73(H3%&%/ A! "0 ,G&.& * + * ! !" A! $ / % @ '+, * # . ! @ # >! @ 4 ) C & 3J /$(&; 3/G&.,$#& %3 T"(H# 73"4* 377".O S&& M&()% &/ )4O XBEEW[ 3% /$# ()//&.O
Convegno Economia e Incertezza
178
'G$# $# /G& 7G3$7& ,& ).& >3$%> /3 )*3H/ $% /G& #&N"&4O <% H.$%7$H4&; ) %"(@&. 3J (3.& #3HG$#/$7)/&* /$(& 7G)%> 73"4* @& )*3H/&* X#&& J3. $%#/)%7& 6"7$)%3 )%* S&(&.).3 XBEYE);@;7[[O ^3. /G& H.&%/ H".H3#&; G3,&9&.; ,& ,$44 #&& /G)/ )4.&)*P /G& #&($%)4 3%& $# &%3">G /3 39&.73(& /G& ()$% #G3./73($%># 3J /G& /.)*$/$3%)4 (3*&4#O
?9(
:.*;62 &*, B+.*$ ,27&-6$#
M$9&% /G& 7G3$7& 3J /G& M)(() /$(& 7G)%>&; ,& 3@/)$% ,G)/ ,& 7)44 ) LMK2&./3%]# (3*&4O !)#&* 3% XYE[; /G& ().>$%)4 73%*$/$3%)4 *&J)"4/ H.3@)@$4$/P 3J !.( !; G)9$%> *&%3/&* )# B! /G& 43> *&@/ 9)4"&; '( #! ; @&73( + * B! # A! # >! : " $ 0 XYY[ 9! ":# $ ! .! :
@ !"*+ ! !" : " -./"#:,@# ""*,@#
$# /G& *&%#$/P 3J /G& >)(() /$(& 7G)%>&; ,$/G ""*,@# /G& >)(() J"%7/$3%O !)#&* 3% #&7/$3% BOC; /G& T3$%/ 73%*$/$3%)4 H.3@)@$4$/P ,G&% 7 $ : $# #$(H4P ! )
*
B! # A! # >! : $ ! .! : !#"
+
/G& T3$%/ "%73%*$/$3%)4 H.3@)@$4$/P; #$%7& 73%*$/$3%)4 $%*&H&%K *&%7P G34*#; 7)% @& ,.$//&% 9$) /G& J)7/3. 73H"4)U & "*# $
(
'
! )
*
B! # A! # >! : $ ! .! : !#"
Convegno Economia e Incertezza
+
@ !"*+ ! !" : " -./"#:,@#*:4 ""*,@#
179
C
=&%;.*&6 '&6."%&$.+*< & #$+%E +7 #-'4 '2##
'G$# #&7/$3% 73%/)$%# /G& ."4/# 3J )% &(H$.$7)4 // 3J /G& LM "%$9).$)/& 7.&*$/ (3*&4; *&9&43H&* @P ^$3.)%$ &/ )4O XBEYE[O 'G& 3@T&7/$9& 3J /G& &(H$.$7)4 $%9/$>)/$3% ,)# K )# "#")4 K /3 )HH4P /G& (3*&4 /3 .&)4 H.$7& *)/) )%* /3 *&/&.($%& /G& H&.J3.()%7& 3J /G& /G&3.&/$7)4 #">>/$3% @&G$%* $/O <% 3.*&. /3 .&)7G /G& )$(; ,& ' 8#& ) #"@#)(H4& 3J 8S? #H.&)* *)/) /3 7)4$@.)/& /G& LM H).)(&/&.# .0 @ )%* > 3J ) %"(@&. 3J !.(# ' 8#& /G& 7)4$@.)/&* H).)(&/&.# /3 J3.&7)#/ /G&$. 7.&*$/ #H.&)*# ' -3(H).& /G& J3.&7)#/&* #H.&)*# )%* /G& )7/")4 3% X,G$7G J3.( /G& .&()$%$%> H)./ 3J /G& #H.&)* #)(H4&[ /3 )### /G& N")4$/P 3J /G& /G&3.&/$7)4 7.&*$/ (3*&4
C9(
F&6."%&$.+*
'G& *)/) ,& "#&* ,&.& )# J3443,#O ' 'G& $%$/$)4 7)4$@.)/$3% ,)# *3%& "#$%> 3%& (3%/G 3J *)/) 3% )44 /G& 73(H3%&%/# 3J /G& \3, e3% $%9/(&%/ >.)*& -.&*$/ \&J)"4/ S,)H X-\S[ $%*&I X-\f +? G P$&4* $%*&I X-\f +? ab[; J3. ) /3/)4 3J BBW %)(O ' R& G)* ) /3/)4 3J )HH.3I$()/&4P Y_;ZEE 7.&*$/ #H.&)*#O 'G$# ()1 3". // 3%& 3J /G& (3#/ &I/&%#$9& &(H$.$7)4 // 3J 7.&*$/ .$#1 $% H".& T"(H #/."7/".)4 (3*&4# H.&%/&* $% /G& 4$/&.)/".& /3 *)/&O ' R& 73%#$*&.&* /,3 H3##$@4& -\S ()/".$/$ %)(&4P W P&).# )%* YE P&).#; #3 )# /3 >&/ g/$(&K$%*&H&%*&%/g 3. g/$(&K.3@"#/g 73%74"#$3%#O D9&.)44; /G& #/)/$#/$7# 3J 3". #H.&)* ,&.&
Convegno Economia e Incertezza
180
G.#$%."-$.+* +7 !D2%&;2 :3%2&,# RG34& S)(H4& H&.7&%/$4 X@H[ W P&). #H.&)*# YE P&). #H.&)*# Wh BCOBZC CZOBBZ BWh CFOBEW W`OBBZ WEh _ZOEVW YEYOFWW ZWh BVEOB_V BCCOVZZ FWh WW`OBFC `BWOBEW (&)% OEYF OEBE #/O*&9$)/$3% OECYE OEBF #1&,%# VOW`E VOBVF 1"./3#$# B_OBCV BVO`E_ D/G&. $%H"/# ,&.&U /G& .$#14# .)/& /; ,G$7G ,& /331 J.3( /G& )HH.3H.$)/& 8S #,)H 7".9&Q /G& 4&9&.)>& .)/$3 %! ,&! ; ,G$7G ,& /331; !.( @P !.(; J.3( @)4)%7& #G&&/ *)/)Q /G& H)P3"/ .)/& XR&$>G/&* )9&.)>& 3J *&@/ )%* &N"$/P H)P3"/[ C! 0 ,G$7G ,& 3@/)$%&* @P ) %)(&K @PK%)(& &4)@3.)/$3% 3% !433(@&.>]# *)/)O 6)#/ @"/ %3/ 4&)#/; ,& %&&*&* /G& .&739&.P .)/&; ,G$7G ,& >3/ $% ^$3.)%$ &/ )4O XBEYE[; "#$%> %)(&K@PK%)(& *)/)O 'G& 7)4$@.)/$3% (&/G3*343>P ,& "#&* ,)# )# J3443,#O ' R& ($%$($A&* /G& #"( 3J #N").&* &..3.# @&/,&&% /G&3.&/$K 7)4 )%* )7/")4 #H.&)*# 39&. /G& $%K#)(H4& X3. /G& !.#/ H)./ 3J /G& #)(H4&[ H&.$3* ' R& *$* /,3 #&H).)/& 7)4$@.)/$3%# J3. &)7G !.(Q 3%& J3. W P&). )%* 3%& J3. YE P&). #H.&)*# 6&/ "# *.3H /G& *&H&%*&%7& 3% /G& !.( %)(&; !; J3. #$(H4$7$/PO R& 1%&, /G)/ /G& /G&3.&/$7)4 #H.&)* ,)# H.3H3./$3%)4 /3 /G& H.$7& 3J ) H"/ 3H/$3% 3% ) LM "%*&.4P$%>; ,G$7G *&H&%*# 3% /G& $%$/$)4 !.( 9)4"& % "!#; /G& J)7& 9)4"& 3J *&@/ #; /G& .$#14# $%/&./ .)/& /; /G& H)P3"/ .)/$3 C; &IH$.)/$3% "; )# ,&44 )# 3% /G& !.(]# H).)(&/&.# O 6&/ /G& H"/ 9)4"& @& % =' "%0 #0 .0 @0 >0 /0 C0 "#O ^$3.)%$ &/ )4O #G3,
Convegno Economia e Incertezza
181
/G)/
, &
' . * # E" F " % =' $ % "!# -./"#C"# # D"+# 0 "G % H# #* % 0 F * # E" F ' . , & * # E! F " 0 G #* XYB[ 0 ## -./"#/"# # D"+# F * # E! F -
4 ,G&.& F $ *,B; + $# /G& !.(]# N")#$K4&9&.)>& .)/$3& + &$
# -./"#"/ # C#"# 0 % "!#
XYC[
/G& J"%7/$3% D"+# $# *&!%&* )# ! * + * +/ * " * # E" * '( % '( 0 D"+# &$ H + F * # E! E" &$
F "G % H#! 0 )
E! &$
FG ! 0 )
G &$ #>,. ! 0
)%* /G& J"%7/$3% # 7)% @& 3@/)$%&* J.3( /G& aPH&.>&3(&/.$7 J"%7K /$3% 3J /,3 9).$)@4 )%* /G& !#&4 J"%7/$3% 3J /G& #&73%* /PH& 'G& ."4/# ,& >3/ ).& $% /G& %&I/ /)@4O HI4=2%$+* 5+,26 '&6."%&$2, 3&%&52$2%#< ! W P&). G3.$A3% YE P&). G3.$A3% %"(@&. 3J %)( &I74"*&* C C (&)% OB_E OVYB #/O*&9$)/$3% OC_Z OWCC HI4=2%$+* 5+,26 '&6."%&$2, 3&%&52$2%#< @ W P&). G3.$A3% YE P&). G3.$A3% %"(@&. 3J %)( &I74"*&* C C (&)% OC_F OBF` #/O*&9$)/$3% OCF_ OBE_
Convegno Economia e Incertezza
182
HI4=2%$+* 5+,26 '&6."%&$2, 3&%&52$2%#< > W P&). G3.$A3% YE P&). G3.$A3% %"(@&. 3J %)( &I74"*&* C C (&)% KOBBC KOYYY #/O*&9$)/$3% OBFE OBF_
C9/
@+%2'$ &*, '+53&%.#+*
8#$%> /G& 7)4$@.)/&* H).)(&/&.#; ,& J3.&7)#/&* /G& #H.&)*# J3. /G& G$>G P$&4* Xab[ )%* $%9/(&%/ >.)*& X& \)$4P 5..3. X?\5[; i&.7&%/)>& i.$7$%> 5..3. Xhi5[; ?9&.)>& i&.7&%/)>& 5.K .3. $% ?@#34"/& L)4"& Xh?i5[O 'G& ?\5 J3. $%#/)%7& $# 0 1, ! $ -#" "H!./ "3# # H !&0 "3## IJK $ L ,G&.& H!./ "3# )%* H$ !&0 "3# ).& .H&7/$9&4P /G& 3@#&.9&* )%* /G&3K .&/$7)4 X3. J3.&7)#/&*[ #H.&)* $% *)P 3 J3. ) #H&7$!7 %)(& 3. !.(; )%* /G& #"( $# &I/&%*&* 39&. L *)P#O a&.& ).& /G& ."4/# $% ^$3.)%$ &/ )4O XBEYE[ 39&. !9& P&).#U J%.'.*; 2%%+%# 7%+5 K4E2&% FG:L# H&.7&%/$4 ?\5IYEEEE X@H[ i5 ?i5 Wh YOZFC OCFZ OECE YEh BO`F` OB_B OEWY BWh VOYWB OYV_ OEZY WEh YYOCCY OE`Z OYEE ZWh BBOZY` OEEB OYFV FEh VYOCC OYYB OBFW FWh ``OZW_ OY_C OVBW (&)% B` OEZW OYWE #/O *&9$)/$3% ZE OYFE OYVC
Convegno Economia e Incertezza
183
S$($4). ."4/# G34* 39&. YE P&).#O D9&.)44; /G& &..3.# ).& &IK /.&(&4P 43,O 'G$# #$>%)4# /G& >33* N")4$/P 3J /G& H.&*$7/$3%O <% H)./$7"4).; /G& ?\5 (&*$)% $# T"#/ )@39& YE @H# J3. @3/G W )%* YE P&). -\S]#; /G& (&)% $# B` @H# )%* VZ @H# J3. W )%* YE P&). -\S
C9?
F+53&%.#+* M.$1 =2%$+*L# =+,26 &*, #.54 .6&%#
R& 73(H).&* /G& )@39& H&.J3.()%7& ,$/G /G& ."4/# J3. /G& 2&.K /3%]# (3*&4 $% 53(; a&4,&>& )%* a")%> XBEEV[O R& J37"#&* 3% /G& @&G)9$3. 3J /G& H.&9$3"# (3*&4 !.#/ $% /&.(# 3J "%*&.c39&.H.&*$7/$3%; /G&% $% /&.(# 3J @$)#O ^3. /G& H.&*$7/$3%; ,& 7)% &I)($%& /G& J3443,$%> /)@4&U 2 2 2 2&./3%]# LMKJ.3( W P&).# LMKJ.3( YE P&).#22 2 2 2 2&)% hi5 #1!423 4413 5453 2 2 2 2 #* hi5 4)3 *63 *43 2 2 2 2 2&)% h?i5 473 *13 *23 2 2 2 2 #* h?i5 2!3 *23 *83
,G&.& #* #/)%*# J3. #/)%*).* *&9$)/$3%O 2&./3%]# (3*&4 /&%*# /3 "%*&./$()/& /G& #H.&)*#O 'G& "%*&.K /$()/$3% *$#)HH&).# ,G&% "#$%> LMO 2&./3%]# (&)% &..3.# )%* /G&$. #*# ).& ("7G 4).>&. /G&% /G& 3% H.3*"7&* @P LMO ?(3%> /G& (3*&4# //&* @P 53(; a&4,&>& )%* a")%>; /G& @/ H&.J3.(K $%> (3*&4 ,)# M&]# (3*&4 ,$/G ) (&)% h?i5 3J `WOZh )%* #* B_OCh; ("7G ,3.#& /G)% 3".#O R& /G&% 73%#$*&.&* /G& @$)#O <%*&&*; )# ,& #)$* )@39&; 2&./3%]# (3*&4 #&9&.&4P "%*&./$()/ #G3./ /&.( #H.&)*#O '3 )*T"#/ J3. 2&./3%]# (3*&4 ()$% H.3@4&(; )4/&.%)/$9& (3*&4# #&9&.&4P 39&.K /$()/& /G& G$>GK.$#1 #H.&)*# )%* "%*&./$()/& 43,K.$#1 3%O \3 /G& LM (3*&4 #""&. J.3( /G& #)(& @$)#j <% 3.*&. /3 )%#,&. ; ,& #&H).)/&* 3". *)/)#&/ $% V >.3"H#U ab X.$#1$&.[ 9&.#"#
Convegno Economia e Incertezza
184
J%.'.*; 2%%+%# 7%+5 K4E2&% H&.7&%/$4 ?\5IYEEEE X@H[ Wh YOV`E YEh BOEEZ BWh COEWV WEh WOEWC ZWh YBOZEE FEh Y_O_`_ FWh BBOZY` (&)% _OC #/O *&9$)/$3% ZOV
)I FG:L# i5 ?i5 KOYZB OEVE KOYBE OEWF KOEVV OEZ_ OE`W OYE` OYVE OYFV OCVB OC_C OVWZ OV`W OEZW OYZY OBBZ OYZB
'G& hi5 (&)% $# ZOWh; 43, )%* H3#$/$9&O 'G$# (&)%# /G)/ /G&.& $# 43, 39&.H.$7$%> O 'G& ?i5 (&)% $# 43, /33O 'G$# (&)%# /G)/ /G&.& $# %3 73(H&%#)/$3%O S3 /G&.& $# %3 @$)# $% /G$# 7)#&O ^$3.)%$ &/ )4O 73%#$*&. )4#3 /G& 3/G&. >.3"H#O ' %# )/ /G& #)(& H&.7&%/$4& X/G$# $# #G3,% @P /G& hi5[ ' 'G& ?\5 #G3,# )% G$>G&. &..3. $% /&.(# 3J @)#$# H3$%/#; @&7)"#& ab]# #H.&)*# ).& ("7G G$>G&. /G)% 3/G&. @$)# X#"7G )# 39&.H.&*$7/$3% 3J ab -\S #H.&)*#; ,G$7G $# /PH$7)4 3J /G& .&!%&(&%/# 3J 2&./3%]# (3*&4[ # 'G& LMK2&./3%]# (3*&4 H&.J3.(# ,&44 J3. @3/G ab )%*
Convegno Economia e Incertezza
185
K
>+.*$ '&6."%&$.+* &*, 7&'$+% ,27&-6$ 3%+"&".6.$.2#
D%7& LM $# #G3,% /3 @& #"H&.$3. )/ /G& #$%>4&K*&J)"4/ 4&9&4; 3%& 7)% "#& $/ J3. T3$%/ *&J)"4/ )###(&%/O ?# )% &I)(H4&; ,& .&H3./ /G& ."4/# 3@/)$%&* $% 6"7$)%3 XBEE`[O a&.& ) #)(H4& 3J !9& %)( ,)# #&4&7/&*U ?"/3A3%&; ^3.*; k.)J/; R)4/ \$#%&P; RG$.4H334O 'G& H).)(&/&.# 3J /G&$. )##&/ 9)4" "%K *&. /G& LM GPH3/G$# G)* @&&% *&.$9&* XJ.3( -\S H.$7[ $% 6"K 7$)%3 )%* S7G3"/&%# XBEE`[O \&H&%*&%7& ,)# 73(H"/&* "%*&. /G& )##"(H/$3% 3J ) "%$N"& 7G)%>& 3J /$(& J3. )44 /G& !.(# $% /G& #)(K H4&O 'G$# #$(H4$!&* /G& 7)4$@.)/$3%; @&7)"#& /G& 73(H"/)/$3% 3J /G& )##&/#]73..&4)/$3% 3. *&H&%*&%7& ,)# %3/ .&N"$.&*O a3,&9&.; /G& (&/G3*343>P 7)% @& >&%&.)4$A&*V O 'G& %&I/ /,3 /)@4 H.&%/ .H&7/$9&4P /G&$. 7)4$@.)/&* T3$%/ H.3@)@$4$/$ "%*&. /G& /.)*$/$3%)4 2&./3%]# (3*&4 )%* $/# LM &IK /&%#$3% Joint default probabilities, Merton model
Autozone Autozone Ford Kraft Walt Disney Whirlpool
6.065 0.030 0.053 0.508
Ford Kraft Walt Disney Whirlpool 6.065 0.030 0.053 0.508 0.080 0.143 1.356 0.080 0.001 0.007 0.143 0.001 0.012 1.356 0.007 0.012
Joint default probabilities, VG model
Autozone Autozone Ford Kraft Walt Disney Whirlpool
2.421 0.599 0.712 1.215
Ford Kraft Walt Disney Whirlpool 2.421 0.599 0.712 1.215 0.966 1.149 2.035 0.966 0.350 0.565 1.149 0.350 0.667 2.035 0.565 0.667
<%/"$/$3% #">>/# /G)/ %&>4&7/$%> T"(H# K 3. J)/ /)$4# 3. #"**&% $%J3.()/$3% )..$9)4 )%* /G& 934)/$4$/P $/ 7.&)/ K 4&)*# /3 "%*&.K /$()/$%> T3$%/ *&J)"4/ H.3@)@$4$/$O 'G& H&.7&%/)>& *$"&.&%7 $% V
6"7$)%3 )%* S&(&.).3 XBEYE@;7[ &I/&%* /G& /G&3.&/$7)4 (3*&4 ,./ /G$# ./.$7/$3%O
Convegno Economia e Incertezza
186
joint default probability differences
/G& 2&./3%]# )%* H".& T"(H *&J)"4/ H.3@)@$4$/$ 9$#")4$A&* @&43, 73%!.( /G& $%/"$/$3%O 'G&P )4#3 H3$%/ 3"/ /G& &I7&H/$3%#U /G$# $# $(H3./)%/; $% /G)/ /G& *$"&.&%7 .)/$3%)4$A& 3". !%)%7$)4 #&%#)/$3% #G3,$%> /G)/ $/ *3 %3/ G34* "%73%*$/$3%)44PO 150.0% 100.0% 50.0% 0.0% -50.0% -100.0% -150.0% -200.0% couples
'G& H.&9$3"# /)@4& $# $(H3./)%/ $% /G)/ .H&7/O R& 1%3, /G)/ #/)%*).* (3*&4# ,&.& H33. H.&*$7/3.# 3J /G& .&7&%/ !%)%7$)4 7.$#$#; #$%7& /G&P "%*&./$()/&* T3$%/ *&J)"4/; )# /G& )@39& 2&./3% (3*&4 *3 $% /G& &I)(H4&O 'G& H.&9$3"# /)@4& #G3,# /G)/ (3*&4# )@4& /3 39&.73(& #"7G H.3@4&( K )/ /G& T3$%/; %3/ 3%4P /G& #$%>4& 4&9&4 K &I$#/O
N
F+*'6-#.+*#
R& G)9& H.&%/&* )% $%%39)/$9& (3*&4 J3. 7.&*$/ .$#1 &9)4")/$3%; @)#&* 3% 2)*)% XBEEE[; 6"7$)%3 )%* S&(&.).3 XBEYE@;7[O R& G)9& #/.&%>/G&%&* /G& /G&3.&/$7)4 (3*&4 H.&%/)/$3% ,$/G )% )###(&%/ 3J $/# &(H$.$7)4 H&.J3.()%7&; @)#&* 3% ^$3.)%$; 6"7$)%3; S&(&.).3 XBEYE[; 6"7$)%3 XBEE`[O 'G& (3*&4 #&&(# /3 H&.J3.( ,&44 3% ().1&/ *)/)O 'G$# G)HH&%# @&7)"#& K @P 73%#/."7/$3% K $/ 7)H/". T"(H# K $O&O #"**&% 7G)%> K $% )##&/ 9)4"O !)#&* 3% /G& H.&9$3"# )%)4P#$#; ,& *).& /3 #">>/ /G)/ $/# "#& 73"4* 73(H4&(&%/ J"/".& )%)4P# 3J 7.&*$/ .$#1; $% /".@"4&%/ /$( #"7G )# /G& H.&%/ 3%&; ,G&% #"**&% $%J3.()/$3% )..$9)4# ).& K #3 /3 #)P K &9&.P*)P 4$J&O D". (3*&4 G3,&9&. $# %3/ /G& 3%4P 3%& $% /G$# #/.)%* 3J 4$/K &.)/".&U J3. )% )773"%/ 3J /G& #/)/& 3J /G& )./; #&& -).$@3%$ )%* S7G3"/&%# XBEEF[O
Convegno Economia e Incertezza
187
O
P272%2*'2#
-).$@3%$; eO )%* RO S7G3"/&%#; BEEF; !"#$ %&'()**)* +, -&).+/ 0+*1; XR$4&P ^$%)%7&; i)*#/3,; 8k[O -G&."@$%$ 8O; 5O 6"7$)%3; )%* RO L&77G$)/3; BEE`; -'2345 6)/7'.* +, 8+,5,(); Xe3G% R$4&P; i)*#/3,; 8k[O -4).1; iO kO; YFZC; ? #"@3.*$%)/&* #/37G)#/$7 H.37# (3*&4 ,$/G !%$/& 9).$)%7& J3. #H&7"4)/$9& H.$7 9(',':)/&+(5; VY; YCWK YWWO 53(; bO aO; a&4,&>&; eO; )%* eO a")%>; BEEV; S/."7/".)4 23*&4# 3J -3.H3.)/& !3%* i.$7$%>U )% 5(H$.$7)4 ?%)4P#$#; ;7) 0)#+)< '= 8+,5,(+54 >/3.+)*; YZ; VFFKWVVO ^$3.)%$; ^O; 5O 6"7$)%3 )%* iO S&(&.).3; BEYE; S$%>4& )%* T3$%/ *&J)"4/ $% ) #/."7/".)4 (3*&4 ,$/G H".&4P *$#73%/$%"3"# )##&/#; ?35,@ /+/5/+#) 8+,5,(); YE XC[; HHO BVFKB`VO M&()%; aO; 2)*)%; \O !O )%* b3.; 2O; BEEY; '$(& 7G)%> J3. 6d9P H.37# 65/7):5/+(54 8+,5,(); YY; ZFKF`O M&()%; aO BEEW; ^.3( (&)#".& 7G)%> /3 /$(& 7G)%> $% )##&/ H.$7$%>; A'3&,54 '= B5,1+,C 5,. 8+,5,(); BF; BZEYKBBO 6"7$)%3; 5O; BEE`; -3H"4)# )%* *&H&%*&%7& (3*&4# $% 7.&*$/ .$#1U *$""#$3%# 9&.#"# T"(H#; >/5/+*/+(5 D224+(5/5; Y_; WZCKW__O 6"7$)%3; 5O )%* RO S7G3"/&%#; BEE`; ? 2"4/$9).$)/& e"(HK \.$9&% ^$%)%7$)4 ?##&/ 23*&4; ?35,/+/5/+#) 8+,5,(); `; C_WKVEBO 6"7$)%3 5O; )%* iO S&(&.).3; BEYE); 2"4/$9).$)/& L).$)%7& M)(() )%* M)"##$)% *&H&%*&%7&U ) #/"*P ,$/G 73H"4)#; $% 65/7):5/+(54 5,. >/5/+*/+(54 6)/7'.* ='& D(/35&+54 >(+),()* 5,. 8+,5,(); &*O @P 2O -3.)AA) )%* 0O i$AA$; XSH.$%>&. L&.4)>[O 6"7$)%3; 5O; )%* iO S&(&.).3; BEYE@; ? M&%&.)4$A&* +3.()4 2&)% L).$)%7& 2$I/".& J3. 0&/".% i.37# $% ^$%)%7&; E,/)&@ ,5/+',54 A'3&,54 '= ;7)'&)/+(54 5,. D224+). 8+,5,(); YC XC[; 2)P BEYEO 6"7$)%3; 5O )%* iO S&(&.).3; BEYE7; 2"4/$9).$)/& '$(& -G)%> J3. 6d9P ?##&/ 23*&4#U 7G).)7/&.$A)/$3% )%* 7)4$@.)/$3%; A'3&,54 '= -':23/5/+',54 5,. D224+). 65/7):5/+(*; BCC; YFCZKWCO 2)*)%; \O!O )%* 5O S&%&/); YFFE; 'G& L).$)%7& M)(() XLOMO[ 23*&4 J3. SG).& 2).1&/ 0&/".%#; A'3&,54 '= B3*+,)**; `C; WYYKWBVO 2)*)%; \O!O; BEEE; i.$7$%> /G& 0$#1# 3J *&J)"4/; ,3.1$%> H)H&.;
Convegno Economia e Incertezza
188
8%$9&.#$/P 3J 2).P4)%*O 2&./3%; 0O; YFZV; D% /G& i.$7$%> 3J -3.H3.)/& \&@/U /G& 0$#1 S/."7/".& 3J <%/&./ 0)/ A'3&,54 '= 8+,5,(); BF; VVFKVZEO +&4#&% 0O !O; YFF_; D, E,/&'.3(/+', /' -'2345*; XSH.$%>&. L&.K 4)>; +&, b3.1; +b[O
Convegno Economia e Incertezza
189
Le misure di rischio nell’ambito della teoria delle probabilit`a imprecise Renato Pelessoni [email protected] Paolo Vicig [email protected] Dipartimento di Scienze Economiche, Aziendali, Matematiche e Statistiche “Bruno de Finetti” Universit`a di Trieste
1
Introduzione
Nell’ambito della finanza matematica hanno di recente riscosso un interesse crescente la ricerca di metodi e lo sviluppo di modelli teorici per la valutazione dei rischi connessi a posizioni finanziarie. Ha cos`ı assunto notevole rilievo la nozione di misura di rischio coerente, introdotta da P. Artzner, F. Delbaen, S. Eber e D. Heath in alcuni articoli [1, 2, 5] nei quali tali autori hanno individuato alcuni requisiti ritenuti, a loro giudizio, fondamentali e che ogni misura di rischio dovrebbe ragionevolmente soddisfare. In questo lavoro, dopo aver ricordato tale nozione ed averne illustrato le principali caratteristiche nella Sezione 2, ne viene evidenziata, nella Sezione 3, la stretta connessione con la teoria delle previsioni imprecise, seguendo la linea introdotta in [14]. Vengono successivamente illustrati alcuni problemi rilevanti per la teoria delle misure di rischio coerenti, tra i quali la generalizzazione della nozione di coerenza a spazi di numeri aleatori limitati privi di struttura. Inoltre, qualora una misura non sia coerente, si pu`o porre la necessit`a di determinarne una “correzione”, cio`e di individuare una misura di Convegno Economia e Incertezza
191
rischio coerente che le sia in qualche modo “vicina”. Analogamente, vi pu`o essere la necessit`a di determinare un’estensione di una misura di rischio coerente che sia definita su un insieme di numeri aleatori non sufficientemente ampio. Questi problemi, e la corrispondente nozione di estensione naturale, vengono affrontati nella Sezione 4. Nella Sezione 5 viene invece illustrata la nozione di misura di rischio convessa, una generalizzazione del concetto di misura di rischio coerente che consente di prendere in considerazione anche il cosiddetto liquidity risk e per la quale si provano, con riferimento alla teoria delle previsioni imprecise, risultati simili a quelli ottenuti per le misure coerenti. Nella Sezione 6 vengono infine fornite alcune indicazioni su ulteriori sviluppi e su alcuni modelli specifici nei quali la teoria della previsioni imprecise viene impiegata nella misurazione del rischio.
2
Misure di rischio coerenti
La nozione di misura di rischio trae origine dalla necessit`a di esprimere quale sia il grado di rischiosit`a dei numeri aleatori appartenenti ad un insieme D, ciascuno dei quali rappresenta il valore che assumer`a una certa posizione (rischio) in un istante futuro t = T . Una misura di rischio pu`o essere quindi definita come un’applicazione dall’insieme D in IR. La valutazione di un rischio viene spesso effettuata da un’autorit`a indipendente o da una sorta di supervisore il quale, pur non gestendo direttamente le posizioni, ha l’autorit`a e la responsabilit`a di decidere se tali posizioni possono essere assunte o meno (si potrebbe trattare ad esempio di un’autorit`a deputata al controllo delle compagnie assicurative o di una societ`a che debba valutare rischi assunti da societ`a controllate). Inoltre, poich´e usualmente vi `e un differimento temporale tra l’istante in cui la valutazione di rischio viene effettuata (t = 0) e l’istante (t = T ) in cui le posizioni vengono regolate, si assume di norma l’esistenza sul mercato di uno strumento di riferimento risk-free il quale, per ogni unit`a monetaria investita in t = 0, produca l’ammontare certo r in t = T . Operativamente dunque una misura di rischio ρ(X) assumer`a il significato, se ρ(X) > 0, di minimo ammontare che `e necessario aggiungere alla posizione X, in t = 0, ed investire in tale strumento, per rendere tale posizione accettabile al supervisore. Analogamente, se ρ(X) < 0, −ρ(X) rappresenter`a il massimo ammontare che `e possibile togliere ad X mantenendo la posizione risultante accettabile. In seguito si supporr`a che il differimento temporale sia trascurabile, in modo da poter porre Convegno Economia e Incertezza
192
r = 1. Questa ipotesi consente di semplificare le notazioni nel testo che segue, senza alterarne sostanzialmente le conclusioni. Naturalmente, perch´e una misura di rischio possa assumere un concreto significato operativo, `e necessario che questa soddisfi alcuni requisiti fondamentali di consistenza. Per tale ragione in [2] sono stati proposti degli assiomi di coerenza per le misure di rischio. Essi sono riportati nella definizione che segue, in cui IP indica una partizione dell’evento certo (in [2] supposta finita). Definizione 1 Sia L lo spazio lineare di tutti i numeri aleatori definiti su IP . Un’applicazione ρ : L → IR `e una misura coerente di rischio se e soltanto se soddisfa i seguenti assiomi: T) ∀ X ∈ L, ∀ α ∈ IR, ρ(X + α) = ρ(X) − α (invarianza per traslazioni) PH) ∀ X ∈ L, ∀ λ ≥ 0, ρ(λX) = λρ(X) (positiva omogeneit`a) M) ∀ X, Y ∈ L, se X ≤ Y allora ρ(Y ) ≤ ρ(X) (monotonia) S) ∀ X, Y ∈ L, ρ(X + Y ) ≤ ρ(X) + ρ(Y ) (subadditivit`a). Ciascuno dei precedenti assiomi ha un’interpretazione ben definita. Ad esempio, assumendo che i valori positivi dei numeri aleatori rappresentanti i rischi indichino dei guadagni, appare evidente come l’assioma di monotonia sia necessario. Relativamente alla subadditivit`a, se per due rischi X ed Y tale condizione non fosse soddisfatta, un’azienda che volesse assumere su di s`e il rischio X + Y potrebbe trovare pi` u conveniente assumere i due rischi separatamente, ad esempio attraverso due societ`a controllate separate o attraverso due conti distinti, rispettando comunque gli obblighi imposti da un eventuale supervisore. L’assioma di invarianza per traslazioni implica che ρ(X + ρ(X)) = 0. In tal modo, aggiungendo ρ(X) alla posizione iniziale X si ottiene una posizione a rischio nullo, coerentemente con l’interpretazione operativa di ρ. Infine, l’assioma di omogeneit`a `e stato giustificato in [2] con esigenze legate alla liquidit`a di una posizione, per cui, essendo la posizione λX generalmente meno liquida di X, appare ragionevole che la rischiosit`a dell’assumere la posizione λX non sia inferiore a quella relativa a λ posizioni X assunte singolarmente, cosicch´e λρ(X) ≤ ρ(λX) (la diseguaglianza inversa `e imposta dalla subadditivit`a). Quest’ultimo assioma `e stato tuttavia giudicato il pi` u critico da numerosi autori. Al fine di indebolirlo, `e stata quindi introdotta la famiglia delle misure di rischio convesse [8, 9, 10], discusse nella Sezione 5. Convegno Economia e Incertezza
193
3
Misure di rischio e previsioni imprecise
In letteratura sono numerosi i lavori in cui teorie dell’incertezza, diverse dalla teoria classica delle probabilit`a, sono state applicate a problemi decisionali [7, 12, 19, 24]. Tra queste teorie, una delle pi` u generali `e quella delle previsioni imprecise, il cui testo fondamentale di riferimento `e [21] ma per la quale va citato anche il lavoro di Williams [23]. Essa costituisce una generalizzazione della teoria delle previsioni precise di de Finetti [4] e comprende al suo interno numerose altre teorie dell’incertezza come casi particolari. In [14] viene provato come la teoria delle previsioni imprecise possa essere applicata alla misurazione del rischio e viene evidenziata la stretta relazione esistente tra essa e la teoria delle misure di rischio coerenti. In [14] si parte dalla considerazione che un individuo, che voglia dare una valutazione del rischio ρ(X) associato ad un numero aleatorio X, pu`o identificare tale valutazione con l’estremo inferiore della somma che egli richiederebbe, all’istante t = 0, per accollarsi tale rischio. Chiaramente, tale somma sar`a tanto pi` u grande quanto pi` u X `e rischioso. Poich´e acquisire X corrisponde a vendere −X, dal punto di vista comportamentale ρ(X) pu`o essere identificata con l’estremo inferiore dei prezzi di vendita, in t = 0, del numero aleatorio −X. Tale interpretazione comportamentale corrisponde a quella per le previsioni imprecise superiori nota in letteratura [21]. Si ottiene in questo modo la relazione ρ(X) = P (−X)
(1)
dove P indica una previsione imprecisa superiore. La misura di rischio ρ(X) pu`o essere cos`ı interpretata come l’estremo inferiore dei prezzi µ tali che il numero aleatorio µ + X sia desiderabile per l’individuo, tali cio`e che l’individuo sia disposto ad assumere (in t = 0) il rischio X in cambio di µ. In considerazione di tale interpretazione e della corrispondente relazione (1), in [14] `e stata proposta l’applicazione alle misure di rischio di due definizioni di consistenza per previsioni imprecise [21]. Definizione 2 Dato un insieme arbitrario D di numeri aleatori limitati, ρ : D → IR `e una misura di rischio su D che evita la perdita certa (avoiding sure loss - ASL) se e soltanto se, per tutti gli n ∈ N, per !n ogni X1 , . . . , Xn ∈ D, per ogni s1 , . . . , sn non negativi, posto G = i=1 si (ρ(Xi ) + Xi ), si ha sup G ≥ 0.
Convegno Economia e Incertezza
194
Si osservi che qualora la condizione sup G ≥ 0 della definizione precedente non sia soddisfatta, ! esisterebbero X1 , . . . , Xn ∈ D, s1 , . . . , sn ≥ 0 ed un $ > 0 tali che sup ni=1 si (ρ(Xi )+$+Xi ) < 0. L’individuo sarebbe dunque disposto ad assumere i rischi X1 , . . . , Xn ricevendo in cambio le quantit`a ρ(Xi ) + $ > ρ(Xi ), nonostante una combinazione lineare a coefficienti non negativi delle quantit`a desiderabili Xi + ρ(Xi ) + $ risulti uniformemente negativa. La condizione della Definizione 2 corrisponde quindi ad un criterio di razionalit`a di base e nella teoria delle previsioni imprecise `e considerata infatti una condizione di consistenza minimale. La condizione ASL pu`o essere caratterizzata tramite la nozione di dominanza. Si ponga D∗ = {−X : X ∈ D} e si indichi con M(ρ) l’insieme delle previsioni precise coerenti1 P su D∗ tali che P (−X) ≤ ρ(X) ∀X ∈ D. Vale allora il teorema seguente [21]. Teorema 1 Una misura di rischio ρ definita su un arbitrario insieme D di numeri aleatori limitati evita la perdita certa se e soltanto se M(ρ) '= ∅. La condizione ASL pu`o tuttavia risultare troppo debole per alcuni aspetti. Ad esempio essa non `e in generale incompatibile con la relazione ρ(X) > − inf(X) (cfr. in seguito). La seguente definizione di consistenza [14], pi` u forte della condizione ASL, rimuove la maggior parte delle caratteristiche insoddisfacenti di quest’ultima. La differenza con la Definizione 2 consiste nel fatto che essa ammette che l’individuo possa essere obbligato (se s0 '= 0) a cedere uno dei rischi al prezzo ρ(X0 ). Definizione 3 Dato un insieme arbitrario D di numeri aleatori limitati, ρ : D → IR `e una misura di rischio coerente su D se e soltanto se, per tutti gli n ∈ N, per ogni X0 ,! X1 , . . . , Xn ∈ D, per ogni s0 , s1 , . . . , sn reali e non negativi, posto G = ni=1 si (ρ(Xi ) + Xi ) − s0 (ρ(X0 ) + X0 ), si ha sup G ≥ 0. In [14] `e provato che la Definizione 3 `e equivalente alla Definizione 1 qualora l’insieme D coincida con L, lo spazio lineare di tutti i numeri aleatori definiti su una assegnata partizione. La Definizione 3 generalizza quindi la definizione originaria di misura coerente di rischio data in 1
La definizione di previsione (precisa) coerente `e quella di de Finetti [4].
Convegno Economia e Incertezza
195
[2]. Essendo basata, tramite la (1), sulla nozione di previsione superiore, essa consente di applicare alle misure di rischio note propriet`a della teoria delle previsioni imprecise, ottenendo cos`ı delle generalizzazioni di risultati presentati (apparentemente in modo indipendente) nella letteratura sulle misure di rischio. Per mezzo della relazione (1) le misure di rischio vengono inoltre a godere delle caratteristiche di flessibilit`a e generalit`a che caratterizzano le previsioni imprecise. In particolare si osservi che: 1) L’assegnazione di una misura di rischio ρ(X) non necessita di alcuna precedente assegnazione di una distribuzione di probabilit`a su X. 2) La Definizione 3 `e valida su insiemi di numeri aleatori (limitati) del tutto arbitrari e dunque pu`o essere applicata in situazioni molto generali. 3) Dati una misura di rischio coerente ρ definita su un generico insieme D ed un soprainsieme di numeri aleatori D" , esiste sempre una misura di rischio ρ" coerente su D" che coincide con ρ su D. 4) Data una misura di rischio ρ definita su D che eviti la perdita certa, esiste sempre una sua correzione canonica coerente ρ" definita su D" ⊃ D, tale cio`e che ρ" `e coerente su D" , ρ" ≤ ρ su D e per ogni altra misura ρ coerente su D" tale che ρ ≤ ρ su D si ha ρ ≤ ρ" su D" (cfr. la Sezione 4). Qualora l’insieme D non sia strutturato, non pare possibile definire la coerenza di previsioni imprecise, e quindi di misure di rischio coerenti, attraverso un semplice sistema di assiomi, come quelli della Definizione 1 (cfr. [21] Sezione 2.7). In particolare, bench´e necessari per la coerenza, quest’ultimi non sono in generale sufficienti a garantire la coerenza di una misura di rischio su un insieme arbitrario di numeri aleatori D. Si definisca, come semplice esempio, D = {X} e si consideri una misura di rischio ρ su D tale che ρ(X) > − inf X. Ovviamente tutti gli assiomi della Definizione 1 sono banalmente soddisfatti, ma tale misura non `e tuttavia coerente secondo la Definizione 3. Ci`o pu`o essere facilmente verificato ponendo n = 0, s0 = 1, X0 = X. Sarebbe peraltro poco ragionevole considerare consistente una tale misura. Si noti infatti, ricordando l’interpretazione operativa delle misure di rischio, che essa impone di aggiungere ad X un ammontare ρ(X) superiore alla massima perdita
Convegno Economia e Incertezza
196
− inf X che esso pu`o causare. Parimenti, secondo l’interpretazione comportamentale, essa indicherebbe che per assumere il rischio X si ritiene necessario richiedere una somma superiore a tale massima perdita. Tra le altre propriet`a delle misure di rischio coerenti note in letteratura che `e possibile generalizzare attraverso la relazione (1) vi `e la rappresentabilit`a tramite “scenari”, cio`e come inviluppo superiore di previsioni precise coerenti. Tale risultato, gi`a presente in [2], dove tuttavia gli scenari sono individuati da speranze matematiche, che sono com’`e noto particolari previsioni coerenti, rimane valido anche in assenza di struttura per l’insieme D. Teorema 2 (Teorema dell’inviluppo superiore) Una misura di rischio ρ definita su un generico insieme D di numeri aleatori limitati `e coerente se e soltanto se ρ(X) = sup{P (−X) : P ∈ P}
(2)
dove P ('= ∅) `e un insieme di previsioni precise coerenti su D∗ = {−X : X ∈ D}. Come osservato in [14], il Teorema 2 costituisce il fondamento teorico per una procedura di costruzione di misure di rischio. Le previsioni precise sull’insieme D∗ potrebbero infatti essere assegnate da un gruppo di esperti e una misura di rischio coerente pu`o essere ottenuta da queste tramite la (2). In tale ipotesi risulta quindi importante garantire che le previsioni (precise) degli esperti siano effettivamente coerenti, condizione questa che pu`o essere verificata in molti modi. Ad esempio, quando D `e un insieme finito di numeri aleatori semplici, la verifica si riduce alla risoluzione di un problema di programmazione lineare [4]. Un esempio concreto di utilizzo del teorema di inviluppo `e presentato in [2], dove `e provato che lo SPAN, un metodo di misurazione del rischio di mercato proposto dal Chicago Mercantile Exchange, `e basato sull’utilizzo di scenari. Per un altro esempio di uso di scenari si veda [20]. Bench´e pi` u debole della coerenza, la condizione ASL `e tuttavia importante. Essa infatti risulta in generale pi` u facile da verificare rispetto alla coerenza. Inoltre, come accennato precedentemente, ogni misura di rischio che eviti la perdita certa pu`o essere corretta in modo canonico. Come osservato in [14], alcune misure di rischio note in letteratura, bench`e non necessariamente coerenti, evitano tuttavia la perdita certa. Convegno Economia e Incertezza
197
Un’antica misura, menzionata in [2], che evita la perdita certa `e il “mittleres Risiko” ρM R , che pu`o essere definito ponendo, per ogni X ∈ D, ρM R (X) = P (X − ), dove X − = max{−X, 0} e P `e una previsione precisa coerente. Essendo X − ≥ −X, ne consegue che P (X − ) ≥ P (−X) e quindi ρM R evita la perdita certa per il Teorema 1. Si pu`o invece provare che il Value-at-Risk o VaR, probabilmente la misura di rischio pi` u diffusa nella pratica, non `e generalmente coerente n´e ASL, se non sotto condizioni particolari [14].
4
Estensione e correzione di una misura di rischio
Un problema rilevante appare dunque quello di correggere una generica misura di rischio, qualora questa non sia coerente, cio`e di determinare una misura di rischio coerente definita sullo stesso insieme di numeri aleatori “vicina” alla misura di rischio originaria. Questo problema `e stato parzialmente esaminato in [2], dove viene illustrata una tecnica che consente, data una certa misura di rischio su un insieme di numeri aleatori preassegnati, di correggerla ed estenderla in modo canonico. In [14] `e provato che tale tecnica coincide con la costruzione di una nuova misura di rischio ottenuta applicando la relazione (1) all’estensione naturale [21] della previsione superiore corrispondente alla misura di rischio iniziale. Pi` u precisamente, data una misura di rischio ρ su un insieme D e dato un insieme di numeri aleatori limitati D" ⊃ D, `e possibile, ∀X ∈ D" , costruire la misura di rischio n " # ρE (X) = inf α ∈ IR : α + X ≥ λi (ρ(Xi ) + Xi ), i=1
$ per qualche n ≥ 0, Xi ∈ D, λi ≥ 0
che gode delle seguenti propriet`a:
a) se ρ evita la perdita certa, ρE `e una misura di rischio coerente su D" ; b) ρE (X) ≤ ρ(X), ∀X ∈ D; c) se ρ∗ `e una misura di rischio coerente su D" tale che ρ∗ (X) ≤ ρ(X), ∀ X ∈ D, allora ρ∗ (X) ≤ ρE (X), ∀ X ∈ D" ; Convegno Economia e Incertezza
198
d) ρ `e coerente se e soltanto se ρE = ρ su D; e) ρ evita la perdita certa se e soltanto se ρE `e finita. La propriet`a b) consente di affermare che la misura di rischio ρE `e meno prudenziale della misura di rischio originaria ρ, mentre dalla propriet`a c) si pu`o concludere che tra tutte le misure di rischio coerenti meno prudenziali di ρ, la misura ρE risulta la pi` u prudenziale. Le propriet`a d) ed e) caratterizzano le misure rispettivamente coerenti ed ASL tramite l’estensione naturale. Per quanto riguarda la possibilit`a di costruire effettivamente la ρE a partire da un’assegnata misura di rischio, nel caso in cui l’insieme D sia un insieme finito di numeri aleatori semplici il problema si riduce in pratica alla risoluzione di problemi di programmazione lineare [13, 22]. La ρE non risolve tuttavia definitivamente il problema della correzione di una misura di rischio incoerente ρ, sia perch´e il suo impiego comunque richiede che ρ eviti a priori la perdita certa (propriet`a e)), sia perch´e, come osservato in [2], potrebbe essere richiesto che la correzione ρ" soddisfi alcuni ulteriori vincoli. Ad esempio potrebbe essere richiesto che ρ" sia non meno prudenziale di ρ, cio`e che sia soddisfatto il vincolo ρ" ≥ ρ. Quest’ultimo impedirebbe quindi l’uso della ρE poich´e questa opera una correzione “dal basso”, come evidenziato dalla propriet`a b).
5
Misure di rischio convesse
Una generalizzazione delle misure di rischio coerenti, studiata con approcci diversi in [8, 9, 10], `e costituita dalle misure di rischio convesse, che consentono di tenere conto del liquidity risk o pi` u in generale di situazioni di avversione al rischio. Esse sono definite sostituendo nella Definizione 1 gli assiomi S) e P H) con un assioma di convessit`a. Precisamente si ha [8]: Definizione 4 Sia L uno spazio lineare di numeri aleatori limitati contenente le costanti. Un’applicazione ρ da L in IR `e una misura di rischio convessa se e soltanto se soddisfa i seguenti assiomi: C) ρ(λX + (1 − λ)Y ) ≤ λρ(X) + (1 − λ)ρ(Y ) ∀X, Y ∈ L, ∀λ ∈ [0, 1] (convessit` a) T) ∀ X ∈ L, ∀ α ∈ IR, ρ(X + α) = ρ(X) − α (invarianza per traslazioni) Convegno Economia e Incertezza
199
M) ∀ X, Y ∈ L, se X ≤ Y allora ρ(Y ) ≤ ρ(X) (monotonia). Si verifica facilmente che ogni misura di rischio coerente, che soddisfi cio`e la Definizione 1, `e anche convessa. Analogamente a quanto illustrato nella Sezione 3, tramite la teoria delle previsioni imprecise `e possibile introdurre una nozione di convessit`a (debole o forte) per misure di rischio definite su insiemi arbitrari di numeri aleatori (limitati) [15]. Dallo studio di tale nozione appare che la convessit`a forte conserva molte delle propriet`a della coerenza. Sia D un insieme arbitrario (non vuoto) di numeri aleatori limitati. Definizione 5 Un’applicazione ρ : D → IR `e una misura di rischio debolmente convessa se e soltanto 1 , . . . , Xn ∈ D, !n se, ∀n ∈ N, ∀X0 , X! ∀si ≥ 0 (i = 1, . . . , n) tali che i=1 si = 1, posto G = ni=1 si (ρ(Xi ) + Xi ) − (ρ(X0 ) + X0 ), si ha sup G ≥ 0. La Definizione 3 di misura di rischio coerente si pu`o ottenere dalla !n Definizione 5 semplicemente rimuovendo la condizione i=1 si = 1. Perci`o ogni misura coerente risulta debolmente convessa; viceversa, una misura debolmente convessa pu`o non verificare neanche la condizione di avoiding sure loss (Definizione 2). La convessit`a debole estende ad insiemi arbitrari la nozione di misura convessa gi`a nota su spazi lineari: Proposizione 1 Se D `e uno spazio lineare (contenente le costanti), ρ `e debolmente convessa se e soltanto se `e convessa (secondo la Definizione 4). Alcune interessanti caratteristiche della convessit`a debole sono evidenziate nella proposizione che segue. Le propriet`a valgono quando i numeri aleatori coinvolti appartengono a D; si supporr`a comunque che 0 ∈ D. Proposizione 2 Sia ρ debolmente convessa su D. a) ρ(X1 + X2 ) ≤ λρ(X1 /λ) + (1 − λ)ρ(X2 /(1 − λ)) ∀λ ∈]0, 1[ b) ρ `e ASL su D se e soltanto se ρ(0) ≥ 0 c) ∀µ ∈ IR, ρ∗ (X) = ρ(X) + µ `e debolmente convessa su D.
Convegno Economia e Incertezza
200
La propriet`a a) si riduce alla subadditivit`a se ρ `e positivamente omogenea e risulta compatibile con forme di avversione al rischio. Per la b), `e necessario, affinch´e ρ sia almeno ASL, che sia ρ(0) ≥ 0. In effetti, la scelta ρ(0) = 0 appare estremamente ragionevole di per s`e nelle applicazioni, per ogni misura di rischio, ed `e comunque verificata dalle misure di rischio coerenti. Osserviamo ancora che, per la c), se `e ρ(0) '= 0, ρ pu`o essere “sostituita” da ρ∗ (X) = ρ(X) − ρ(0), per cui riesce comunque ρ∗ (0) = 0, mantenendo la convessit`a. Per le precedenti considerazioni, appare naturale rafforzare la convessit`a debole come segue: Definizione 6 Un’applicazione ρ : D → IR `e una misura di rischio strettamente convessa se e soltanto se `e debolmente convessa su D e ρ(0) = 0. Riassumiamo di seguito alcune propriet`a delle misure strettamente convesse [15]. Proposizione 3 Valgono le seguenti: i) Se ρ : D → IR `e strettamente convessa, ρ(λX) ≤ λρ(X) ∀λ ∈ [0, 1] e ρ(λX) ≥ λρ(X) ∀λ ≥ 1. ii) Se {ρn }n∈N `e una successione di misure di rischio strettamente convesse su D e se ∀X ∈ D esiste limn→+∞ ρn (X) = ρ(X), allora ρ `e una misura di rischio strettamente convessa su D (convergenza puntuale). iii) Ogni combinazione lineare convessa di misure di rischio strettamente convesse su D `e una misura di rischio strettamente convessa su D (chiu-sura per combinazioni convesse). iv) Una misura di rischio strettamente convessa su D ammette prolungamenti strettamente convessi su ogni D" ⊃ D (teorema del prolungamento). v) ρ `e strettamente convessa su D se e soltanto se esistono un insieme P di previsioni precise coerenti ed una funzione non positiva α : P → IR tali che ρ(X) = supP ∈P {P (−X) + α(P )} (teorema di inviluppo).
Convegno Economia e Incertezza
201
La i) evidenzia che una misura di rischio strettamente convessa `e compatibile con valutazioni che esprimano avversione al rischio (o presenza di liquidity risk ). Le ii), iii), iv) sono esempi di importanti propriet`a che sono soddisfatte dalle misure coerenti e che valgono anche per misure strettamente convesse (le propriet`a ii) e iii) anche per misure debolmente convesse). La v) `e una generalizzazione del noto teorema dell’inviluppo [21]. Rispetto a risultati analoghi [8, 9, 10] in v) non si fa riferimento a strutture per D, mentre P `e un insieme di previsioni anzich´e di probabilit`a. Dai risultati della Proposizione 3 e da altri che `e possibile ricavare [15], la convessit`a forte appare un rilassamento non eccessivo della coerenza, di cui conserva molte propriet`a, senza peraltro presupporre indifferenza al rischio.
6
Cenni su alcune applicazioni
Nelle precedenti sezioni sono state delineate le principali connessioni fra previsioni imprecise e misure di rischio coerenti o convesse. In entrambi i casi l’impiego di previsioni imprecise permette di generalizzare il dominio su cui tali misure sono definite, nonch´e di applicare alle misure di rischio noti risultati e propriet`a della teoria delle previsioni imprecise. ` tuttavia possibile estendere tali connessioni in pi` E u direzioni. In primo luogo, si possono definire misure di rischio condizionate generalizzando la relazione (1) nella forma ρ(X|A) = P (−X|A),
(3)
dove X `e numero aleatorio ed A un evento non impossibile. La maggior parte delle propriet`a che sono state evidenziate in precedenza continua a valere anche in ambiente condizionato. Ad esempio, `e possibile definire il concetto di estensione naturale condizionata, di misura di rischio convessa centrata condizionata, ecc.. Per un’analisi approfondita si veda [16, 17]. In secondo luogo, le misure di rischio tradizionali sono solitamente definite in funzione di distribuzioni di probabilit`a precise o loro indicatori di sintesi, come speranze matematiche, varianze, ecc.. Tale caratteristica pu`o essere generalizzata introducendo l’imprecisione anche a questo livello, ad esempio sostituendo speranze matematiche con previsioni imprecise superiori o inferiori. Convegno Economia e Incertezza
202
In particolare, questo tipo di indagine `e stato sviluppato in [3] per le cosiddette Dutch Risk Measures, una particolare famiglia di misure di rischio, definite originariamente in [11] da ρD (X) = E(−X) + cE[max(E(X) − X, 0)], c ∈ [0, 1],
(4)
dove E `e una speranza matematica. La generalizzazione in [3] definisce invece ρ"D (X) = ρ(X) + cρ1 [max(ρ(X) + X, 0)], c ∈ [0, 1],
(5)
dove ρ"D `e interpretabile come una misura di rischio di secondo livello, correzione della misura di primo livello ρ tramite un termine proporzionale alla sua inadeguatezza, valutata con la misura di rischio ρ1 . Si noti che mentre la misura ρD presuppone l’assegnazione di un’unica probabilit`a da cui si ottiene la speranza matematica E, le misure di rischio ρ e ρ1 che compaiono nell’espressione di ρ"D possono essere anche diverse, per esempio possono essere assegnate da due soggetti distinti, anche indipendentemente. Si prova che la misura ρ"D `e coerente (oppure convessa) se ρ, ρ1 lo sono, e che, qualora utilizzata per calcoli di premi assicurativi, essa consente una flessibilit`a molto maggiore rispetto alla misura originaria ρD . Un’altra applicazione `e stata studiata in [18], dove si `e mostrato che sia la misura di rischio denominata Tail-Value-at-Risk o TVaR [6], sia una sua generalizzazione che impiega previsioni superiori imprecise chiamata Imprecise TVaR o ITVaR, possono essere ottenute a partire da (pi` u precisamente, come estensione naturale di) una particolare assegnazione di probabilit`a superiore coerente su, rispettivamente, un’algebra ed un reticolo di eventi. Tale probabilit`a superiore `e definita per ogni evento A come P (A) = min{(1 + δ)P (A), 1}, dove P `e una probabilit`a e δ > 0 corrisponde ad un caricamento, ed `e nota in letteratura come modello Pari–Mutuel [21]. Essa formalizza in modo da garantire la coerenza il semplice modello moltiplicativo che suggerisce di costruire una probabilit`a superiore moltiplicando una probabilit`a (precisa) per un fattore maggiore di 1. Il modello Pari–Mutuel `e usato in pratica in vari sistemi di scommesse. Per un’analisi approfondita di varie questioni che lo riguardano, si veda [18].
Convegno Economia e Incertezza
203
Bibliografia [1] P. Artzner, Application of coherent risk measures to capital requirements in insurance, North American Actuarial Journal, 3 (2), 11–25, 1999. [2] P. Artzner, F. Delbaen, S. Eber, D. Heath, Coherent measures of risk, Mathematical Finance, 9 (3), 203–228, 1999. [3] P. Baroni, R. Pelessoni, P. Vicig, Generalizing Dutch risk measures through imprecise previsions, International Journal of Uncertainty, Fuzziness and Knowledge Based Systems, 17 (2), 153–177, 2009. [4] B. de Finetti, Theory of Probability, vol.1, Wiley, 1974. [5] F. Delbaen, Coherent risk measures on general probability spaces, in Advances in finance and stochastics, Springer-Verlag, 1–38, 2002. [6] M. Denuit, J. Dhaene, M. Goovaerts, R. Kaas, Actuarial Theory for Dependent Risks: Measures, Orders and Models, Wiley, 2005. [7] K. J. Engemann, H. E. Miller, R. R. Yager, Decision making with belief structures: an application in risk management, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 4 (1), 1–25, 1996. [8] H. F¨ ollmer, A. Schied, Convex measures of risk and trading constraints, Finance and Stochastics, 6 (4), 429-447, 2002. [9] H. F¨ ollmer, A. Schied, Robust preferences and convex measures of risk, in Advances in Finance and Stochastics, Springer-Verlag, 39–56, 2002. [10] M. Frittelli, E. R. Gianin, Putting order in risk measures, Journal of Banking & Finance, 26 (7), 1473–1486, 2002. [11] A.E. van Heerwarden, R. Kaas, The Dutch premium principle, Insurance: Mathematics and Economics, 11 (2), 129–133, 1992. [12] J. Y. Jaffray, Rational decision making with imprecise probabilities, in Proc. ISIPTA’99, 183–188, 1999. [13] R. Pelessoni, P. Vicig, A consistency problem for imprecise conditional probability assessments, in Proc. IPMU’98, 1478–1485, 1998. [14] R. Pelessoni, P. Vicig, Imprecise previsions for risk measurement, International Journal of Uncertainty, Fuzziness and Knowledge-based Systems, 11 (4), 393–412, 2003. [15] R. Pelessoni, P. Vicig, Convex imprecise previsions, Reliable Computing, 9 (6), 465–485, 2003. Convegno Economia e Incertezza
204
[16] R. Pelessoni, P. Vicig, Uncertainty modelling and conditioning with convex imprecise previsions, International Journal of Approximate Reasoning, 39 (2-3), 297–319, 2005. [17] R. Pelessoni, P. Vicig, Envelope theorems and dilation with convex conditional previsions, in Proceedings of ISIPTA’05, 266-275, 2005. [18] R. Pelessoni, P. Vicig, M. Zaffalon, Inference and Risk Measurement with the Pari-Mutuel Model, International Journal of Approximate Reasoning, accettato per la pubblicazione. [19] D. Schmeidler, Subjective probability and expected utility without additivity, Econometrica, 57 (3), 571–587, 1989. [20] T. K. Siu, H. Tong, H. Yang, Bayesian risk measures for derivatives via random Esscher transform, North American Actuarial Journal, 5 (3), 78–91, 2001. [21] P. Walley, Statistical Reasoning with Imprecise Probabilities, Chapman and Hall, 1991. [22] P. Walley, Measures of uncertainty in expert systems, Artificial Intelligence 83 (1), 1–58, 1996. [23] P. M. Williams, Notes on conditional previsions, International Journal of Approximate Reasoning, 44 (3), 366–383, 2007. [24] R. R. Yager, Decision making under Dempster-Shafer uncertainties, International Journal of General Systems, 20 (3), 233–245, 1992.
Convegno Economia e Incertezza
205