Apr 022020
 

COVID-19 is the acronym for “coronavirus disease 2019”, an infectious respiratory disease, whose rapid outbreak made the World Health Organization (WHO) declaring it to be a global pandemic last 11th March 2020. The diagnosis is confirmed by a test and no vaccine has been yet identified.

According to the WHO, 80% of people who become infected will recover without the need of any special treatment, while older adults, as well as people with underlying compromised medial conditions (like heart disease, lung disease or diabetes) seem to be at higher risk for developing serious complications. Common symptoms are fever, cough and breathing difficulties, but in more severe cases, the infection can also lead to pneumonia or severe acute respiratory syndrome, even causing the death of the individual. The virus spreads through the air by coughing and sneezing and through close personal contact, like shaking hands. It is also possible that a person gets COVID-19 by touching a surface that has the virus on it and then touching its own mouth, nose or eyes.

Because of the rapid spread of the novel Coronavirus, all governments have taken drastic measures to contain it, such as school closures, prohibitions against public gatherings, closures of restaurants and bars, widespread quarantine and shelter-in-place orders. Many states are already lockdown and, probably, many others will be soon. The long-term business impacts of these measures are a matter of conjecture, but what is sure is that the outbreak has already caused widespread concern and economic hardship for consumers, businesses and communities. COVID-19 is challenging our social security systems, putting under pressure the healthcare, illness and unemployment benefits.

Although most companies already have business continuity plans, they usually seem not to be prepared for an outbreak like this: the stock market has plunged, and businesses have begun to feel the immediate strain of the drastic measures, being unable to fulfil their obligations and therefore facing some losses.

Most of the firms were not ready to tackle a pandemic scenario and in less than two weeks had to switch from a mainly on-site servicing to a total smart-working environment, setting up lots of VPN infrastructures and activating remote desktops.

For what concerns the insurance industry, the limits of some policies have emerged, showing a little flexibility in offering ad-hoc coverages or customized extensions. Moreover, insurances need to change: agents have to use digital collaboration instruments, like video chat, to shorten the physical distance with their clients, maintaining the engagement and the documentation needs to be fully digitalized, using on-line authentication systems. Obviously, all the services must be available on line so that the policyholders can review their policies, make changes or check the status of their claims. The insurance industry needs to form strategic alliances as well as to integrate insurtech with traditional models and to invest in technology and human capital.

A positive outcome of the COVID-19 outbreak may be the birth of new needs, driven by a change in the consumers’ mind-set: people will seek for more coverages, being more sensitive to unforeseeable tragic events. The perception of the risk has already changed. It is easy to draw a parallelism with two other moments in time of public fear, like the terrorist attacks of 2001 and the subprime crisis of 2008: both have boosted the spread of digitalization in our habits. The beginning of 2000 saw the rising of on-line platforms such as Google, Amazon, Ebay and Paypal, while fintech and sharing economy services like Uber and Airbnb started their gradual appearance after 2008. India and Italy, countries that are currently under lockdown, already provide two examples.

  • INDIA

Over the last month, as the number of coronavirus positive cases started growing, the demand for life and health insurance policies has skyrocketed, with a 40% increase in online insurance sales.

Insurers, together with the distributors, are deploying an increased volume of health professionals to consult with patients over the phone, making unnecessary the need of physical contact.

Thanks to its comprehensive health insurance policies, linked to coronavirus specific insurance products, the company Digit Insurance, whose headquarters are located in Bangalore, experienced a 50% increase in average policies sold per day comparing March over January.

  • ITALY

The “bel paese” has been seen as under insured for a long time and this was blamed to its culture, not properly inclined to prevent and manage the risks, but things are changing: the insurtech platform Yolo states that on line queries related to health insurance policies have grown incredibly in the last weeks. Moreover, two large Italian companies (FS Italiane Group and Enel) have recently decide to buy additional insurance coverages for their employees in the event of hospitalization with the COVID-19 virus. On the 25th March 2020 FS has bought an insurance coverage managed by UniSalute of one year duration, that provides a daily allowance and a care services package. One day after, Enel has drawn up an insurance policy developed by Aon SpA, specifically designed for the needs of the Enel Group, which provides a cash allowance.

All these examples concern Life and Health businesses, but COVID-19 is expected to have a large impact on the Non-life business as well: let us think of car insurances and business continuity policies.

  • In the first case, insurances will experience a better combined ratio, as the claims are bound to drop significantly due to the drastic measures adopted by the governments: with dramatically fewer cars on the road and businesses closed, the level of motor liability claims will plummet.

For this reason but also with the aim of helping middle class people struggling with economic difficulties, many car insurance companies have offered extended grace periods and other payment options to people who are not able to afford the premiums. This initiative has widely spread over both northern Italy in the early red areas (as ANIA – the Italian National Insurance Association – has recalled last 28th February) and in California, where the Insurance Commissioner has requested that insurance companies allow a 60-day premium grace period due to COVID-19. Furthermore, a petition has been filed to demand a refund or credit premiums to drivers because fewer accidents will mean bigger profits for auto insurers.

  • Business interruption insurance provisions cover lost income and associated increased costs that a business incurs during a period of interruption to its operations, that is caused by direct physical loss or damage caused by the interruption of the business of the policyholder. A growing number of complaints from restaurants, pubs and other venues have already been refused as the insurance companies assert that the closure of their property, due to the outbreak of the COVID-19, is outside the policy limits. Following the SARS outbreak in 2003, most insurers added broad exclusions for damage caused by biological agents or communicable diseases and many policies have waiting periods before the coverage starts. Just in few cases, the cover is triggered and the compensation provided, but, most of the times, it is not straightforward to understand the exclusions: for instance, policies covering communicable diseases may not accept the COVID-19 as it did not originate inside the buildings. Moreover, if all the insurance companies were to cover all the business interruptions policies, many of them would become insolvent; it is also questionable whether it is fair to call insurers to pay out these claims when the governments already provide assistance.

COVID-19 is also having a significant impact on the markets and, in turn, on the SII position of all the insurance players.

As reported by the OECD in their Interim Economic Assessment dated 2nd March 2020, COVID-19 has already brought major economic disruption: “Output contractions in China are being felt around the world, reflecting the key and rising role China has in global supply chains, travel and commodity markets. Subsequent outbreaks in other economies are having similar effects, albeit on a smaller scale. Growth prospects remain highly uncertain”. The global growth is likely decreasing by around half percentage point this year compared to the expectation of the Economic Outlook made in November 2019, as shown in the following.

For what concerns Italy, the already lagging economic growth showed in the table below as reported by ISTAT in their statistics dated March 2020, is expected to worsen due to the crisis the country is undergoing.

The following paired charts aim at both drawing a parallelism with the 2008 financial crisis and at highlighting the reaction of the markets to the COVID-19 outbreak.

All quantities are rescaled to a starting value of 100 to ease the comparison, except Bitcoin (0.01) and VIX (10).

The fall of Brent Oil (-60% from the beginning of the year) after the economic slowdown is dramatic, while Gold and Wheat seem to resist. Bitcoins are somehow recovering after a huge drop, showing a consistently higher volatility than Gold, the safe-haven asset by definition.

The equity market performance is also performing very negatively (-30% since 01.01.2020), recalling what we saw in 2008/2009, joined with a high level of fear registered by the VIX index.

About the foreign exchanges, it is very interesting to notice that since the beginning of the year, GBP has lost much more value (-5.7%) than USD (-1.3%) compared to the EUR currency (at 30.03.2020, 1 GBP = 1.23 EUR, while 1 USD= 0.81 EUR). The USD rise experienced during the first ten days of March can be attributed to the fact the pandemic was already well spread through Europe, but it was not yet that recognised as an issue in the States.

Lastly, it is very important to look at the evolution of the spreads over the 10-years BUND.

Although it has not reached the 500bps recorded in 2012-2013, Italy has almost breached the 300bps level (2.7%) last 17th of March. The spreads of Italy, Spain and France seem to move with a certain correlation, but still being based on quite different levels.

Spreads in general (of both Government and Corporate bonds) are a crucial element in the determination of the SII position of the insurance companies, as they do not only affect the Assets values, but also the Liabilities ones though the mechanism of the Volatility Adjustment (VA). When the spreads rise, and the value of the Assets falls down, the VA, applied on top of the Risk Free yield curve, increases as well, reducing the value of the Liabilities. In addition to the Currency VA, related to a certain currency (e.g. EUR) and derived over a reference portfolio of Assets, a Country VA is applied in situations where a country (e.g. IT) suffers a remarkable credit downgrade of its government bonds. The downgrade should be such that the risk corrected country spread is greater than twice the risk-corrected currency spread and the risk correct country spread is greater than 85 (previously 100) bps. As the Country VA works like a binary variable (on/off) rather than a continuous function, in an unstable economic environment like the one we are experiencing, the SII position of especially Italian Insurance companies can vary significantly from one day to the other. Furthermore, it always important to stress that the VA calculation is based on a pre-defined reference investment portfolio, representing an average European insurer and may not be appropriate for firms that show different durations or assets allocations.

The following chart, reported by ANIA in their newsletter trend dated March 2020, depicts the evolution of the EUR risk corrected currency spreads and the IT risk corrected country spread, highlighting the VA country thresholds (please note that the value of March is the one registered on the 12th).

This last chart shows the Net Capital gain of the Assets hold by the Italian Insurance companies. At the end of December 2018, its value was around 22blns, less than a third of the value of 71blns registered in December 2019, coherently to the spread that has fallen from 250 to 160bps and the 10y-BTP rate that has fallen as well (from 2.73% to 1.42%). At the end of February 2020, the net Capital gain was around 75bln (higher than in December 2019), together with a higher spread of 167bps but a lower 10y-BTP rate (1.13% vs 1.42%). This picture may change significantly at the end of March 2020, just in correspondence of the 20Q1 SII evaluation.

Mar 132020
 

Under the regulation in force, in the Solvency II balance sheet the liabilities are valued at market level. The Best Estimate of liabilities is calculated by discounting future cash-flows using the risk free rate. On top of the risk free curve, EIOPA allows to add a Volatility Adjustment (VA). The VA aims to dampen irrational market movements that are associated with non-motivated credit spreads (corporate and government bonds). The purpose of the VA is to moderate the effect of low prices as a result of poor liquidity conditions or exceptional (non- credit related) widening of bond spreads.

The regulation refers to exaggerations of bond spreads.  Thanks to the VA mechanism, the Own Funds of an insurance company should not be affected by temporary/non fundamental changes of bond prices yielding a lower Best Estimate of liabilities and a higher capital ratio.

There is some evidence that the actual VA is not effective and is not able to capture irrational spread movements, see Barucci et al. (2019).

 The regulation in force assumes that the VA is made up of two components: the currency VA (VAcu) and the country VA (VAco). In case of Italy, the first component refers to the euro, the second one to the country. The first component is defined as:

VAcu = 65%SRCcu;

where SRCcu is the risk-corrected currency spread which is given by

SRCcu = Scu – RCcu;

with Scu being the currency spread and RCcu the risk correction computed according to the reference portfolio associated with the currency, i.e.,

Scu = wgov_cu max( Sgov_cu ; 0) + wcorp_cu max( Scorp_cu ; 0);

RCcu = wgov_cu max( RCgov_cu ; 0) + wcorp_cu max( RCcorp_cu ; 0).

The variables at currency level are as follows:

  • wgov_cu denotes the weight of the value of government bonds included in the reference portfolio for that currency;
  • wcorp_cu denotes the weight of the value of bonds other than government bonds, loans and securitisations included in the reference portfolio for that currency;
  • Sgov_cu denotes the average spread of government bonds, loans and securitisations included in the reference portfolio for that currency;
  • Scorp_cu denotes the average spread of bonds other than government bonds, loans and securitisations included in the reference portfolio for that currency;
  • RCgov_cu denotes the risk correction of government bonds included in the reference portfolio for that currency;
  • RCcorp_cu denotes the risk correction of bonds other than government bonds, loans and securitisations included in the reference portfolio for that currency.

The VAco is computed as:

VAco = 65% max(SRCco – 2SRCcu; 0),

where the risk-corrected country spread SRCco is defined as in the currency case for a country specific reference portfolio, i.e.

SRCco = Sco – RCco;

with Sco being the country spread and RCco the risk correction computed according to the reference portfolio associated with the country

Sco = wgov_co max(Sgov_co ; 0) + wcorp_co max(Scorp_co ; 0);

RCco = wgov_co max(RCgovco ; 0) + wcorp_co max(RCcorp_co ; 0).

Therefore

  • VAcu (VAco) is the currency (country) VA,
  • SRCcu (SRCco) is the currency (country) risk-corrected spread,
  • Scu (Sco) is the currency (country) spread,
  • RCcu (RCco) is the currency (country) risk correction.

The VA is computed as

VA= 65% (SRCcu+1SRCco>1%max(SRCco – 2SRCcu; 0)),

In the Consultation paper on the Opinion on the 2020 review of Solvency II by European Insurance and Occupational Pensions Authority (2019), the following Options have been proposed to modify the VA:

  1. Undertaking-specific VA – calculating the VA based on the undertaking- specific asset weights (and not for weights at market level). For each asset class, the spreads used in the calculation of the VA would still be the same for all undertakings and taken from market indices.
  2. Middle bucket approach – in addition to the current VA an undertaking-specific VA is introduced, but subject to strict application criteria that relate to the asset liability management of the undertaking.
  3. Asset driven approach – instead of applying the VA to the risk-free interest rates of technical provisions it would be used to revalue the bonds held by the undertaking by adjusting the bond spreads by the VA. The difference in the value of the bonds without and with the VA adjustment is recognised as an own funds item.
  4. An adjustment that takes into account the amount of fixed-income assets and the asset-liability duration mismatch by means of application ratios.
  5. An adjustment that takes into account the illiquidity features of liabilities by means of an application ratio.
  6. The risk-correction to the spread is decoupled from the fundamental spread, and instead calculated as a fixed percentage of the spread.
  7. Amend the trigger and the calculation of country-specific increase of the VA.
  8. Establish a clearer split of the VA between its function as a crisis and a permanent tool.

In the document Barucci e Marazzina (2020) we provide an answer to three questions provided in the Consultation Paper:

Q2.3: What is your view on the identified deficiencies of the current VA?

Q2.4: What is your view on this deficiency of the country-specific component of the VA? How should it be addressed? (You may want to take into account in particular the options 1, 7 and 8 set out in the following section.)

In a nutshell the main results of our analysis are the following:

  • There is some evidence of cliff edge/erratic behavior of the VA in the actual setting.
  • There is some evidence of overshooting in the impact of the VA mechanism in the actual setting (come insurance companies benefit more than others because of asset allocation strategies/credit quality of their assets).
  • The VA seems to capture turbulence in financial markets and risk aversion surges, there is almost no evidence that the VA reflects illiquidity in  financial markets.
  • Small effects associated with removing the zero-lower bound on the spread.
  • Considering the risk correction as a fixed percentage of the spread (Option 6), a smoothing effect is observed with respect to the actual mechanism with a higher VA in normal times and a smaller one in crisis periods.
  • Accounting for the amount of fixed-income assets (Option 4) has a little impact on the effect of the VA with an advantage for insurance companies.
  • A smoothing on the activation of the country-specific component (Option 7) would have produced a positive effect on discounting liabilities for insurance companies leading to a reduction of the erratic dynamics of the VA.

Option 8 concerns a clearer split of the VA between its function as a crisis and a permanent tool.  More precisely, the VA is splitted as a permanent tool (VApermanent) and a macro-economic VA (VAmacro). The Consultation paper presents two methods to perform this split: in Method 1 the VA is defined as the sum of the macro and the permanent component; in Method 2, the VA is defined as the maximum between the two. The main difference is that Method 1 is based on the risk-corrected spread, while Method 2 builds on the spread. Moreover, to design the VApermanent, EIOPA has assessed the following two combinations of options:

  • Approach 1: the permanent VA is determined by combining options 4, 5 and 6;
  • Approach 2: the permanent VA is determined by combining options 1, 4 and 5.

We have analyzed Method 2 and Approach 1, i.e.:

where

  • GARp = 65% is the general application ratio,
  • ARp is chosen according to [1, Figure Illiquidity Application Ratios, page 126]. Notice that we do not consider the duration mismatch component of Option 4 due to the lack of data, therefore our ARp only relies on Option 5,
  • SRCcu = Scu – RCcu; where Scu is the currency spread and RCcu is the risk correction computed as follows (Option 6):

Scu = wgov_cu max(Sgov_cu ; 0) + wcorp_cu max(Scorp_cu ; 0);

RCcu = wgov_cu max(0.3 Sgov_cu ; 0) + wcorp_cu max(0.5 Scorp_cu ; 0).

Moreover, we have

VAmacro = max (Sco – Sco36 – corridor; 0),

where corridor=0.2% and Sco36 is the average spread over the past 36 months.

We would like to stress that this VAmacro should replace the VAco, while the VApermanent is more related to the previous VAcu.

Under this framework we address the following question

Q2.7: What are your views on Approach 1 and Approach 2? Your comments are also invited on the options that are implemented in Approach 1 and Approach 2 as well as on the other options specified in this section.

Our analysis mainly focus on the use of the average spread in the definition of the VAmacro: in Option 8 (Approach 1), considering the moving average to define the risk corrected spread seems to penalize low rating countries. The actual mechanism seems to do a better job yielding higher VA values for low rating countries and, therefore, addressing potential issues related to illiquidity/ financial distress.

Details on our analysis are provided in Barucci and Marazzina (2020).

Bibliography

Barucci E., Marazzina, D. Rroji, E.  (2019) An investigation of the volatility adjustment. MIMEO

Barucci and Marazzina (2020) Comments on the Consultation paper by EIOPA on the revision of Solvency II: https://www.finriskalert.it/wp-content/uploads/Comments-on-the-Consultation-paper-on-the-Opinion_2020_review.pdf

European Insurance and Occupational Pensions Authority (2019) Consultation paper on the Opinion on the 2020 review of Solvency II.


Mar 062020
 

“Pioggia d’estate e freddo in primavera con le stagioni impazzite. Annata caratterizzata da una forte eterogeneità. In entrambi i casi la produzione è stata completamente scombussolata.”

Se il 2019 dei titoli di Stato fosse un’annata vinicola, probabilmente potrebbe essere descritto così. Fra Quantitative easing, Brexit, mercato dei Repo impazzito e guerre commerciali è mancato solo (l’ennesimo) default argentino. Tuttavia, al di là di questi eventi eccezionali e in sé del tutto imprevedibili, si evidenzia come ce ne sia stato uno le cui conseguenze potevano invece esserlo, ovvero l’inversione della curva dei rendimenti USA, argomento che avevamo peraltro già affrontato su questo sito[1].

Brevemente, ricordiamo che la curva dei rendimenti di un mercato obbligazionario è di norma crescente in quanto i creditori richiedono, per scadenze più lunghe, una remunerazione maggiore, in relazione agli svantaggi cui questi sono sottoposti vincolando i loro risparmi su un orizzonte temporale più ampio. Tuttavia, quando il mercato si aspetta una recessione imminente, la curva tende a divenire decrescente e a registrare pertanto un’inclinazione negativa.

Questo fenomeno, noto come “inversione della curva dei rendimenti”, viene utilizzato in letteratura al fine di prevedere eventuali future recessioni. Estrella e Mishkin (1996)[2] hanno studiato l’evento in questione ricorrendo alla differenza fra il tasso 10 anni e il tasso a 3 mesi[3] del mercato del Treasury americano al fine di prevedere la probabilità di recessione dell’economia a stelle e strisce. A nostro avviso però questa decisione, seppur teoricamente valida, potrebbe aver favorito valutazioni sbagliate nell’anno che si è appena concluso. Infatti, lo spread 10y – 3m considera due tassi che potrebbero essere stati sottoposti, durante il 2019, a dinamiche diverse. Il tasso 3m deriva dal mercato monetario e risente maggiormente delle decisioni della FOMC[4] che quest’anno, forse influenzata dalle pressioni del presidente Trump, ha tagliato per tre volte il target per il Fed Funds Rate[5].  Ciò in teoria può avere due effetti. Se il taglio dei tassi è percepito come un temporaneo aggiustamento di metà ciclo, ne deriva un abbassamento della parte a breve della curva rispetto a quella a lungo, quindi una curva che diventa più ripida. Se le aspettative sono invece quelle di una recessione imminente, gli operatori vedono il suddetto taglio dei tassi come il preludio di ulteriori azioni a sostegno dell’economia da parte della Banca Centrale. Dunque, per cercare di assicurarsi un tasso di rendimento più elevato per il futuro (vista l’imminente discesa dei tassi a seguito delle operazioni di stimolo), gli operatori sono indotti ad acquistare più titoli a lungo termine rispetto a quelli di breve termine spingendo la curva prima verso un appiattimento e poi verso l’inversione.

Partendo dalle cinque recessioni avvenute tra il 1980 e il 2008, abbiamo predisposto una tabella di sintesi sulla base di quattro variabili: i) “First Signal”, inteso come il numero di giorni fra la prima inversione e la recessione; ii) “Last Signal”, ovvero il numero di giorni che intercorrono dal momento in cui la curva cessa di essere invertita e la recessione; iii) “Total,” che indica il numero totale di giorni in cui la curva è invertita.

Dalla tabella è possibile notare una maggiore sintonia fra i tratti 10y – 2y e 10y – 3y piuttosto che il 10y – 3m, il quale, come già anticipato, è influenzato dalle diverse dinamiche a cui il tasso 3m è sottoposto.

Si registra come, in media, l’inversione delle prime due curve avvenga a 462 e 495 giorni dalla recessione, mentre per il 10y – 3m il valor medio scende a 411 giorni. Storicamente, i tratti 10y – 2y e 10y – 3y intercettano dunque con leggero anticipo l’inizio di una potenziale futura recessione mentre il tratto 10y – 3m sembra arrivare solo successivamente a conferma del trend di inversione in atto.

Con riferimento al “Last Signal”, la curva dei rendimenti 10y – 3m pare risultare meno “reattiva” mantenendo, in 3 casi su 5, l’inversione fino a ridosso della recessione. Precisiamo come i periodi di recessione da noi utilizzati siano quelli definiti dal NBER[6], il quale analizza delle grandezze macroeconomiche (PIL, disoccupazione, produzione industriale…) per decretare l’eventuale recessione. Pertanto, è ragionevole aspettarsi che il mercato anticipi l’avvento di essa ben prima della decisione ufficiale del NBER, con gli operatori che riiniziano ad acquistare titoli a breve termine contro quelli a medio lungo facendo quindi cessare l’inversione della curva[7] prima che venga ufficializzata la recessione.

Con riferimento all’orizzonte temporale su cui definire la probabilità di futura recessione, Estrella e Mishkin stimano, su base annuale, le probabilità di recessione associate a ciascun livello di spread 10y – 3m. Per quanto pratico, questo approccio blocca a priori la variabile temporale (il numero di giorni fra cui la recessione dovrebbe realizzarsi), riducendo la flessibilità del modello predittivo. In particolare, dalla Figura 1 si può osservare come la serie storica dello spread 10y – 3m (in nero) inverta il trend decrescente prima che la recessione sia ufficializzata (bande verdi).

Il modello degli autori generebbe pertanto un anomalo andamento nelle stime della probabilità di recessione, la quale tenderebbe paradossalmente a diminuire con l’avvicinarsi della recessione stessa (questo perché la curva, che è anche l’unico input del modello, comincia a normalizzarsi in anticipo).

A nostro avviso il modello dovrebbe assegnare, per medesimi valori di inversione, un valore predittivo diverso in base alla vicinanza/lontananza dalla recessione decretata dal NBER.

Abbiamo dunque ripetuto l’analisi di Estrella e Mishkin non su un solo orizzonte temporale fisso, bensì su molteplici orizzonti temporali. Ciò consiste nel calcolare, tramite una regressione Probit, la probabilità di recessione per n-giorni nel futuro facendo assumere ad n valori diversi.

Di seguito riportiamo un estratto della matrice contenente, per date combinazioni di spread e orizzonte temporale di previsione[8], le rispettive probabilità di recessione. Ad esempio, in caso di spread 10y – 3y pari a – 1, la probabilità di essere in recessione tra 200 giorni è pari al 70,3%. Le classi di spread nella matrice sono state definite sulla base dei dati storici; è stato osservato infatti come per la curva 10y – 3y il valore di massima inversione sia stato registrato a – 1,59% (@ – 1,6%)[9].

Da tale matrice è stato possibile individuare come l’orizzonte di forecasting ottimale, ovvero quello per cui a ciascun livello di spread della curva 10y – 3y vengono registrati i più alti valori di probabilità è circa 250 giorni. Questa miglior capacità predittiva che emerge quando si utilizza l’orizzonte a 250 giorni, ci porta dunque a rivalutare in positivo la metodologia di Estrella e Mishkin; i quali avevano appunto fissato a 250 il loro orizzonte temporale di previsione. Di seguito si riporta il grafico ottenuto utilizzando i valori della matrice di Tabella 2. Questo grafico è realizzabile solamente ex-post, in quanto necessita di conoscere il numero di giorni che separano ogni inversione dalla recessione:

Si osservi come l’andamento delle probabilità risulti comunque decrescente all’approssimarsi della recessione; anche se la dinamica risulta più smussata rispetto al modello “rigido” di Estrella e Mishkin. Ciò poiché evidentemente il modello risulta comunque dominato dalla dinamica della curva 10y-2y, che ne è l’input principale, e non è in grado di mitigare a pieno l’effetto decrescente sulle probabilità.

In conclusione, ai fini di un corretto uso della curva dei rendimenti a fini predittivi possiamo comunque affermare che:

  1. i tratti di curva che un investitore dovrebbe osservare sono quelli del 10y – 2y e 10y – 3y, con il 10y – 3m che funziona da ulteriore conferma del trend e non come anticipatore dello stesso[10];
  2. che la proxy n=250 può portare a delle buone stime di probabilità di recessione implicita nella curva anche se tende a sottovalutarla nei periodi a ridosso della recessione effettiva;
  3. che il mercato anticipa le dichiarazioni ufficiali basate sulle analisi dei dati macroeconomici. Una strategia di investimento che scommetta sull’innalzamento della curva dovrebbe, dunque, essere proattiva e anticipatrice delle recessioni decretate dal NBER. Il rischio è infatti quello di perdere il treno.



[1] Bartolozzi F., Zangari C., “Curva dei rendimenti invertita? Questione di aspettative” (2019), https://www.finriskalert.it/?p=6139

[2] The Yield Curve as a Predictor of U.S. Recessions, di Arturo Estrella e Frederic S. Mishkin, Current Issues in Economics and Finance, 1996

[3] Da adesso useremo la notazione 10y – 3m per indicare la differenza fra il tasso 10 anni e tasso 3 mesi, 10y – 2y per la differenza fra il tasso 10 anni e tasso 2 anni e così via

[4] Federal Open Market Committe è la commissione della FED che decide sulle operazioni di mercato, tra cui il rialzo dei tassi di rifinanziamento a brevissimo termine

[5] Tassi a brevissimo periodo cui le banche americane si prestano fondi non collateralizzati

[6] National Bureau of Economic Research

[7] Ricordiamo che fra prezzo e rendimento sussiste una relazione inversa. Dunque, se gli operatori acquistano più titoli a breve rispetto quelli a medio-lungo il tasso di rendimento dei primi scenderà maggiormente facendo aumentare l’inclinazione della curva

[8] In giorni lavorativi

[9] Le probabilità della Tabella 2 sono state ottenute applicando il modello Probit alle serie storiche dal 1976 al 2019 (totale di 11.160 osservazioni)

[10] Come è avvenuto invece quest’anno

Feb 282020
 

EIOPA has recently (29.01.2020) published the risk dashboard (RDB) update at January 2020.

The RDB is published on a quarterly basis, showing the level of risk for 8 (=7+1) risk categories. The latest outcome is reported in the table below, compared to the previous one (October 2019):

Some comments

  1. Macro risks [high, stable]

This is an overarching category affecting the whole economy, which considers economic growth, monetary policies, consumer price indices and fiscal balances.

The economic environment remains fragile because of both the prolonged low interest rates, which challenge the insurance sector, and the continuous decrease of the GDP growth. The 10-year swap rate remains at its minimum level, despite the little increase (from 0.32% to 0.62%) gained thanks to the recent easing of monetary policy by major central banks. The GDP growth has been revised downwards, especially for the BRICS and the European economy (the indicator is a weighted average over Euro Area, UK, Switzerland, US and BRICS). The expectation on inflationary pressures remains stable at 1.5%, because of downward revisions to forecasted inflation in the EU, UK and Switzerland counterbalanced by upward revisions for the BRICS. The unemployment rate remains at historical low levels (5.6%).

  • Credit risks [medium, stable]

This category measures the vulnerability to the credit risk by looking at the relevant credit asset classes exposures combined with the associated metrics (e.g. government securities and credit spread on sovereigns). Since the previous assessment, CDS spreads slightly declined across all bond segments, except for government bonds. The average credit quality step of investments remains the same (1.83; +0.00), still corresponding to an S&P rating between AA and A.

The exposures of the Insurers in different asset classes remain quite stable and around

  • 30.0% in European sovereign bonds, whose CDS spreads has remained broadly stable
  • 13.0% in non-financial corporate bonds, whose spreads have slightly declined
  • 7.5% in unsecured financial corporate bonds, whose spreads have slightly declined
  • 3.0% in secured financial corporate bonds, whose spreads has declined
  • 0.5% in loans and mortgages
  • Market risks [high, decreasing]

This vulnerability of the insurance sector to adverse developments is assessed based on the investment exposures, while the current level of riskiness is evaluated based on the volatility of the yields together with the difference between the investment returns and the guaranteed interest rates. The market risks is still at high level, but shows a decreasing trend due to a lower expected volatility for the market bonds, largest asset class (60% of exposure), opposed to an increased volatility of the equity (6%) and property (3%) market. CDS spreads declined slightly across most bond segments, except sovereign bonds, with credit risks remaining at medium level.

  • Liquidity and funding risk [medium, stable]

The vulnerability to liquidity shocked is monitored measuring the lapse rate, the holding in cash and the issuance of catastrophe bonds (low volumes or high spreads correspond to a reduction in the demand which could forma a risk). The median liquid assets ratio has increased from 65% to 66%, 66%, but the lower tail of the distribution has slightly declined. The average ratio of coupons to maturity has decreased, as well as the issued bond volumes (5.8bln euro, -0.5bln). Lapse rates in life business are broadly stable, showing a median lapse rate around 2.6%.

  • Profitability and solvency [medium, stable]

The solvency level is measured via Solvency Ratio (SR) and quality of Own Funds (OF), while the profitability via return on investments and combined ratio for the life and non-life sectors. SR for both groups and non-life undertakings have declined across the whole distribution, due to the prolonged period of low interest rates together with a lower expected profit in future premiums, showing a further decline for life undertakings (160%, -5%).

  • Interlinkages and imbalances [medium, increasing]

Interlinkages are assessed between primary insurers and reinsurers, insurance and banking sector and among the derivative holdings. The exposure towards domestic sovereign debt is considered as well. The risks shows an increasing trend due to higher SII of interest rate swaps (the largest derivative exposure), potentially driven by ALM strategies put in place as a response to the low interest rates. in the share of

The median share of premiums ceded to reinsurers remains stable at 5.6%, as well as the median exposure to domestic sovereign debt (12.5%). Insurance groups’ investments in banks (12.4%), insurers (1.4%) have remained broadly unchanged, while investments in other financial institutions have declined (20.1%, -0.8%).

  • Insurance (underwriting) risk [medium, stable]

Indicators for insurance risks are gross written premia, claims and losses due to natural catastrophes. Year-on-year premium growth for both life and non-life business is positive and shows an increasing trend. The catastrophe loss ratio has increased (7.9%, +2.9%) because of Typhoon Faxai and Hurricane Dorian, happened in September, and is expected to increase again in the last quarter due to the costliest natural disaster of the year, Typhoon Hagibis, which hit Japan in mid-October. Insurance loss ratios have remained broadly unchanged, with the median value placed at 63% and the distribution slightly moving upward. Median premium growth has increased (from 3% to 6.8%) in life business and is stable (median at 4.3%) in non-life business.

  • Market perception [medium, stable]

The market perception remains constant at medium level. The quantities assessed are relative stock market performances (insurance life / non-life stocks has respectively outperformed / underperformed the Stoxx 600), price to earnings ratio (median increased from 11.3% to 12.5%), CDS spreads (median value stable at 64.3bps) and external rating outlooks (unchanged from the last quarter).

Feb 222020
 

In the last six months I had to professionally deal with (and reject) a couple of cases. Potential customers wanted to build cryptocurrency-like systems disconnected from a least  compliance with the regulatory reality. The belief that Internet can legitimize any alternative operation is rooted in the brainiac creators. Let’s be clear: financial technology is necessary and should not be prohibited on principle, just as cryptocurrencies – most of them, as today shaped, financial products and not just payment tools –  are not the evil: traditional finance showed us worse. But do-it-yourself fintech crafts(wo)men claim to deal with finance without knowing it. Surfing Internet is enough to notice that there is a lot of platforms where you can buy credits or place securities in legal currency but outside the regulatory frameworks: a phenomenon towards which supervisors should better focus their efforts (see below). What is most upsetting is the attitude of smuggling as an inclusive instrument which, in the state of the art and of the monetary daily life, could instead entail a heavy regression of the very modest and very precarious well-being of much of the world.

A recent essay by a keen economist (M. Minenna, Il sistema finanziario del futuro: a chi servono le valute digitali di stato?, Diritto degli Affari, 3/19, 137) offers unexpected perspectives for reflection together with data from unsuspected sources (IMF, Global Findex Database). To counteract the private cryptocurrency practice and prevent its most feared degeneration (wild disintermediation, anonymity and spread of new cash), many central banks are fervent working in order to conceive legal tender state coins (Central Bank Digital Money – Cbdc), unlike the cryptocurrency which, by definition, is the opposite of a fiat currency. Everything then goes down in the mantra of cashless, of the world without cash; mantra on which the ECB itself, through its new president Christine Lagarde, invited more caution. A quick look at the aforesaid paper shows a state of affairs far removed from the utopian horizon on which fintech and its deviant inclusive ambition are running. China, India and Indonesia, i.e. 40% of the world’s population, reveal respectively 12%, 21% and 6% of unbanked people. In the Middle East and North Africa, the percentage rises to 86%. Opening a bank account requires an identity document, which about 1.5 billion Africans and Asians are missing, without taking into account digital connection problems and financial illiteracy. Meanwhile, cash continues to dominate payment systems: in India, between 2006 and 2015, banknotes increased by 14% per year, in Kenya 98% of payments are made in cash. More generally, wages and salaries are still being paid in cash in around 31% of the world. The acclaimed technological disruption that would bring to the cashless world at a glance, as today happens in Sweden, far from implementing financial inclusion, would aggravate the already heavy conditions of impoverishment and socio-economic malaise of a substantial portion of the world population.

The consequences, however, go far beyond the worrying stage highlighted in the quoted paper. A total monetary digitalization would also affect fundamental human freedoms (individuals who lawfully wanted to disappear from their usual life could no longer do so), would cause a heavy mix of payment, digital data processing and more or less (perhaps more than less) forced commercial profiling in spite of any ridiculous consensus rule, would increase the risks of theft of digital identities that could entail the instant plundering of entire financial assets. The ban of cash, seen so far as the strongest weapon in the fight against money laundering, could paradoxically weaken it. There is no absolutely inviolable or unavoidable computer system, so criminal hacking, by refining its methods of break-in and updating them to the sophistication of legal exchange schemes, would make recycling operations even more opaque and elusive.

How can we get out of it? How can we get out of it in a rational, non-regressive or repressive way, but above all not in a way jeopardizing the stability of payment systems and the trade safety?

The fledgling CBDC is not a solution, it’s simply a reaction which risks overlooking the side effects of an equal and opposite disruptive mechanism. A possible solution goes through three directions.
Firstly
, it is mandatory to stem those phenomena of fintech which currently are clearly breaching the rules: we need to overcome the ideological barrier for which the network is a parallel reality where everything is allowed. In this connection, the Consob document of January 2, 2020 with which the Commission takes a position on cryptoassets, assuming a lighter discipline on hybrid cryptoassets which de facto include a financial component, deserves serious rethinking. This applies to certain cryptocurrency schemes as well as to platforms for the exchange of traditional instruments which, at present, seem completely out of control. Being too much benevolent in cases deemed as marginal for now is not a good start, on the contrary it becomes a difficult precedent to defuse.

Secondly, the world authorities should draw up an agenda for the progression of the financial-technological evolution, by measuring the economic and social impacts of sudden alternative forms of exchange and preparing instruments able to curb them, preventing the excitement of the disruption from generating overall outcomes worse than those on which traditional systems lie (in this context, it should be welcomed the recent paper of Italian Ministry of Economics and Finances aimed at collecting opinions of the relevant stakeholders about the experimental project of softly ruling certain fintech phenomena).

Thirdly, the regulatory plan and the surveillance action cannot neglect also the risk of producing, thanks to unreasonable differentiated rulings, negative effects of disparity such as to alter the competition in the market of monetary and financial brokering. Despite all its defeats, the traditional system remains an inalienable bulwark of guarantee for savers, investors and economies worldwide: ratifying a parallel system with a lower control standing would end up pushing operators towards deregulated models that would reopen the passage to bubbles, dull violations of sad and recent memory.

Financial technology must make the current mechanism more efficient, not allowing its uncontrolled libertarianism. Disruption rhymes with, but does not equate to, destruction.

Feb 142020
 

(This is a slightly revised version of a blog posted at Bruegel on January 22, 2020, https://bruegel.org/2020/01/incorporating-political-risks-into-debt-sustainability-analysis/ )

Political stability and economic policy uncertainty can be key determinants of sovereign debt dynamics, and we show how they can be incorporated in debt sustainability analysis. We distinguish between short-term ambiguity and long-term uncertainty about political risk factors, and using a combination of narrative scenarios and calibrated probabilistic scenarios we obtain a comprehensive heatmap of high-risk debt dynamics.  We use Italy as an interesting case study and demonstrate a “red shift” in the assessment of vulnerabilities when accounting for political risks. Ignoring these risks can lead to excessive optimism and wrong decisions.

When lenders such as the International Monetary Fund or the European Stability Mechanism want to assess whether a country meets the criteria for receiving international assistance, they carry out a debt sustainability analysis (DSA). This involves debt simulations and scenarios that evaluate the likelihood of countries meeting their future obligations. The Greek debt crisis, however, exposed the drawbacks of traditional debt sustainability analysis. During crisis episodes uncertainty is high, and therefore focusing on average dynamics, or on a few scenarios, can conceal potential risks. DSA applies to crisis countries only, but an early warning system identifying vulnerabilities is relevant for all countries. A more general, less stringent, debt vulnerabilities analysis (DVA) could be used to assess a country’s debt management policies to identify vulnerabilities, without leading immediately to policy consequence.

DVA would not carry the significant connotations of DSA.  It would have less stringent criteria for raising red flags, and would not lead immediately to policy consequences. For instance, it could be used to spot when a country has debt that is non-decreasing from very high levels, even though that country might pass the DSA test. The Dutch State Treasury Agency evaluates its public debt management practices every three years, even though its debt-to-GDP ratio is only 50%. The agency carries out a comprehensive analysis prior to a political review, including an evaluation of vulnerabilities, and the implications for policy are transmitted to the Dutch parliament by the finance minister (the 2019 evaluation is available here).

Such broader analysis could, in particular, account for political risks that are currently used to guide expert judgment by the institutions, but are not part of DSA. The IMF makes references to political risks and policy uncertainty in its Article IV Consultation reports,[1] ESM uses governance and/or political risk ratings in its Sovereign Vulnerabilities Index, and ECB uses such ratings to generate a heat map, classifying RED countries in the bottom ratings tercile, GREEN in the top tercile, and YELLOW in the middle. Such broad-brush treatment of political risks is useful, but unlikely to be effective.

Political instability and economic policy uncertainty can be key determinants of sovereign debt dynamics, but are not captured adequately, with quantitative rigor, by traditional DSAs. When the IMF, the ECB or the ESM carry out DSAs, they take into account risk factors including the country’s fiscal consolidation path, GDP growth and financial assumptions relating to the sovereign bond yields. They also consider debt aging costs, macro (bank) stress tests, inflation shocks, structural shocks, contingent liabilities and privatisation receipts. We argue that political risk factors can also be quantified, and should be part of debt analysis.

Our suggestion becomes attractive because the systematic quantification of political risks has been receiving increasing attention, driven in part by the compilation of databases that facilitate cross-sectional studies. Such databases include the Ifo World Economic Survey-WES (25 years of semi-annual data for 66 countries), the World Bank (25 years of annual data for 214 countries), the ICRG index (40 years of annual data for up to 140 countries) and the Dallas Fed’s Economic Policy Uncertainty index (25 years of monthly data for 21 countries). Impetus has also been created by theoretical models and empirical evidence that the markets price political risks.

Building on these advances, political risks can be incorporated in DSA (and DVA) and can materially affect the conclusions. We first identify (see Gala et al. 2018) two key quantifiable dimensions of political risk, and second distinguish between short-term ambiguity about the political factors that cannot be measured, and long-term risks that are modelled probabilistically. Third, we use a combination of narrative scenarios about the short-term ambiguity, and calibrated probabilistic scenarios for long-term risks (and Zenios et al. 2019), to obtain a comprehensive heatmap of high-risk debt dynamics. As an example of what happens when political risks are included, we look at recent developments in Italy (see below).

Short-term political ambiguity and long-term uncertainty

To incorporate political risks in DSA, we are faced with the problem of uncertainty specification, which has been daunting economists for a very long time (see for example Knight, 1921, and Arrow, 1951). We need to account for short-term ambiguity (ie which government wins the election, what policies will they implement, will a country be able to follow an adjustment programme?) and for the long-term volatility towards a well estimated expected future state, if we think that such an equilibrium state exists. In general, it is not possible to estimate reliably an election outcome or what policies a new government will pursue.

We adopt narrative scenarios for variables with ambiguous immediate outcomes, to see what the bad outcomes might be, and calibrated probabilistic scenarios for long-run uncertainty to estimate appropriate risk metrics. We run the DSA model for a range of plausible values for the critical variables that are affected by political event, such us government surplus and country GDP growth. For the long-run risks, we calibrated scenarios of economic, fiscal and financial variables, accounting for political effects. With this approach we identify values for ambiguous variables with high probability of bad outcomes, so that they can be avoided. The result is a comprehensive heatmap of high-risk debt dynamics, with quantile optimisation for those aspects of the problem that are amenable to scenario calibration, and identification of narrative scenarios with bad outcomes that must be avoided, for the ambiguous aspects.

Italy as a case study

We applied our model to the 2019 budget agreement between the Italian government and the European Commission. We assess whether Italy can stay on a non-increasing debt path with gross financing needs below an IMF-specified threshold of 20% of GDP, and demonstrate the material effects of political risks (Note: our assessment criteria are less stringent than those of official DSAs).

We start with a scenario tree covering GDP growth, the primary balance and the risk-free rate of euro-area 5-year AAA rated sovereigns, but without political variables. The scenario tree was calibrated to Italy’s conditions and observed market data, using historical volatilities and correlations. To the scenarios of risk-free rates, the model added premia capturing the response of borrowing rates to debt levels.

A significant short term political risk was the fiscal stance of the new Italian government following the 2018 elections. We parametrically change growth and primary balance projections to cover plausible outcomes, and evaluate, using the calibrated long-term scenario trees, the likelihood of debt stocks and gross financing needs staying within the thresholds. The result is a heatmap that shows the likelihood of debt dynamics remaining within the thresholds for a wide range of the ambiguous variables. We use the model to draw the heatmap and assess Italian debt dynamics under three narrative scenarios: (i) no policy change; (ii) the new Italian government achieves its growth and surplus projections; and (iii) Italy reaches the targets in the agreement negotiated with the European Commission. For each narrative scenario we assess if its outcomes would violate the thresholds, and, therefore, must be avoided.

Figure 1 shows the heat map, with dark green denoting an extremely low probability (0.01) of unsustainable dynamics, and red denoting a very high probability (0.85). Note that for a wide range of combinations of GDP growth and primary balance, the dynamics are unsustainable with very high probability. Italy is clearly vulnerable. The map also locates our narrative scenarios: ‘IMF’ denotes projections from the IMF World Economic Outlook report for 2018. Under our model calibration, and without any change in policy, the debt dynamics are highly likely to be unsustainable. ‘Pre- agreement’ corresponds to the Italian government targets before the budget agreement with the European Commission. It improves on the previous policy but is still in the red zone. ‘Post-agreement’ presents further improvements, shifting Italy into the yellow zone, with a probability of 0.55 for sustainable dynamics. The wisdom of a policy with a 0.55 chance of achieving its objectives is questionable and additional fiscal effort would be needed to increase to 0.85 the probability of remaining within the thresholds (green). Using the model, we estimate that with a total fiscal effort of 3.5% of GDP over twelve years, capped at 0.3% per annum, Italy can reach this target. This finding is in agreement with Sapir (2018) that Italy should have been running consistently a higher primary surplus to avoid finding itself in its current predicament, although our estimates for the extra effort are lower.

[Insert Figure 1]

Source: Authors calculations using the model of Zenios et al (2019).

We then incorporated long-term political risks. We generated a new scenario tree with political stability and economic policy confidence state variables, calibrated to Italy’s volatile political variables around estimated long-term trends. To calibrate the political state variables, we assume that they converge long-term to their historical averages of 4.5 (out of 10) for stability and 15.5 (out of 100) for policy. We also estimate volatilities from the historical ratings for Italy, namely a standard deviation of 1 for stability and 11 for economic policy confidence. The political variables are correlated with growth, primary balance and interest rates, with historical correlations from -0.44 to 0.75, respectively. Regression estimates of the bond yield sensitivities to these factors are then added to the refinancing costs scenarios, adjusted according to the endogenous debt risk premium. We re-run the model including political risk premia and redraw the heatmap (Figure 2).

[Insert Figure 2]

Source: Authors calculations using the model of Zenios et al (2019).

From this, a marked increase in the area that denotes a high probability of unsustainable dynamics can be seen. With political vulnerabilities taken into account, more combinations of growth and primary surplus are highly likely to violate the thresholds. Under our model, the agreement with the European Commission, which was estimated to have a slightly better than 0.50 chance of success, would only have a 0.15 chance of success when political risks are accounted for. The additional fiscal effort that restores sustainability with probability of 0.85, is now borderline light green, with a 0.65 to 0.55 chance of success. Clearly, ignoring the political risks can lead to excessive optimism and wrong decisions.

References

Arrow, K. J. Alternative approaches to the theory of choice in risk-taking situations. Econometrica, 19:404–437, 1951.

Gala, V., G. Pagliardi, and  S.A. Zenios, International politics and policy risk factors, Working Paper, 2018. (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3242300)

IMF, Staff Guidance Note for Public Debt Sustainability Analysis in Market-Access Countries, International Monetary Fund, Washington, D.C., 2013.

Knight, F. H., Risk, Uncertainty, and Profit. Boston, MA: Hart, Schaffner & Marx; Houghton Mifflin Company, 1921.

Sapir, A. High public debt in euro-area countries: comparing Belgium and Italy. Policy Contribution No. 15, September 2018.

Zenios, S.A., A. Consiglio, M. Athanasopoulou, E. Moshammer, A. Gavilan, and A. Erce. Risk management for sovereign financing with sustainability conditions. Globalization Institute Working Paper 367, Federal Reserve Bank of Dallas, 2019. (https://www.dallasfed.org/~/media/documents/institute/wpapers/2019/0367.pdf)


[1] See, for instance, the 2018 Financial Stability Report and the 2018 Global Outlook Reports. Such references appear twenty-six times in the 2016 Article IV report for Greece, twelve times in the 2018 report, and four times in 2019.

Feb 072020
 

ABSTRACT: Anche  se le funzioni di risk management nelle banche e la normativa di riferimento sono in una fase che possiamo definire matura del loro sviluppo, non si può affermare che questo ambito sia cristallizzato e risolto in modo del tutto soddisfacente. Lo testimonia la continua e sempre più frequente aggiornamento delle normative. Nel paper, senza pretesa di esaustività, una sintesi comparativa con alcuni spunti di riflessione.

1 La ricerca del rischio e l’evoluzione del framework “Basilea”

Molti termini nel linguagggio comune sono usati (talvolta usabili) in modo sovrapposto, con varie declinazioni dal linguaggio comune e quello tecnico e varie evoluzioni nel tempo: sorte, alea, incertezza, rischio, pericolo.

E come sottolinea brillantemente Ivar Ekelend nel suo saggio del 1987 “A Caso” (cfr [13]), il confine tra il caso, la causa determinsitica, il caos, è spesso indefinito, legato a percezioni soggettive e più ampie evoluzioni culturali.

Perché il gioco dei dadi è ritenuto un gioco d’azzardo, di sola alea, mentre il gioco del biliardo è uno sport?

La traiettoria e la posizione di arresto di un dado, così come per una palla da biliardo, sono perfettamente determinate dalle leggi della meccanica. Leggi non facili perché bisogna tenere conto anche di aspetti fenomenologici specifici come il materiale su cui si gioca e conseguente attrito, radente o viscoso, ma pur sempre leggi perfettamente note.

In fondo, è più difficile gettare il dado in modo che esca il “6” dopo i rimbalzi o colpire nel biliardo in modo da  mettere la palla in buca dopo 7 carambole sulle sponde del tavolo? Forse la forma sferica contro quella con spigoli alternao il nostro giudizio.

E in fondo, pensando che i giocatori di dadi prendano una piccola rincorsa prima del lancio, in cosa il lancio d’azzardo del dado è diverso dal gioco (sport) delle bocce? A un approccio oggettivo e rigoroso, si capisce come entrambe le atttività non abbiano gradi così diversi di alea, o quantomeno debbano essere qualificati in una stessa omogenea categoria, per esempio “gioco di abilità”.

Perché questa premessa? Per motivare come sia di difficile o forse impossibile una definizione in qualche modo assoluta di termini come incertezza, rischio. E quindi come sia ancora più sfidante il tentativo di quantificare il rischio, di ottenere cioè una utile misura, o stima, dello stesso.

La regulation bancaria, sin dal primo accordo di Basilea del 1988, ha come caposaldo la necessità per le banche di un capitale adeguato rispetto ai rischi. Quindi la misura di tali rischi è elemento essenziale della ratio normativa.

Negli anni fino all’accordo di Basilea 3, divenuto efficace nel 2014 ([14]), le autohorities hanno spinto verso l’adozione dei modelli interni, cioè modelli statistici di misura dei rischi sviluppati dalle banche stesse, ovviamente all’interno del framework (quali misure di rischio, vincoli di qualità del modello o sui parametri) normativo.

Al contrario, all’interno del complesso corpo normativo noto come Basilea 4, che in estrema sintesi sarà in vigore da inizio 2022, lo stesso comitato di Basilea è andato nella direzione opposta, cioè rimozione o sempre maggiori vincoli sui modelli interni, in favore di nuove versioni dei modelli standard. Modelli cioè in cui l’algoritmo di calcolo della misura dei rischi e relativi parametri e pesi sono totalmente prescritti nella normativa.

Queste nuove versioni si caratterizzano per una marcata maggiore complessità rispetto ai modelli standard correnti, con l’ambizione di essere più risk sensitive, accurati quindi nella capacità di rappresentare i fattori di rischio. Nelle prossime sezioni cercheremo di dare una review di tali evoluzioni, con alcune riflessioni finali.

2 I nuovi modelli standard

2.1 Le innovazioni

Già partire dal 2013, quando Basilea 3 era ai suoi primi passi, sono inziati tramite vari gruppi di lavoro attività di ulteriore revisione e finalizzazione dei modelli. Va qui ricordato che se ci soffermiamo sulla componente core del framework di Basilea, non sull’introduzione dei nuovi vincoli di liquidità, l’unico elemento realmente nuovo di discontinuità in Basilea 3 è stato l’introduzione di un nuovo requisito di capitale, il noto CVA capital charge, cioè il rischio di perdite inattese dovute al deterioramento del merito di credito delle controparti di posizioni in derivati OTC.

Tutte le ulteriori finalizzazioni successive, in un primo tempo spesso citate come “Basilea 4”, sono state raccolte in un tentativo di corpo unico, si veda [2].

Vediamo la lista completa degli interventi previsti:

  • Rischio Operativo. Rimozione dei modelli interni (AMA), in favore di un unico apprccio standardizzato (SMA), si veda [15]
  • Rischio di Credito e Controparte
    • rimozione dei modelli interni per controparti finanziarie e large corporate
    • evoluzione dei modelli standard ([11]).
    • vincoli sui parametri e misure di RWA dei modelli interni IRB ([12])
    • nuovo modello standard calcolo esposizione (EAD) su derivati, detto SA-CCR, si veda [6], [7].
  • Rischio di mercato. Totale revisione con la riforma FRTB (cfr. [3], [4] e [5]), in breve:
    • Modelli interni. Passaggio da misure di tipo VaR a misure di Expercted Shortfall per capital charge
    • Evoluzione delle procedure di backtesting e introduzione di ulteriore test di qualità del modello, noto come PLA (P&L Attribution)
    • significativa evoluzione dei modelli standard (SBA, sensitvity based approach)
  • CVA capital charge. Abbandono del modello interno in favore di un nuovo modello standard, si veda [8], [9], [16]

2.2 Il razionale comune dei nuovo modelli standard

Motivi di spazio non consentono una disanima comparativa di tutti i “nuovi” modelli standard, ma ci sofferiamo su alcuni di essi per le caratteristiche comuni che li caraterizzano e alcune considerazioni che possiamo trarne. In particolare ci focalizziamo su:

  • rischio di mercato, cioè rischio di perdite derivanti da variazioni inattese negative del valore (mark to market)
  • rischio di controparte, inteso come rischio di crescita inattesa delle esposizioni (EAD) sui derivati OTC, dovute in questo caso a variazioni positive del mark to market
  • CVA risk, dovuto alla posibilità di perdite inattese (unrealized, però registrate in conto economico) per variazioni improvvise del CVA “contabile”, cioè della rettifica del MtM legata al merito di credito delle controparti.

Si può dire che per la loro natura la genesi dei rischi è la stessa, cioè il MtM e le sue variazioni.

Vediamo le interessanti analogie (con qualche distinguo che omettiamo per brevità)  in relazione alla misura dei rischi:

  • Tassonomie e Fattori di rischio. Per tutti questi rischi è specificata una tassonomia dei fattori di rischio molto più granulare che per i modelli standard correnti, che si può riassumere nella seguente gerarchia partendo dall’alto: A) Risk types B) buckets o hedging sets C) Tenors D) fattore di rischio elementare. Risk types è riferito alla asset classe, quindi tassi di interesse, tassi di cambio, equity, commodity, posizioni di credito. Il bucket/heding set può essere come nel caso delle posizioni in tassi di interesse dato da ciascuna currency, per equity vi può essere un unico bucket o più bucket in base a geografia, settore, size, le commodity sono scomposte in gruppi omogenei, per i tassi di cambio ogni currency costituisce un bucket. I tenors, cioè le scadenze, sono significative solo per le posizioni in tassi di interesse. Infine abbiamo i fattori di rischio elementari. Si ribadisce che questo dettaglio sui fattori di rischio da identificare e mappare è molto più elevato che in precedenza.
  • Struttura del requisito di capitale e aggregazione tra posizioni. Anche qui significative novità, nel senso che la gerarchia anarafica vista prima ha lo scopo di gestire correlazioni tra fattori di rischio o tra gruppi di essi prima non previsti. Più in generale 1) sono fornite matrici di correlazione tra fattori di rischio all’interno del bucket 2) sono fornite matrici di correlazione tra buckets all’interno di una asset class 3) per market risk e cva risk si usano matrici di correlazione in 3 scenari per tenere conto di possibile stress. Lo “step zero” del calcolo è la determinazione per ogni posizione della sensitivity (per market risk e cva capital charge) o di esposizione (per counterparty risk), su cui si applicano i risk weight e si procede poi con le aggregazioni mediante matric di correlazione sopra dette.

Mostriamo a titolo esemplificativo alcuni parametri riferiti alla asset class azionaria, in cui abbiamo un bucket per ogni emittente:

  • Market risk FRTB. Il fattore di rischio è dato da ogni single name o indice. I bucket sono 12 per cluster di settore, dimensione, geografia. Il risk weight applicato varia da un minimo del 15% per indici di mercati evoluti al 70% di azioni small cap dei mercati emergenti. Le correlazioni nel bucket e tra bucket assumono valori molto diversificati (mai comunque negativi) in relazione ai casi, per esempio 15% tra due azioni large cap dei mercati europei, 80% tra due indici di mercati europei.
  • Rischio di controparte. Per determinare l’add-on rispetto al mark to market, da cui discende l’esposizione soggetta a rischio, si hanno due risk weights: 32% per le azioni e 20% per gli indici, con correlazione del 50% tra azioni e 80% tra indici.
  • CVA Risk. I bucket come nel rischio di mercato, anche se non è previsto un CVA risk azionario per posizioni su indici. Risk weights tra 35% e 70%. Correlazioni tra bucket pari al 15%.

Riproduciamo anche il contributo al requisito di capitale per ogni bucket Kb e la sua aggregazione per ogni asset class

Market risk FRTB

Si può notare come, al netto di lievi differenze di notazione, tutte le formle in qualche modo mimano la volatilità di un portafoglio ben nota dalle teorie dell’asset allocation e del modello CAPM. Anzi, a essere più precisi, il senso di queste formule è quello di un VaR, cioè un percentile, sulle grandezze soggette a rischio (perdite di mark to market, espansioni di mark to market, incrementi di CVA), in quanto i risk wieght usati come mattone di base sono calibrati su eventi estremi. Se riprendiamo i dati sopra forniti e tenendo conto che l’orizzonte tradizionale per il market risk è 10 giorni lavorativi, un risk weight del 15% per posizioni su indici implica considerare questa come possibile perdita estrema di un indice di mercati evoluti, scenario molto prudente, in linea con gli obiettivi di Basilea, e non certo la sua normale volatilità.

3 Alcune riflessioni

Modelli interni in fase di estinzione, modelli standard sempre più evoluti verso un approcio di portafoglio che era prerogativa dei modelli interni, con la complessa algebra delle matrici a supporto, e molto dettagliata definizione delle tassonomie. Possiamo dare un giusdizio su questo trend, molto significativo e irreversibile? E’ un fallimento del risk management bancario dopo che Basilea 2 aveva al contrario introdotto i modelli interni sul rischio di credito e sui rischi operativi?

Nel framework di Basilea 2 vi erano già dei “puntelli” ai gradi di libertà dei modelli interni. Uno ovvio, cioè la richiesta di documentare in modo formale la capacità predittiva dei modelli di misura del rischio tramite tecniche di baktesting specifiche per i vari tipi di rischio. Il secondo e più interessante puntello è costituito dal fatto che per i modelli sul rischio di credito le banche possono limitarsi ad avere modelli di stima dei parametri (PD,LGD,EAD), mentre per il calcolo del capital charge devono applicare la formula prevista per i modelli IRB, a differenza del rischio di mercato e operativo dove anche il modello di perdita, dati i fattori di rischio, è costruito dalla banca.

Non è bastato. Troppi i margini di discrezionalità e le difficoltà di omogeneizzazione nei rischi operativi, eccessivo l’uso di modelli “aggressivi” per minimizzare il capitale richiesto, sui modelli per la PD e (soprattutto) LGD, come dimostrato in vari benchmarking internazionali.

Ma la strada intrapresa è corretta? A giudizio di chi scrive , con tutte le possibili migliorie nel tempo. Da un lato finalmente anche banche medie o medio piccole applicheranno metodi più risk sensitive con una maggiore consapevolezza del legame tra rischi e buffer di capitale. Dall’altro, in queste stesse banche ma anche in quelle maggiori finalmente la struttura di Risk Management potrà diventare in modo più incisivo owner del processo segnaletico di I pilastro, che è oggi tradizionalmente allocato nelle banche nella “Direzione Amministrazione”, dove però, specialmente sui rischi di mercato, difficilmente vi sono competenze sufficienti per il controllo delle misure finali. Infine nulla impedirà alle banche, in ambito di II pilastro e processi RAF, di continare a utilizzare modelli interni più sofisticati, se confidenti sulle loro performance e se questi sono realmente utilizzati nei processi gestionali di delega e controllo dei rischi.

Riferimenti

[1] Basel Committee on Banking Supervision (2011), “Basel III: A global regulatory framework for more resilient banks and banking systems – revised version June 2011”

[2] Basel Committee on Banking Supervision (2017), “Basel III: Finalising post-crisis reforms”

[3] Basel Committee on Banking Supervision (2019), “Minimum capital requirements for market risk”, paper 457.

[4] Basel Committee on Banking Supervision (2017), “Simplified alternative to the standardised approach to market risk capital requirements”, paper 408.

[5] Basel Committee on Banking Supervision (2014), “Fundamental review of the trading book: outstanding issues”, paper 305.

[6] Basel Committee on Banking Supervision (2014), “The standardised approach for measuring counterparty credit risk exposures”, paper

[7] Palombini E. Zottarel M. (2016) Il nuovo Standardised Approach for Counterparty Credit Risk (SA-CCR)

[8] Basel Committee on Banking Supervision (2015), “Review of the Credit Valuation Adjustment Risk Framework “, paper 325.

[9] Axis Alternative (2019), “New CVA capital framework: FRTB-CV”.

[10] ISDA (2019), “ISDA SIMMTM,1 Methodology, version 2.2 “.

[11] Basel Committee on Banking Supervision (2015), “Revisions to the Standardised Approach for credit risk“.

[12] Basel Committee on Banking Supervision (2016), “Reducing variation in credit risk-weighted assets – constraints on the use of internal model approaches”.

[13] Ekeland I.(1987), A Caso (Mathematics and the Unexpected), Bollati Boringhieri

[14] EU (2013), “Capital Requirement Regulation (CRR)”, Regulation 575/2013 (Basilea 3).

[15] Basel Committee on Banking Supervision (2016), “Standardised Measurement Approach for operational risk”

[16] Basel Committee on Banking Supervision (2019), “Credit Valuation Adjustment risk: targeted final revisions”, consultation paper.

Feb 012020
 

Last 11 February 2019 the European Commission (EC) asked the European Insurance and Occupational Pension Authority (EIOPA) for a call for advice on the 2020 review of SII. As a response to that, EIOPA launched a public Consultation Paper (CP) on the 15th October 2019 whose feedback were to be submitted by the 15th January 2020 (Insurance and Reinsurance undertakings submitted their results to the NSAs last 6 December 2019, and the NSAs reported them to EIOPA last 8 January 2020). EIOPA is now collecting the data and assessing the impacts of its proposals, setting out the final advice by next 30th June 2020. The proposals presented are a view of EIOPA and may not be adopted: the EC will balance political considerations to the technical ones. It’s interesting to notice that EIOPA has reiterated in the CP its suggestion of introducing negative interest rates in the SF SCR calculation (advice dated 2018) previously rejected by the EC.

The call for advice comprised 19 topics, which can be broadly divided into three parts

  • review of the Long Term Guarantee (LTG) measures, always foreseen as being reviewed in 2020, as specified in the Omnibus II Directive
  • potential introduction of new regulatory tools in the SII Directive, notably on macro-prudential issues, recovery and resolution, and insurance guarantee schemes
  • revisions to the existing SII framework, including reporting and disclosure of the SCR.

The main proposals set out in the CP and discussed in the following are:

  • choose a later Last Liquid Point (LLP) for the extrapolation of risk-free interest rates for the Euro or change the extrapolation method to take into account market information beyond that point; these are expected to increase both TP and SCR, particularly for firms with long duration businesses
  • change the calculation of the Volatility Adjustment (VA), to address overshooting effects and to reflect the illiquidity of insurance liabilities; 8 variations are proposed and, albeit they may help in reducing the volatility caused by the current design, they may increase the complexity of the calculation and even reduce the overall protection provided by this measure
  • review the calibration of the interest rate risk sub-module in line with empirical evidence, considering negative interest rates; this is expected to increase the SCR
  • include macro-prudential tools in the SII Directive and establish a minimum harmonised recovery and resolution framework for insurance.

No changes have been proposed for the Risk Margin (RM), causing the disappointment of many firms that consider this metric too big for the annuity business and too sensitive to interest rates changes – and therefore sensitive to the changes proposed to the LLP.

Positive and negative proposals have been made with respect to the Matching Adjustment (MA), currently only applied in Spain and UK. A good aspect is that EIOPA has proposed to recognize diversification between MA and non-MA portfolios, reducing the SCR, but without showing any intention to make the MA more flexible and adding a further requirement on restructured assets that may make it harder for the firms to apply the MA.

Regarding [A], EIOPA has proposed 5 options to amend the Euro LLP:

  1. no changes (i.e. LLP=20 years, Smith-Wilson extrapolation)
  2. LLP=20 + safeguards in terms of disclosure and governance

sensitivity analysis on LLP=50 to be include in the RSR and SFCR; if the firms breach the SCR or MCR in the sensitivity analysis, they have to provide evidences that the policy holders protection is not put at stake by dividend payments and capital distributions, which can be limited by the NSAs in case the evidences were not satisfying

  • LLP=30 + safeguards in terms of disclosure and governance (as in option 2)
  • LLP=50
  • alternative extrapolation method to consider market data beyond the LLP for all the currencies

Beyond causing a detriment to the SCR position of the insurance firms, options from 2 to 4 are quite onerous.

Regarding [B], EIOPA has proposed a reform to the VA calculation that comprises 8 different design options, 3 different General Application Ratio (GAR), the usage of Dynamic VA (DA) under the SF and approval to the use of VA.  

The presented options for the VA design are:

  1. “Undertaking-specific VA”, based on undertaking-specific asset weights and market spreads
  2. “Middle bucket” approach, where the current MA and VA approaches remain and the undertaking-specific VA is introduced as the middle bucket. Firms can only apply the middle bucket to insurance liability portfolios subject to meeting certain cash flow matching criteria.
  3. “Asset driven approach”: the VA would not be applied to the risk free curve. Instead, the VA would adjust the bond spreads on the asset side, where the difference in the value of bonds without and with the VA adjustment is recognised as an own funds item.
  4. Application ratio that takes into account of the undertaking’s AL mismatch. The proposed formula to derive the VA under this approach includes applying an asset liability (AL) mismatch ratio, where the ratio is calculated as the sensitivity of the BEL to the VA divided by the sensitivity of fixed income assets to the VA. Firms are also allowed to derive the risk-corrected spread using either the VA reference portfolio or their own specific fixed income portfolio (as under design option 1).
  5. Application ratio that takes into account of the undertaking’s illiquid liabilities. EIOPA suggests two approaches for this calculation: the first approach (paragraph 2.399) is similar to option 4 above, except that an illiquid liabilities ratio is applied; the second approach allocates liabilities to buckets of different levels of illiquidity with different application ratios.
  6. “Relative risk-corrections”: the risk correction is calculated as a fixed percentage of the spread.
  7. Amendment to the trigger and calculation of any country-specific increase of the VA.
  8. Create a “permanent VA” that reflects the long term illiquid nature of insurance cash-flows, and a “macro-economic VA” that will only exist when bond spreads are wide, e.g. during crisis. The macro-economic VA would replace the existing country specific add-on.

EIOPA has proposed 2 approaches based on a mix of these design options

APPROACH 1:     permanent VA calculated as a combination of options 4, 5 and 6 and macroeconomic

VA based on option 8.

APPROACH 2:     permanent VA calculated as a combination of options 1, 4 and 5.

The VA decreases in both approaches, but the latter is preferred by the industry as it produces a lower impact.

The 3 options presented for the GAR used in the VA calculation are:

  1. no changes (i.e. GAR= 65%), advised by EIOPA
  2. GAR = 100%
  3. GAR between 65% and 100%.

EIOPA advice for the DA was not to allow its usage under the SF as it would favour firms applying the SF versus those applying the IM, as the government bond risks are not fully captured in the SF.

EIOPA has highlighted that the need of a supervisory approval for the usage of VA should be consistent among all member states (it is currently required in 10 countries and not required in 17 others), but the Authority will decide on its preference after the consultation.

Regarding [C], EIOPA has confirmed its previous advice dated 2018 (relative shift approach), highlighting the need of modifying the IR risk calibration

The 3-years gradual implementation period would be reviewed in light of the proposed changes on the Risk Free Rates reported in [A] and [B].

Regarding [D], EIOPA has proposed to introduce tools to address systemic risk in the insurance sector by adding a general article to the SII Directive, to achieve consistency and coherence with the micro-prudential approach. NSAs should have the power to set a capital surcharge to address sources of systemic risk, to define soft thresholds for action at market level if an exposure increases dramatically and to impose a temporary restriction on surrender rights for policyholders. NSAs can require systemic risk management plans and all firms should be required to draft liquidity risk management plans, unless they obtain a waiver. The ORSA principle will be changed to explicitly include macro-prudential concerns. EIOPA has also proposed to:

  • require firms with a high market share to develop a recovery plan
  • set an officially designated administrative resolution authority in each member state
  • provide the NSAs with resolution powers of: prohibiting bonus payments to senior management; withdrawing the licence to write new business and put all or part of existing business into run-off; selling or transferring shares, assets and liabilities to third parties; restricting the rights of policyholders to surrender policies; suspending payments to unsecured creditors; until the point of taking control of the entity.
Gen 232020
 

I servizi finanziari sono fondati sulle relazioni fiduciarie, personali o impersonali che siano. Così, profilare i clienti con metodologie tradizionali non è sufficiente: occorrono anche le scienze comportamentali e la tecnologia.

Il fulcro della trasformazione in capo alle normative europee in ambito finanziario ruota intorno ad un unico paradigma: “Know Your Customer, Know Your Products”, una regolamentazione che obbliga le aziende – e di conseguenza agenti e collocatori – ad individuare puntualmente bisogni e obiettivi dei clienti, vietando il collocamento di prodotti fuori “target market”. Da norme come IDD (nel campo assicurativo) e MiFID (nel mondo banche e SGR) nasce un’occasione unica per l’industria finanziaria, ovvero quella di conoscere il profilo complessivo delle persone. Da un tradizionale questionario IDD/MiFID si possono infatti ricavare quelle informazioni oggettive (ad esempio, quelle sulla situazione familiare o le condizioni economico-patrimoniali) che contribuiscono a determinare i bisogni assicurativi e finanziari di un individuo.

Ma, come insegnano la finanza comportamentale e recentemente la neuroscienza applicata al mondo finanziario, l’uomo di per sé non è generalmente “oggettivo”. Occorre altro.

Andare oltre l’approccio tradizionale

Il processo di collocamento di un prodotto assicurativo/finanziario – come la maggior parte delle altre nostre azioni – è in realtà enormemente influenzato da altre variabili, prettamente di natura soggettiva. Si tratta di fattori di natura comportamentale, sociale e psicologica legati alle singolarità di ognuno di noi.

Quindi, tenendo conto di ciò, come si possono determinare efficacemente i reali bisogni delle persone per poi offrire loro beni e servizi in modo consapevole, coerente e trasparente?

Bisogna andare oltre l’oggettivo. Un cliente che da un punto di vista oggettivo ha un determinato bisogno, può non riconoscerlo a causa di filtri comportamentali che ne distorcono l’obiettività (i cosiddetti “Bias”). Parleremo allora di “bisogni filtrati”: filtrati dalla psiche, dalle modalità d’interazione con il resto del mondo, da esperienze individuali e condizionamenti esterni, sociali e culturali.

Una volta applicato il “filtro”, un bisogno oggettivo può risultare sfocato, distorto o addirittura sparire dal panorama mentale di un cliente. Per riequilibrare la situazione occorre allora applicare un filtro inverso, e per farlo è necessario conoscere meglio il cliente dal punto di vista comportamentale. Lo si fa applicando il Behavioural profiling (v. Figura 1), o profilazione comportamentale.

Infatti, il Behavioural profiling evidenzia a chi gestisce il cliente, e al cliente stesso, sfocature e distorsioni nei bisogni e obiettivi finanziati. Metabolizzata questa informazione, spesso grazie a “spinte gentili”, ne emerge una valutazione più razionale della realtà, nello specifico dei bisogni finanziari.

Conoscere i propri clienti dunque non è solo un’esigenza finalizzata ad evitare sanzioni, bensì uno strumento per raggiungerli, comprenderli fino in fondo come esseri umani. E servirli al meglio. Il che è cruciale, per risultare competitivi nel mondo bancario/assicurativo odierno, orientato alla personalizzazione, anzi, alla c.d. “iper-personalizzazione”. L’utilizzo congiunto di dati comportamentali e tecniche di data analytics apre quindi nuove prospettive in tema di relazione con il cliente e di qualità dei servizi forniti.

Che cos’è e come si attua il Behavioural Profiling?

Il Behavioural profiling va oltre la tipica profilazione meccanicistica e razionale dei clienti, basata su variabili socio-demografiche o di natura economicofinanziaria, e va ad includere e mettere al centro aspetti mentali, emotivi, socio-culturali.

Calato nell’industria finanziaria, il Behavioural profiling identifica i tratti latenti socio-culturali e psicologici che impattano sulla percezione dei bisogni e degli obiettivi dei clienti, nonché sui meccanismi di fruizione dei servizi finanziari ed assicurativi. Per esempio, l’acquisto di un prodotto finanziario o assicurativo può essere pesantemente influenzato da aspetti come barriere morali allo scambio economico, per cui un contratto di assicurazione sul coniuge può apparire “immorale”. Può accadere che la tendenza alla tribalità, che porta a privilegia relazioni e informazioni aventi il baricentro nella propria “tribù” sociale (quella o quelle nella quale ci si identifica), offuschi l’opinione di autentici esperti. Oppure, la presenza di effetti di sostituzione può portare a rispondere ad eventi imprevisti facendo leva su presunte relazioni e risorse personali anziché, ad esempio, ricorrere ad un efficiente e concreto contratto d’assicurazione. O, ancora, visioni del futuro miopiche e afflitte dall’overconfidence impediscono di percepire appieno il bisogno di un prodotto di previdenza integrativa.

La rilevazione dei comportamenti può essere attuata su base empirica con differenti strumenti:

  • questionari e survey (anche il questionario MiFID/IDD può essere un ottimo punto di partenza, se progettato nel modo giusto);
  • app dedicate e altre situazioni di “gaming”;
  • analisi dei dati di navigazione e conversazioni con chatbot;
  • rilevazioni biometriche (metodo difficilmente applicabile nell’operatività di un intermediario).

I dati individuali possono – e in realtà dovrebbero – essere integrati con altre informazioni utili a completare il quadro di ciascun cliente o prospect, quali:

  • dati di natura comportamentale legati ad un campione più ampio; in particolare dati associati a individui analoghi, a “customers personas” che gli assomigliano e che aiutano a inquadrarlo in una prospettiva più ampia, spesso riducendo i margini di errore;
  • dati non-comportamentali esterni ai database dell’intermediario, ma recuperabili da banche dati esogene e associabili a quelli dello specifico individuo in esame.

Combinare i dati del singolo individuo con quelli di una popolazione campionaria più ampia implica l’uso di metodi di “data fusion”, cioè di fusione di basi informative, con differenze di tipologia e granularità dei dati più o meno marcate. Sono metodi alla base di qualunque processo di “data enrichment”, che porta ad arricchire una certa base dati con informazioni ad essa esterne.

Il risultato finale è, generalmente, un profilo del cliente più nitido e ricco di informazioni utili a qualificare e sviluppare meglio la relazione con il cliente. L’idea è piuttosto intuitiva, ma gli aspetti tecnico-statistici possono non essere banali – ad esempio, nell’esperienza di Virtual B, è utile il ricorso a modelli gerarchici Bayesiani.

Ricadute di business

Il Behavioural profiling consente di conoscere su base empiricamente e scientificamente solida i meccanismi profondi (emotivi, psicologici, culturali e sociali) alla base dei processi di decisione, acquisto e relazione che caratterizzano il business finanziario-assicurativo, fortemente basato su rapporti fiduciari. Si tratta di un enorme vantaggio competitivo che si concretizza in molti modi nelle modalità di relazione azienda-consulente-cliente – v. Figura 2:

  • nella relazione con il cliente, sia nella fase pre-sales che post-sales, fornendo informazioni utili a chi gestisce la relazione con il cliente;
  • nello studio dei prodotti e dei servizi, i.e. il disegno del modello di servizio e del “client journey”, incluse le modalità di comunicazione;
  • nel disegno di campagne di marketing basate su “personas” individuate grazie ai dati raccolti;
  • nella progettazione della UX/UI di applicativi;
  • nel customer care.
Gen 192020
 

Gli ultimi quaranta anni sono stati caratterizzati da un trend disinflazionistico molto forte con tassi in discesa e oggi negativi in molti paesi sviluppati. Lo scorso anno abbiamo assistito ad un cambio di marcia negli Stati Uniti – la Fed ha infatti proceduto ad un rialzo dei tassi. Per quanto le politiche di normalizzazione dei tassi siano molto incerte, è indubbio che siamo di fronte ad un bottom dei tassi e dell’inflazione. La sfida dell’industria è quella di immaginare nuovi paradigmi di asset allocation che possano funzionare bene in contesti diversi rispetto a quelli che abbiamo visto negli ultimi decenni. 

L’approccio tradizionale all’asset allocation è basato sul paradigma media-varianza di Markowitz (Markowitz, 1952). È ormai comunemente accettato che questo approccio dipende fortemente dalle ipotesi sui rendimenti attesi. In Pola & de Laguiche (2012) abbiamo evidenziato come i modelli di equilibrio comunemente utilizzati per la stima delle attese di rendimento siano poco efficaci nel contesto attuale (le nostre considerazioni nel 2012 restano valide anche oggi). Altro problema del modello di Markowitz è che le allocazioni sono poco diversificate (Pola & Zerrad, 2014).

In letteratura sono state proposte molte soluzioni a questo problema, in particolare il modello di Black&Litterman (Black & Litterman, 1990), approcci di asset-allocation robusti (Tütüncü & Koenig, 2004) e modelli Bayesiani robusti (Meucci, 2007). L’industria ha superato il problema della stima dei rendimenti attesi attraverso lo sviluppo di strategie d’investimento forecast-free come il minimum-variance e low-volatility (Baker et al, 2011), risk-parity (Meucci, 2009; Roncalli, 2013; Pola, 2014; Pola, 2016) e maximum-diversification (Choueifaty and Coignard, 2008).

A nostro avviso il problema è ridotto solo per metà. Resta una dipendenza molto forte di questi approcci verso il rischio di stima dei parametri di rischio: in Pola (2013a) mostriamo come il turn-over di queste strategie sia generato per buona parte dall’errore di stima delle co-varianze (principalmente le correlazioni) e non da variazioni strutturali nelle proprietà rischio-rendimento delle asset-class.

Il nostro approccio parte da una diversa angolazione. Noi crediamo che la dinamica dei prezzi delle asset class possa essere spiegata per buona parte dalla variazione delle aspettative di crescita ed inflazione e dal premio al rischio disponibile sul mercato.  Questo principio afferma dei concetti comunemente accettati dalla comunità. Tuttavia ci sono degli aspetti su cui è necessario soffermarsi:

  • Il principio mette in relazione la dinamica delle asset-class con la variazione delle aspettative delle variabili macro. È fondamentale ragionare in termini di variazione dei “livelli”, infatti il livello attuale della crescita economica e/o dell’inflazione sono già integrate nei prezzi degli attivi rischiosi e dunque non possono essere dei buoni predittori per spiegarne la dinamica futura.
  • Il principio pone l’accento su due variabili di carattere macro-economico, crescita ed inflazione, e su una terza dimensione, il premio al rischio. Questa grandezza, così come da noi intesa, è intrinsecamente cross-asset ed è sensibile alla liquidità degli attivi finanziari, l’incertezza macro e le politiche monetarie delle banche centrali.

E’ nostra convinzione che un approccio di questo tipo che tende a vedere le dinamiche delle asset-class come pura manifestazione di fattori più alti (crescita, inflazione e premio al rischio), sia più efficace nella gestione del portafoglio. Inoltre permette di gestire in modo più coerente l’incertezza macro tipica di fasi mature del ciclo economico come in questo particolare periodo storico. Non ultimo per importanza, approcci fattoriali di questa natura sono più robusti in quanto più resilienti a fenomeni di risk-off di mercato: è infatti noto che in periodi di forte correzione dei premi al rischio le correlazioni medie delle asset-class tendono a salire; in approcci fattoriali (come il nostro approccio Global Macro) invece le correlazioni tra fattori tendono a rimanere più stabili.

Le nostre considerazioni qui sono puramente metodologiche: quando si effettua una misurazione (e.g. la lunghezza di un tavolo) è importante avere uno strumento di misura (il metro, in questa analogia) che sia costante nel tempo e uguale e per ogni oggetto che si voglia misurare, analogamente è importante avere un processo di investimento con delle grandezze (i parametri dei modelli) che siano invarianti rispetto ai vari scenari di mercato, altrimenti la misurazione effettuata dipende da quando la si effettua. Detto diversamente, riteniamo sia necessario costruire un processo decisionale robusto ed invariante rispetto a quello che accade nei mercati finanziari.

Da un punto di vista tecnico il modello prevede dapprima l’identificazione di stati di riferimento sulle due variabili macroeconomiche. Per semplicità abbiamo considerato quattro scenari: accelerazione della crescita economica, rallentamento/recessione, accelerazione dell’inflazione, disinflazione/deflazione. È importante evidenziare ancora una volta come le grandezze siano costruite sulle aspettative, dunque sulla “variazione dei livelli”. In altre parole si procede a mappare lo stato del mondo attraverso due variabili (crescita ed inflazione), ognuna delle quali può assumere solamente due stati (rising o falling). Si tratta di un problema di classificazione che può essere approcciato con tecniche di Markow switching o più in generale attraverso l’utilizzo del Machine Learning.

Una volta identificati gli stati binari di crescita ed inflazione è possibile quantificare il grado di ortogonalità delle due variabili dicotomiche. La misurazione empirica della pseudo-distanza di Kullback-Leibler (Cover & Thomas 1991) evidenzia un buon grado di ortogonalità: le aspettative al rialzo o ribasso della crescita economica sono indipendenti (con un buon grado di confidenza) rispetto alla variazione delle attese di inflazione. In alternativa si sarebbe potuto seguire un approccio statistico per identificare i fattori indipendenti (Meucci, 2009; Oja et al, 2000; Meucci et al 2015). Un approccio di questo tipo garantisce perfetta ortogonalità dei fattori, tuttavia presenta due grosse difficoltà: (i) interpretabilità dei risultati e (ii) soluzioni troppo variabili nella dimensione temporale. Dunque abbiamo preferito un approccio non «perfetto» in termini di ortogonalità ma che permette di contro una lettura molto più efficace e soprattutto stabile nel tempo.

Successivamente si procede con lo studio della sensitività macro degli attivi rischiosi rispetto ai quattro scenari identificati su crescita ed inflazione. Questa misurazione viene effettuata attraverso l’utilizzo di un approccio proprietario, l’analisi di polarizzazione. L’idea è che gli attivi si “polarizzino” come gli spin di un elettrone in un campo magnetico, quando sollecitati da aspettative positive o negative sulle due grandezze macro. Il coefficiente di polarizzazione misura dunque l’attitudine di un attivo rischioso rispetto alla variazione delle aspettative di crescita e/o inflazione. Si tratta di un numero compreso tra +1 e -1, il suo segno indica preferenza per uno scenario di tipo “rising” o “falling”, mentre il suo valore assoluto indica l’intensità della relazione. Misure empiriche sul S&P 500 forniscono +99% per la polarizzazione verso la crescita economica e -80% per la polarizzazione verso l’inflazione: l’S&P 500 preferisce uno scenario di accelerazione della crescita economica e/o uno scenario disinflattivo, inoltre la variabile crescita economica domina quella inflattiva.

Una mappatura di questo tipo è intrinsecamente strategica perché de facto si origina dal pricing dell’asset class. Questa metrica permette di realizzare una tassonomia molto precisa degli attivi rischiosi in ragione del loro comportamento rispetto a shift macro sulle due variabili crescita ed inflazione. I coefficienti di polarizzazione sono calcolati con un approccio parametrico. Tuttavia nel caso di asset-class con evidente deviazione dalle ipotesi di gaussianità dei rendimenti (e.g. debito emergente e high yield bond con distribuzioni fortemente asimmetriche e leptokurtic) preferiamo un approccio non-parametrico basato sul bootstrapping.

La figura 1 riporta il posizionamento di un universo molto ampio di attivi rispetto alle aspettative di crescita ed inflazione. Il piano prende il nome di piano di polarizzazione, ogni punto corrisponde alle asset-class, le coordinate dei punti sono i coefficienti di polarizzazione. Evidentemente le quattro asset-class principali sono obbligazioni nominali, mercati azionari, materie prime e obbligazioni indicizzate all’inflazione – le quattro asset-class occupano infatti i quattro angoli del piano: (i) i bond nominali preferiscono uno scenario di tipo falling growth e falling inflation, (ii) gli inflation-linked bond un contesto macro di tipo falling-growth e rising-inflation, (iii) i mercati azionari rising-growth e falling-inflation, infine (iv) le commodity rising-growth e rising-inflation. 

Una classificazione di questo tipo permette di costruire un portafoglio multi-asset che sia coerente con una precisa visione top-down. Per esempio: una scommessa di puro alpha (non-direzionale) che esprima preferenza per crescita economica in accelerazione vede un portafoglio lungo mercati azionari e commodity e corto bond nominali ed inflation-linked. Seguendo questo ragionamento è possibile costruire dei proxy portfolio che rappresentano le variazioni delle attese su crescita ed inflazione: di fatto questi assi possono essere trovati effettuando una rotazione nello spazio astratto bi-dimensionale del piano di polarizzazione.

Il modello così rappresentato riesce a spiegare buona parte delle dinamiche dei prezzi sui mercati finanziari. Tuttavia ci sono degli scenari non compatibili con la rappresentazione fornita fino a questo punto. Fasi di Quantitative Easing oppure Tapering, scenari di market disfunctioning come nella GFC del 2008 o più in generale di scarsa liquidità nei mercati, evidenziano pattern di rendimenti di asset class fortemente correlate. In questi scenari le asset-class tendono a muoversi in modo sincrono tutte nella stessa direzione. Una fenomenologia di questo tipo non è compatibile con le evidenze empiriche delle polarizzazioni su crescita e inflazione.

E’ necessario allargare lo sguardo. In fisica ogni volta che le evidenze empiriche mostrano incongruenze con i modelli accettati, si procede a ripensare il modello di riferimento in modo più ampio, a generalizzare l’approccio. Per esempio i modelli di unificazione delle interazioni fondamentali si spingono oggi a ipotizzare un mondo fisico non più quadri-dimensionale come immaginato da Einstein ma ad un mondo con extra-dimension di genere tempo e spazio (Cheng & Li, 1995).

Analogamente il modello è stato arricchito introducendo un terzo fattore: il premio al rischio globale. Esso corrisponde al reward che ogni investitore richiede per detenere un asset rischioso. È per sua natura cross-asset, indipendente dalle attese di crescita e inflazione ed espressione dello stato di salute del mercato preso nella sua totalità, dunque scarsamente dipendente dalle dinamiche idiosincratiche dei singoli titoli. Da un punto di vista geometrico si tratta di una terza dimensione, un terzo asse ortogonale a crescita ed inflazione. I suoi determinanti di prezzo principali sono:

  • la liquidità disponibile sui mercati finanziari,
  • l’avversione al rischio degli investitori,
  • il catastrophic risk,
  • l’incertezza macro.

Storicamente si è visto come le politiche monetarie abbiano un effetto molto forte sul premio al rischio. I nostri studi mostrano come il Quantitative Easing o più semplicemente un atteggiamento «dovish» delle banche centrali spinga il premio al rischio verso performance positive, mentre politiche di Tapering (e.g. 2013) o comunque aspettative «hawkish» spingono ad un repricing degli attivi rischiosi e di conseguenza ad un aumento della volatilità del premio al rischio.

Da un punto di vista formale il premio al rischio è modellizzato attraverso un processo di ottimizzazione che permette di sintetizzare il portafoglio “macro-neutral”, ovvero un portafoglio costruito per essere neutrale rispetto alle aspettative di crescita ed inflazione. È evidente che in un contesto dominato dall’incertezza macro, l’investitore dovrebbe detenere il portafoglio “macro-neutral”, un portafoglio dunque bilanciato sulle aspettative di crescita ed inflazione ma che sia esposto ai premi al rischio di un universo molto ampio e diversificato.

A conclusione di questa lettera offriamo una rilettura della dinamica recente dei mercati azionari. Nel 2019 si è creato un mismatch tra dati fondamentali macro e andamento dei mercati finanziari. In figura 2 si evidenzia una discesa marcata dei rendimenti dei titoli governativi di tutti i paesi G7 nel 2019, andamento tipico di scenari di rallentamento/recessione. Lo scenario dei tassi è stato supportato dai dati macro che hanno registrato difficoltà nei paesi sviluppati ed emergenti. A fronte di uno scenario di questo tipo, i mercati azionari hanno registrato nello stesso periodo un andamento molto positivo. Come riconciliare i dati macro con l’andamento delle borse?

Proviamo ora a rileggere la dinamica dei prezzi dei mercati azionari alla luce del modello a tre fattori. In figura 3 riportiamo l’andamento cumulato del MSCI World in USD dal 31/12/2018 al 30/10/2019. La performance cumulata è stata poi proiettata sui tre fattori in modo da analizzare in modo separato i vari contributi. Emergono alcuni spunti interessanti:

  • È evidente che la performance della borsa si possa spiegare per buona parte dall’andamento del premio al rischio, favorito certamente dall’atteggiamento «dovish» delle banche centrali.
  • L’andamento della componente di crescita (e non il mercato azionario preso nella sua totalità) è invece coerente con le aspettative macro di rallentamento.
  • Lo scenario disinflattivo ha contribuito positivamente.
  • La dinamica del premio al rischio, molto forte da inizio d’anno, sembra invece aver ceduto il passo al fattore crescita che forse inizia a beneficiare di alcune vicende come l’avvicinarsi di un accordo tra Stati Uniti e Cina sulla guerra dei dazi e maggiore chiarezza sul tema Brexit.

Questo esempio evidenzia come il modello Global Macro offra una lettura alternativa alle dinamiche dei prezzi delle asset-class ed inoltre permetta di separare in modo molto trasparente e preciso l’effetto delle dinamiche macro da quello delle banche centrali.

Per maggiori dettagli sul modello si rimanda il lettore a Pola (2013b), Pola (2013c) e Pola & Facchinato (2016)