We extend the analysis we sketched in Castagna [4] and we provide an application of the framework we introduced to incrementally evaluate financial contracts within a financial institution’s balance sheet.

## 1  Introduction

In Castagna [4] we sketched a framework to evaluate a contract inserted within the balance sheet of a financial institution. The main result of that work is the importance to assess the impact that the contract’s insertion in the bank’s books causes in terms of changes of the value of the bank. This is tantamount to saying that a contract has a value to the bank that equals its incremental (or marginal) contribution to the total net value of the bank.

The first consequence of this approach is that the (incremental) value to the bank is a subjective quantity that does not need to be that same as the price quoted and dealt in the market. The difference between price and value of a contract is a concept that we stressed in Castagna [3] and [2]: For an evaluator that is a hedger/replicator, the price of a (derivative) contract is just the payment terms that both parties agree upon when closing the deal; the value of the same (derivative) contract is the present value of the costs paid to replicate the intermediate and final pay-off until the expiry, which in turn is the incremental change in the total hedger/replicator’s net value.

The second consequence is that the valuation should be correctly operated by considering the existing balance sheet structure. The main result from the analysis in Castagna [3] is that, if the contract is sufficiently small so that it does not alter (for practical purposes) the probability of default of the evaluator (bank), then the approximated value can be fairly considered as the equivalent to the algebraic sum of the value of i) an otherwise identical risk-free contract (the “pure” value”), ii) the Credit Value Adjustment  CVA and iii) the Funding Value Adjustment FVA  referring to the same contract. If the contract has a large notional so that it changes the evaluator’s default probability, then the value has to be determined in a more precise fashion by algebraically adding to the sum above the term iv) Limited Liability Value Adjustment (LLVA). The latter quantity is somehow similar to the more common Debit Value Adjustment (DVA), in that it affects the value of the contract in the opposite direction than the CVA; nonetheless it cannot be considered as equivalent to the DVA for many reasons that we thoroughly discuss in Castagna [3].

Only the value of a contract can be incremental. The concept of incremental price is meaningless, because the price cannot include all the incremental valuations referring to the parties involved in the transaction, or two generic parties that would trade in that contract if the price is only a quote not yet dealt. Clearly we are not saying here that the two parties do not consider their own incremental value when bargaining before closing the deal at the agreed price: on the contrary, they will try to push the price as near as possible to the (likely diverging) values they assign to the contract. The effectiveness of this effort depends on the relative bargaining strength existing between the two parties.

The reference system, with respect to which the bank evaluates the incremental impact of the new contract it trades, should be the economic value of the bank to its shareholders. In fact, shareholders are the last claimants on the residual value of the assets, so that the value to them clashes with the ultimate value of the bank, after having considered the payment of all the other stakeholders that have a higher grade in the claimants’ order. The only way to compute this value is to jointly evaluate all the assets and liabilities (investments, securities, contracts, etc.), taking into account the limited liability that is granted to the shareholders, to come up with the net wealth of the bank. We would like to stress the fact that if the shareholders directly, or (as it is usually the case) the bank’s management indirectly, miximise the bank’s value, they are also acting in the best interest of all other senior claimants to the assets’ value (e.g.: bond holders, depositors, etc.). The present work is a two-part article. In the current first part, we will lay out a general framework to calculate the bank’s value. The framework allows to shed some light also on the economic meaning of the Capital Value Adjustment (KVA) of a contract.

In the second part of the article, we will show how to apply the framework to the evaluation of a contract that is inserted in the existing bank’s balance sheet and how to properly compute the xVAs quantities. Finally, we will see how to conciliate the apparently theoretical unsound market practices to evaluate derivative contracts, and the nowadays standard results of the modern financial theory, namely the Modigliani-Miller (MM) theorem (see Modigliani and Miller, [9]).

The analytical details of the results presented below can be found in an extended version of this work, available at www.iasonltd.com in the research section.

## 2  A Continuous-Time Setting for Incremental Valuation of Financial Contracts

In order to generalise the discrete-time setting sketched in Castagna [3], we needto work in a general equilibrium framework, since it is not generally possible to determine a single equivalent probability measure based on a no-arbitrage argument that relies on a dynamic replication. We will refer to that one outlined in Cox, Ingersoll and Ross (CIR, [5]), although we relax some of its assumptions. Namely, we will work in an economy where a single good is produced by means of N production technologies whose transformation process is governed by a system of stochastic processes.

Each technology is affected by K state variables Yk  (with k= {1…..K} ), whose evolution too is governed by a system of stochastic variables.

There is a single interest rate  at which a fixed number of economic agents may borrow or lend but, differently from CIR [5], we allow for the default of the borrower, which means that the terminal pay-off of a loan includes the expected losses due to the borrowers’ default. Finally, another assumption of CIR [5] we relax is that all economic agents have an identical utility function à la Neumann-Morgenstern: we consider a specific utility function for each economic agent and a general utility function that can be seen as a sort of average of the single agents’ utility functions.

The possibility to have different utility functions allows the presence of different risk-premia over the risk free rate r  within the expected yield of the contingent claims possibly traded in the economy, whose pay-offs may depend on the  K state variable and the wealth of a single agent, or of the entire economy aggregate wealth. The relaxing of the assumptions of the CIR [5] setting are necessary to distinguish between the fair (objective) price of a contract (contingent claim) and its (subjective) value.

Let us consider the value of the bank to shareholders at time t, VB(t): assuming that in the banks’ balance sheet there are I assets Ai(t), cash B(t) and J liabilities (debt) Lj(t), the evolution of the value of the bank can be written as:

The dynamics of all three components is stochastic. As such, the dynamics of the bank value can be described by a general SDE:

Assuming that any financial contract depend on the K risk factors and that the cash is invested at the risk-free rate r, which is a variable that depends on the stochastic factors as well, it can be shown[1] that

Some comments are in order: the expectation in Equation (4) is taken under the real world measure P , which means that all the drifts of the risk factors Yk are those of the real world dynamics. It should be noted that the discounting is operated with the risk free rate r as it is typically the case when the expectation is taken under the risk neutral measure Q.

i.e.: when the dynamics of the risk factors are risk neutral. To account for the error made in discounting with the risk free rate pay-offs that depend on real world dynamics of the risk factors, we add an adjustment equal to the risk-premia for all risk factors, referring to each contingent claim in the assets and in the liabilities of the bank’s balance sheet.

We have now to examine two possible cases when the banks buys an assets, or issue debt.

### The Bank is Price Taker

Let us assume that the bank buys all assets in the market and it has no greater bargaining power than any other agent. In this case, the bank must accept the prices set by the market for all the assets it buys. The bank funds the purchase of the assets by issuing debt claims whose price is also set by the creditors, and it passively has to accept it since it has no bargaining power. This assumption implies that the drift of each asset is determined by the market with no possibility for the bank to affect it. The same reasoning can be applied also to debt claims in the liabilities.

In conclusion, when the bank has to issue debt claims whose price is set by the market, it will pay twice the risk-premium: the risk-premium embedded in the price required by the buyers (creditors of the bank), and the risk-premium that the bank has not been able to include in the price. While for the assets the market’s and bank’s risk-premia are affecting the total bank value only for the net difference, for the liabilities the difference is actually a sum of two risk-premia (since they must have opposite signs) and as such acting on an aggregated basis on the bank value.

### The Bank is Price Maker

Let us assume that the bank is able to set the price when buying assets and when issuing new debt. In this circumstances, the price should be such that it embed a risk-premium such that the bank value at least does not decline after the inclusion of the new asset, or new liability, in the bank’s balance sheet.

### 2.1  An Interpretation of the KVA

The Capital Value Adjustment (KVA) is the most recent item of the list of adjustments to the “pure” value of a contract, and it has been analysed by several authors: for an excellent review of the matter, and the regulatory and managerial concerns that originate the need for such adjustment, we refer to Prampolini and Morini [10] and the bibliography therein, which contains all the relevant literature at the time of writing.

It is the adjustment in the evaluation formula (4) when the equity capital is set in such a way that it matches the Economic Capital as defined above. Some considerations are in order:

• the definition of Economic Capital given above can be applied both to risk-based measure (e.g.: simulation models applied to the bank’s balance sheet) and non-risk-based measures (e.g.: regulatory formulae): for a discussion of both types of measures, see Prampolini and Morini [10];

• the KVA  is consistently computed only under the real-world measure P and it is discounted with the risk-free rate: these are not assumptions or choices arbitrarily made, but both are naturally derived from the framework sketched above (different discount factors can be found in Prampolini and Morini [10], Kjaer [8], Brigo et al.[1], Green et al. [7]: in some cases the discount factors include the intensity of default of the counterparty and of the bank, in any case they are not consistently derived within an equilibrium framework such as the one above). When one wants to compute the bank’s value under the risk-neutral measure, the inclusion of the  KVA is not consistent, unless the adjustment includes only the difference between the bank’s and the market’s risk-premia, in which case Equation (4) becomes:

• the remuneration of the Economic Capital is given by only the risk-premia embedded in the assets, cash (bank account) and liabilities, either set by the market or by the bank depending on the bank’s bargaining power in each case. This result in in striking contrast with all the literature publicly available at the time of writing (see the point above), where the remuneration encompasses the entire return on the contracts in the balance sheet. This will produce a double counting of the risk-free rate within the calculation of the bank’s value, which will also imply a wrong adjustment if the bank is able to set a contract’s price. Our result descends from the general equilibrium framework and is valid in the case the value is computed under the real-world measure, otherwise the inclusion of the KVA adjustment is quite untenabale;

• the risk-premium of the equity capital is a weighted average of the risk-premia of the different items of the balance-sheet: when the bank has pricing power, it can require a premium proportional to the risk of the contract and the incremental Economic Capital needed to preserve the same probability of default of the bank. Pricing based on RAROC criteria are common choices, lately suggested also in Prampolini and Morini [10] and Brigo et al.[1];

The framework that we have sketched above can be used in practice to evaluate the impact of a new contract inserted in the bank’s balance sheet, or: the incremental value of the contract to the bank. We will show how to do that in the second part of the article.

References

[1]  D. Brigo, M. Francischello, and A. Pallavicini.  An indifference approach to the cost of capital constraints: Kva and beyond.   available at arxiv.org, 2017.

[2]  A. Castagna.  On the dynamic replication of the DVA: Do banks hedge their debit value adjustment or their destroying value adjustment?   Iason research paper. Available at http://iasonltd.com/resources.php, 2012.

[3]  A. Castagna.  Pricing of derivatives contracts under collateral agreements: Liquidity and funding value adjustments.   Iason research paper. Available at http://iasonltd.com/resources.php, 2012.

[4]  A. Castagna.  Towards a theory of internal valuation and transfer pricing of products in a bank: Funding, credit risk and economic capital.   Iason research paper. Available at http://www.iasonltd.com, 2013.

[5]  J.C. Cox, J. E. Ingersoll, and S. A. Ross.  An intertemporal general equilibrium model of asset prices.   Econometrica, 53(2):363–384, 1985.

[6]  A. Friedman.   Stochastic Differential Equations and Applications, Volume 1.  Academic Press, 1975.

[7]  A. Green, C. Kenyon, and C Dennis.  Kva: Capital valuation adjustment.   available at arxiv.org, 2014.

[8]  M. Kjaer.  Kva from the beginning.   available at ssrn.com, 2017.

[9]  F. Modigliani and M.H. Miller.  The cost of capital, corporation finance and the theory of investment.   The American Economic Review, 48(3):261–297, 1958.

[10]  A. Prampolini and M. Morini.  Derivatives hedging, capital and leverage.   available at ssrn.com, 2018.

[1] See the extended version of the paper for the complete proof.

Il Final Text del Comitato di Basilea 2016 [1] prevedeva come data di prima segnalazione regolamentare secondo il nuovo framework Market Risk – Fundamental Review del Trading Book – il 31 dicembre 2019. Sia le banche intenzionate a segnalare utilizzando il modello interno sia il Regulator dovrebbero essere quindi nel vivo di application, on-site inspection e validazioni delle metodologie adottate.

Da tale prima indicazione, invece, si sono susseguite innumerevoli evoluzioni normative sfociate in due aggiornamenti recenti: la revisione del Final Text tramite un nuovo documento BCBS di gennaio 2019 [2] e la proposta di modifiche alla Capital Requirements Regulation (CRR II) con un nuovo testo di febbraio 2019 [3], pubblicata nella Gazzetta Ufficiale dell’Unione Europea il 7 giugno 2019 [4][1].

Quest’ultima introduce una fase di reporting “come primo passo verso la completa implementazione della FRTB nell’Unione Europea” oltre ad un’ulteriore dilatazione delle tempistiche per l’entrata in vigore dei nuovi requisiti ai fini segnaletici, di cui non si menziona una data certa (non si esclude che essa possa essere contestuale al suddetto reporting IMA previsto potenzialmente per giugno/settembre 2023).

L’articolo si propone di effettuare alcune riflessioni sulle implicazioni derivanti dall’incertezza normativa dell’attuale timeline che porterà al definitivo go-live della FRTB ai fini segnaletici e di fornire una overview degli ultimi sviluppi metodologici con i relativi impatti sul capitale regolamentare che le banche dovranno detenere ai fini del Pillar I (FRTB Standard vs FRTB Modello Interno).

1. Timeline: la fase di reporting prima della segnalazione regolamentare

Con la pubblicazione in Gazzetta Ufficiale della nuova CRR II partirà un ulteriore iter normativo per giungere al reporting delle nuove misure di rischio:

• Entro dicembre 2019 la Commissione Europea dovrà adottare un atto delegato con l’obiettivo di rendere operativa la FRTB ai fini di reporting; trascorso non oltre un anno dall’adozione dell’atto delegato, le banche dovranno cominciare la fase di reporting secondo lo Standardised Approach (SA), a partire quindi dal 31 dicembre 2020;
• Ai fini del reporting tramite Internal Model Approach (IMA) dovranno essere completati diversi passaggi normativi: entro il 28 marzo 2020 la European Banking Authority (EBA) dovrà emanare specifici Regulatory Technical Standards (RTS)[2] che permetteranno di completare quasi interamente il framework metodologico della FRTB; 3 anni dopo l’adozione dell’ultimo RTS da parte della Commissione Europea si potrà iniziare il reporting, purché vi sia stata l’approvazione del modello interno da parte dell’Autorità di Vigilanza. Salvo ulteriori posticipi il primo reporting è atteso per giugno/settembre 2023.

Inoltre, il quadro legislativo è completato con le seguenti due indicazioni da attuare entro il 30 giugno 2020:

• Tramite RTS EBA dovranno essere definite le modalità e la frequenza del reporting;
• La Commissione Europea dovrà formalizzare al Consiglio e Parlamento Europeo una proposta legislativa per includere la FRTB nel package della regolamentazione CRR III. In tale circostanza sarà indicata la nuova data di entrata in vigore della FRTB ai fini di segnalazione regolamentare del Pillar I.

Il contesto normativo appena presentato si preannuncia di difficile interpretazione soprattutto per la parte di Industry interessata ad adottare i modelli interni FRTB e che, con costanza, perseveranza e notevoli investimenti, ha seguito ed adottato le indicazioni legislative e metodologiche sin dall’inizio della rivisitazione del Rischio di Mercato. Alcune implicazioni rilevanti sono di seguito descritte:

• Impatti sulla struttura IT: le banche che già adottano i modelli advanced dovranno garantire per un periodo più lungo la produzione delle metriche secondo Basilea III (VaR, SVaR e IRC) e un monitoring, seppur meno frequente, per le misure FRTB; tale parallelismo dovrà essere garantito almeno fino a giugno/settembre 2023, rispetto alla precedente deadline di gennaio 2022, e fino a quando entrerà in vigore FRTB ai fini Pillar I (non si esclude possa essere posticipata a fine 2024);
• Gli sviluppi progettuali non potranno ritenersi conclusi fino all’emanazione degli RTS EBA e ciò allungherà i tempi di presidio degli sviluppi e soprattutto dovranno essere monitorati attentamente gli impatti su Backtesting e Profit & Loss Attribution (cosiddetti Validation Tests) che incideranno sulla definizione delle serie storiche per desk per l’ammissione a modello interno (vedi par. 2.3);
• Inoltre, se da un lato si rende vincolante l’inizio del reporting per lo Standardised Approach, dall’altro si lascia alla facoltà della banca di aderire al modello interno (cfr. art. 430b CRR II [4]); al momento, non sono ancora chiari con certezza quali possano essere i vantaggi di un reporting IMA e, di notevole rilevanza, non è escluso che ECB possa effettuare un’ulteriore validazione del modello interno (presumibilmente in forma ‘light’ rispetto a quella del reporting) prima della segnalazione per Pillar I con ulteriori impatti sui costi. Molto dipenderà anche dalla capacità di ECB di sostenere un alto afflusso di richieste di validazione da parte delle banche che vorranno adottare il modello IMA.

2. Metodologia: continui affinamenti

L’incertezza normativa della timeline è accompagnata anche da un continuo affinamento della metodologia, molto spesso a seguito di lunghi dialoghi, analisi ed evidenze tra le parti in gioco. In questo paragrafo cercheremo di effettuarne un breve sum-up con alcune implicazioni operative.

A marzo 2018 il Comitato di Basilea ha pubblicato un Documento Consultivo [5] per chiarire alcuni aspetti metodologici ancora aperti (es. Non-Modellable Risk Factor) e proporre delle revisioni alle disposizioni presentate nel documento di gennaio 2016 (es. P&L Attribution e Standardised Approach). Sulla base delle numerose contribuzioni dell’Industry, il nuovo paper BCBS di gennaio 2019 incorpora quasi tutte le proposte metodologiche presentate nel Consultative Document, modulate in base ai feedback recepiti.

2.1 Standardised Approach

Il paper BCBS di gennaio 2019 propone, fra le revisioni di maggior impatto, una riduzione rilevante dei risk weight per le asset class GIRR e FX, che portano ad una diminuzione del requisito di capitale. Secondo le stime fornite dalla Global Association of Risk Professionals (GARP) sulla base degli esiti dei Quantitative Impact Study semestrali, il rapporto fra modello SA e modello IMA è in continua diminuzione: le prime evidenze numeriche (QIS 1) stimavano un ratio x5, mentre il QIS 9 mostra un ratio x1.6. La riduzione dei risk weight si colloca nel trend di ulteriore contrazione del requisito di capitale standard, con un rapporto stimato verso la soglia x1.5 (da confermarsi sugli esiti del QIS 11).

Il documento propone altre revisioni (possibilità di considerare coppie FX liquide derivanti da triangolazione; scenari di correlazione; trattamento di strumenti finanziari non lineari, formula di curvatura, …) al fine di rendere il modello standard più rappresentativo del rischio effettivo del portafoglio (si rimanda a [6] per overview dell’approccio).

2.2 Standardised Approach semplificato

Nel 2017 è stato pubblicato dal Comitato di Basilea un Documento Consultivo [7] che propone l’applicazione di un modello standard semplificato, laddove siano soddisfatte alcune soglie di applicabilità, al fine di andare incontro alle banche medio-piccole (come descritto in sintesi in [8]). I paper BCBS di marzo 2018 e gennaio 2019 confermano la possibilità di usare l’approccio semplificato, consistente con la ricalibrazione dell’attuale requisito Basilea III tramite l’applicazione di un moltiplicatore al contributo di ogni risk class, ma non viene indicata la precedente proposta di poter utilizzare anche il Reduced Standardised Approach FRTB.

2.3 Profit and Loss Attribution (PLA)

Il Comitato ha monitorato le performance delle metriche dei test PLA, Mean e Variance Ratio, proposte nel BCBS di gennaio 2016 ed ha evidenziato preoccupazioni sulle loro capacità di discernere la vicinanza fra le PnL generate dal Risk Management (RTPL) e dal Front Office (HPL). A tal scopo il paper BCBS di gennaio 2019 introduce due nuovi test, proposti nel Consultative Document di marzo 2018, in sostituzione dei precedenti: Spearman Correlation, come test di correlazione, e Kolmogorov-Smirnov, come test di somiglianza statistica, entrambi calcolati su un anno di serie storica di RTPL e HPL. In base agli esiti dei test, tramite la definizione di soglie, i desk sono categorizzati in tre fasce distinte (Traffic Light Approach)[3]: green (desk eligible: IMA), amber (desk eligible con penalizzazione: IMA + surcharge) e red (desk ineligible: SA). Il Comitato recepisce nel documento di gennaio 2019 le evidenze presentate dall’Industry sulla difficoltà di passare i test e ne ha ammorbidito le soglie a vantaggio della green e amber zone.

Emergono tre punti critici relativamente alla P&L Attribution. In primo luogo, la problematica della potenziale presenza di cliff-effect più volte sollevata dall’Industry non è stata totalmente superata dal documento normativo: infatti il verificarsi di questa situazione non è esclusa dalla nuova formula di aggregazione proposta. In particolare:

• Laddove non vi sia un desk in amber zone, la metodologia di aggregazione non varia rispetto alla formulazione originaria ed il requisito di capitale è dato dalla somma dell’aggregato a modello interno dei desk in green zone e dell’aggregato a standard per quelli in red zone. In questa circostanza, la rottura degli hedge esistenti tra desk nelle differenti PLA zone, potrebbe portare ad un requisito più alto rispetto a quello standard su tutti i desk;
• La presenza di un solo desk in amber zone fa sì che si modifichi la formula di aggregazione con l’attivazione di un surcharge che, se positivo, annulla la possibilità di osservare un cliff effect (imposto un cap al requisito standard). Tuttavia se il suddetto surcharge, con probabilità residuali assuma valore nullo, si attiva un ulteriore add-on che, ancora una volta, non esclude il verificarsi di un cliff effect.

In entrambe le casistiche, come logico, la presenza di cliff effect finirebbe per vanificare gli incentivi all’utilizzo del modello interno.

Un secondo elemento di criticità riguarda la frequenza di applicazione dei Validation Test ed i relativi effetti ai fini Pillar I: infatti, differentemente da Basilea III, gli esiti della P&L Attribution e del Backtesting per desk dovranno essere applicati non solo nella fase di validazione iniziale ma con cadenza trimestrale[4]. Questo implica che un generico desk può cambiare zona in base al Traffic Light Approach generando potenzialmente una certa variabilità nel requisito di capitale complessivo. Di conseguenza, anche qualora il cliff effect non si verifichi al momento della validazione iniziale, potrebbe presentarsi nel corso delle segnalazioni successive.

Infine, un terzo elemento critico risiede nella difficoltà strutturale per alcuni desk nel superare la P&L Attribution: si osserva infatti che se un generico desk, per mandato, assume rischi relativamente bassi, l’allineamento dei sistemi Risk e Front dovrà essere maggiormente garantito per non incidere, data la vicinanza dei valori di P&L, sui test Spearman e Kolmogorov.

2.4 Non-Modellable Risk Factor

Una delle maggiori innovazioni del mondo FRTB rispetto al contesto di Basilea III riguarda la componente di Non-Modellable Risk Factors (NMRF), che da sempre rappresenta uno dei key point di maggiore dibattito all’interno dell’Industry. Nato con l’esigenza di modellizzare quei fattori di rischio che non soddisfano uno specifico modellability assessment e perciò non eligible ad essere capitalizzati con un modello di Expected Shortfall, quello dei NMRF è un framework in continua (e costante…) evoluzione.

Nella sua formulazione originaria presentata nel Final Text del Comitato di Basilea 2016, tanto il Risk Factor Eligibility Test (RFET) quanto la metodologia di aggregazione proposta per il calcolo dello Stressed Expected Shortfall (SES) erano eccessivamente stringenti, portando a misure di Capital Charge difficilmente sostenibili ed abbattendo gli incentivi all’utilizzo del modello interno. In particolare, data la complessità e la natura dinamica dei portafogli di trading delle maggiori istituzioni finanziarie, nell’Industry sono state individuate sostanzialmente tre problematiche:

1. Esistenza di uno squilibrio tra i due criteri di modellabilità, infatti il periodo massimo ammesso tra due osservazioni consecutive (30-days gap rule) predomina sul numero minimo di osservazioni in un anno (24-observations rule); quanto detto non si sposa con il fatto che il volume di transazioni complessivo si contrae sensibilmente in corrispondenza di specifici periodi dell’anno e ciò porta al fallimento del RFET. Analisi dell’Industry raccolte da ISDA [9] hanno dimostrato che su un campione di circa 20.000 Risk Factor, circa il 13% degli stessi soffre del problema della stagionalità: rilassando la 30-days gap rule imponendo un vincolo meno stringente di 3 osservazioni in 90 giorni, questi verranno trattati alla stregua di fattori di rischio modellabili con un risparmio di Capital Requirement stimato in circa 10-20%;
2. Metodologia di aggregazione eccessivamente punitiva, che riconosce solo parzialmente benefici di diversificazione;
3. Trattamento di ciascun term/nodo di curve/superfici come Risk Factor stand-alone con un conseguente impatto negativo sia in termini di Capital Requirement e sia di modellability assessment outcome.

Tanto con il Consultative Document di Marzo 2018 quanto con il documento BCBS di gennaio 2019, il Regulator ha parzialmente accolto le issue metodologicheavanzate dall’Industry, in particolare:

1. Allo scopo di alleggerire gli esiti del RFET è stato posto in essere un intervento volto a rendere meno punitivo il vincolo della stagionalità richiedendo una più flessibile 4-in-90 rules oltre a garantire la facoltà di utilizzare le proprie Committed Quote nel contesto dell’assessment di modellabilità;
2. Si ammette la possibilità di bucketizzare i Risk Factor con un duplice vantaggio sia in termini di RFET (è sufficiente che un solo term sia modellabile per estendere questa caratteristica all’intero bucket) e sia a livello di netting delle sensitivity calcolate intra-cluster;
3. Riconoscimento di un effetto di diversificazione anche tra NMRF tra loro correlati, che si è tradotto in una metrica di capitale SES sicuramente più sostenibile, seppur essa continua ad occupare una percentuale molto alta sul requisito a modello interno.

Ciò nonostante, sono ancora numerosi i punti di incertezza legati al mondo dei Non-Modellable Risk Factor:

• Poiché per costruzione i NMRF vengono capitalizzati separatamente e non rientrano nella metrica di IMCC (a differenza di eventuali coperture modellabili), le istituzioni sarebbero meno motivate a coprire e diversificare i loro portafogli. Di conseguenza sotto FRTB le strategie di copertura potrebbero essere scoraggiate a causa di un trattamento potenzialmente punitivo in cui un hedged portfolio implica un requisito di capitale più punitivo rispetto ad uno aperto;
• Non è stata ancora tracciata univocamente una modalità di determinazione degli scenari di shock estremi oltre alla relativa applicazione al perimetro di NMRF: a tal proposito, come meglio dettagliato nella CRR II all’articolo 325bk, entro il 28 settembre 2020 l’EBA dovrà pubblicare una bozza di Regulatory Technical Standard da sottoporre alla Commissione in merito al topic in oggetto. Ciò nonostante, la stessa European Banking Authority, nel Discussion Paper di dicembre 2017 [10] introduce una procedura armonizzata per il calcolo della componente di NMFR capital requirement, oggetto di esercizi QIS per marzo 2019. Tuttavia, l’approccio proposto è stato oggetto di dibattito nell’Industry, soprattutto a causa della complessità operativa e del significativo effort computazionale richiesto.

In sintesi, resta ancora ampio margine di manovra e ci si attendono ancora parecchi interventi in questo senso, con la speranza che il quadro normativo possa chiarirsi una volta per tutte.

A conclusione di questo paragrafo, emerge che nonostante gli approfondimenti metodologici presentati nel BCBS di gennaio 2019 sono ancora molti i punti aperti che dovranno essere chiariti tramite EBA RTS (Liquidity Horizons, Non-Modellable Risk Factor, Backtesting e P&L Attribution) e, come detto, la pubblicazione di tali documenti è vincolante per il completamento degli sviluppi da parte degli istituti bancari nonché – limitatamente ad alcuni essi – per l’inizio dell’iter di validazione del reporting IMA.

3. Conclusioni

La normativa FRTB è giunta ad una fase fondamentale del suo percorso: dal punto di vista metodologico non sono attesi cambiamenti sostanziali del framework anche se non è da escludere qualche ripercussione sulle metriche (esiti Validation Test e capitale regolamentare); dall’altro, l’ennesimo slittamento dell’entrata in vigore potrebbe compromettere il commitment dell’Industry nell’adozione dei modelli interni in quanto:

1) le banche in fase progettuale embrionale potrebbero posticipare ulteriormente le attività fino a quando non vi sarà certezza del go-live ai fini Pillar I. In questo caso potrebbe materializzarsi il rischio che, nonostante una successiva e buona programmazione delle progettualità della banca, l’Autorità di Vigilanza non riesca a garantire la validazione dei modelli interni in tempi utili per la prima segnalazione regolamentare;

2) le banche in fase avanzata di implementazione si trovano a rischio stand-by degli sviluppi: se il reporting IMA a giugno/settembre 2023 dipenderà dal rispetto dell’iter normativo indicato nel primo paragrafo, è altrettanto vero che risultano mancanti alcuni elementi fondamentali per la completa programmazione delle attività, tra tutti: modalità e tempistiche di richiesta ad ECB della validazione del modello interno (dalle quali dipenderanno la collezione delle serie storiche per Validation Test e la stesura di notevole documentazione); la possibilità di una duplice validation phase; mancanza del go-live regolamentare a fini segnaletici. Tali elementi si traducono in un aumento non trascurabile dei costi e degli investimenti.

Inoltre, indipendentemente dalle modalità con cui le banche porteranno a termini gli sviluppi progettuali, si è enfatizzato come l’adozione dei modelli interni sia sfidante in quanto bisognerà tener conto dei seguenti elementi:

• Elevati costi iniziali e di mantenimento del nuovo framework FRTB;
• La divergenza tra i requisiti patrimoniali del modello standard e interno è esigua (ratio stimato 1,5);
• Il superamento trimestrale dei Validation Test da parte dei trading desk risulta potenzialmente molto impattante nella determinazione del capitale regolamentare.

Le puntate sulla FRTB si sono susseguite con scadenze più o meno lunghe, gli attori che ne fanno parte saranno alle prese con numerosi altri episodi e i colpi di scena potrebbero essere non finiti, ma per questo si rimanda alle prossime puntate…

Contatti

Paolo Gianturco, Senior Partner, Deloitte Consulting, pgianturco@deloitte.it

Michael Zottarel, Manager, Deloitte Consulting, mzottarel@deloitte.it

Andrea Rodonò, Consultant, Deloitte Consulting, arodono@deloitte.it

Elisa Bollato, Consultant, Deloitte Consulting, ebollato@deloitte.it

Ringraziamenti

Un ringraziamento speciale a Silvia Manera e Antonella Botte per il contributo di valore apportato nella scrittura dell’articolo.

Riferimenti

[1] Basel Committee on Banking Supervision – “Minimum capital requirements for market risk”, gennaio 2016, paper 352

[2] Basel Committee on Banking Supervision – “Minimum capital requirements for market risk”, gennaio 2019, paper 457

[3] European Union ambassadors – Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL amending Regulation (EU) No 575/2013, febbraio 2019, paper 6288/19

[4] Regulation (EU) 2019/876 of the European Parliament and of the Council of 20 May 2019 amending Regulation (EU) No 575/2013 – Pubblicazione in Gazzetta Ufficiale, giugno 2019

[5] Basel Committee on Banking Supervision – “Consultative Document – Revisions to the minimum capital requirements for market risk”, marzo 2018, paper 426

[6] Capizzano, Toto, Boscolo Berto, Sandrone – “Fundamental Review of the Trading Book II – Analisi d’impatto sul nuovo metodo standard”, aprile 2015, www.finriskalert.it

[7] Basel Committee on Banking Supervision – “Consultative Document – Simplified alternative to the standardised approach to market risk capital requirements”, giugno 2017, paper 408

[9] Market Risk Group Meeting, June 2018, link

[10] European Banking Authority – Discussion paper: implementation in the European Union of the revised market risk and counterparty credit risk frameworks, dicembre 2017

[1] L’entrata in vigore è prevista 20 giorni dopo tale pubblicazione.

[2] La CRR II rimanda agli RTS su numerose aree di interesse ma quelli vincolanti per permettere la fase di reporting IMA sono: Liquidity Horizons, Non-Modellable Risk Factor, Backtesting e P&L Attribution.

[3] Il superamento del Backtesting (VaR 99/97.5 vs Hypothetical/Actual P&L) a livello di desk rimane condizione necessaria per il superamento dei Validation Test e quindi per la segnalazione a modello interno.

[4] Rimane confermato anche il Backtesting a livello di Banca che inciderà su eventuali add-on di capitale.

Executive summary

A seguito di inchieste condotte dalla magistratura, nei mesi scorsi gli organi di informazione hanno dato ampio risalto al tema dell’antiriciclaggio. Tali inchieste hanno evidenziato aspetti di mala gestio, negligenza nei processi di controllo, inefficienza e, nei casi più gravi, anche la presenza di elementi di dolo nella condotta di alcuni intermediari. Senza entrare nel merito di tali vicende, in questo breve commento si cerca di esaminare come, ancora oggi, l´applicazione concreta di alcuni aspetti della normativa antiriciclaggio non sia affatto semplice, sebbene siano trascorsi diversi anni dalla sua entrata in vigore.

Gli eventi recenti

Come anticipato in premessa, denunce, inchieste della magistratura e sanzioni irrogate dall´Autorità di Vigilanza in merito alla non adeguatezza dei controlli in materia di antiriciclaggio nei confronti di alcuni intermediari hanno avuto vasta rilevanza negli organi d´informazione sia tradizionali che via web. Si pensi ad esempio (i) al risalto mediatico subito dalla succursale italiana di ING Bank[1], successivo alle verifiche ispettive condotte dall´Autorità di Vigilanza e (ii) alle “significative carenze in tutti i comparti rilevanti a fini antiriciclaggio” ed alle “falle nel sistema informatico Gianos[2]” riferibili a Ubi Banca, che sarebbero emerse a seguito di indagini ispettive mirate da parte dell´Autorità di Vigilanza di settore.

Va detto altresì che, negli ultimi anni, generali carenze nell´applicazione della normativa antiriciclaggio e nell´adeguatezza dei controlli in materia di antiriciclaggio hanno dato luogo a sanzioni erogate dalla Banca d´Italia nei confronti di numerosi intermediari, anche di piccole e medie dimensioni.

Appare quindi spontaneo chiedersi come mai vi sia una così frequente e generalizzata non ottemperanza alla normativa antiriciclaggio da parte degli intermediari e se sia veramente cosi, considerata la crescente attenzione posta dalle banche sui temi di compliance che peraltro hanno generato e generano importanti costi. Si tratterebbe dunque di carenze soggettive da trattare caso per caso? O potrebbero ravvisarsi anche difficoltà sistemiche oggettive? Sarebbero quindi possibili margini di miglioramento?

Le operazioni c.d. anomale e la difficoltà della loro individuazione.

Senza alcuna pretesa di riuscire a rispondere esaustivamente a domande così complesse, cerchiamo di partire da alcuni dati statistici pubblicati dalla stessa Autorità di Vigilanza e relativi alle segnalazioni di operazioni sospette (S.o.s.), pervenute dal sistema bancario italiano e non, all´Unità di informazione finanziaria (UIF). Si comprenderà sin da subito che, a livello sistemico, i numeri in questione sono rilevantissimi.

Alcuni dati essenziali. Nel corso del 2017 sono pervenute alla UIF n. 93.217 segnalazioni di operazioni sospette (numeriche che hanno rappresentato un forte trend di crescita rispetto al passato. Si pensi ad esempio che nel 2013 la UIF aveva registrato circa 64.000 segnalazioni). Di queste oltre 93.000 segnalazioni, la UIF ha trasmesso agli Organi investigativi oltre 47.000 evidenze, pari quindi al 51% di quelle ricevute.  Di seguito un cartogramma con la densità di segnalazioni, tratto dai quaderni di antiriciclaggio riferiti al 2017 pubblicati da Banca d’Italia.

Proprio di recente, anche con riferimento a queste tematiche, è stato pubblicato un documento dalla Uif intitolato “l’impatto delle ispezioni antiriciclaggio sull’attività di segnalazione di operazioni sospette da parte delle banche: un’analisi empirica del caso italiano”[3] da cui è possibile dedurre alcune considerazioni. Un documento che se da un lato ha rappresentato fatti già noti al sistema bancario, dall´altro ha avuto il pregio di consolidare tali considerazioni estendendone la portata ad un pubblico più vasto. In questa valutazione empirica si rappresenta infatti che (i) le ispezioni inducono un aumento delle segnalazioni di operazioni sospette inviate dalle banche nel trimestre successivo all´ispezione e che (ii) l´impianto normativo antiriciclaggio (principalmente con riferimento alla fonte legislativa di livello primario) porta con sé un´asimmetria del sistema sanzionatorio riferibile al fatto che le sanzioni possono colpire l´eventuale omissione di segnalazione di operazione sospetta ma non l´invio eccessivo di report infondati. Tale circostanza potrebbe favorire, almeno in astratto, una interpretazione da parte delle banche (e dei soggetti obbligati in generale) che porterebbe a sovra segnalare a scopo cautelativo (generando così il c.d. effetto “al lupo al lupo”). Ciò rappresenta chiaramente una minaccia all´efficacia del sistema.

In questa ottica, se da un lato va considerato che la segnalazione di operazione sospetta è di per sé affetta da un margine di discrezionalità del segnalante (che cerca di essere minimizzato anche grazie all´emanazione dei puntuali indicatori e schemi di anomalia dalle Autorità di Vigilanza), dall´altro la questione della segnalazione c.d. a scopo cautelativo ha a che fare con tematiche di alto livello come principi etici, costi aziendali e sociali, insomma le logiche di trade off.

Sempre in tale ambito vanno considerati anche i sistemi di detection delle operazioni anomale di cui deve dotarsi ogni intermediario. Si tratta, in estrema sintesi, di processi strutturati che iniziano con la raccolta e la messa in evidenza di tutte quelle operazioni della clientela che per importo, caratteristiche del cliente, frequenza, controparte, paese della controparte (etc…) possono, almeno in astratto, determinare un rischio potenziale di riciclaggio più elevato[4].

Di fronte a tali evidenze, la Banca (o l´intermediario in generale) è costretta a domandarsi se l´operazione rilevata[5] debba confluire o meno in una segnalazione di operazione sospetta. Ne deriva che anche tali sistemi di detection, a seconda di come essi vengono tarati, possono far parte delle cause per cui il numero delle segnalazioni di operazioni sospette (cautelative o meno) continua a crescere.

Nei processi delle banche e/o nei software da queste utilizzate, sembra riscontrarsi una mera replica della lista degli indicatori di anomalia tradotti in algoritmi statici, senza uno sforzo per un framework globale e robusto.

Ma allora, come fare a generare meno evidenze (siano esse interne all´intermediario e al suo sistema di detection o che sfocino in vere e proprie segnalazioni di operazioni sospette indirizzate alla Uif) e di maggiore qualità?

Per affrontare il problema cerchiamo di fare un parallelismo con quello che ancora oggi é il core business del settore bancario tradizionale: la concessione del credito.

In particolare, se la banca ha un sistema di rating su scala 1 a 10 (con 1 la classe di rating migliore) a quale livello di rating va rifiutata la richiesta di nuova erogazione?Se un cliente ha rating non buono, supponiamo 7, si gestisce il tutto nel pricing (o aumentando le richieste di garanzia), cioè applicando un tasso elevato al prestito, o meglio rifiutare, con il rischio di perdere buoni margini? Certamente, in questo ambito, le risposte dipendono dal risk profile, ma nell´antiriciclaggio, al di là degli aspetti di compliance normativa, c’è un problema in più che appare insormontabile e cioè la difficoltà (o forse l´impossibilità) di condurre un backtesting. Ci spieghiamo meglio:

• Nell’ambito del rischio di credito, ad esempio, il backtesting consiste nel confrontare i rating (e le PD) a 1 anno con i tassi di ingresso in default o in sofferenza dei clienti dopo 1 anno dalla misura del rating. Così facendo si ottiene una verifica ex-post della qualità dei modelli, ed ex-ante i modelli vengono calibrati per la migliore predittività possibile;
• Nell´ambito del rischio di mercato, quando si calcola il VaR di un portafoglio con orizzonte 1 giorno, lo si confronta con le perdite e i profitti di giornata, cioè se le perdite superano la massima perdita espressa dal VaR supponiamo al livello 99%. Ci si aspetta quindi che su una opportuna lunga finestra temporale le perdite siano superiori al VaR con frequenza non troppo lontana da 1%. Come utile esempio, la normativa di Basilea sui rischi di mercato e i modelli interni di misurazione, considera ottimo un modello che su 250 giornate abbia, al più, 4 eventi di perdita maggiore del VaR.

In antiriciclaggio, queste fasi ci sembrano di difficile applicazione. Non c’è né un evento ex-post contro cui effettuare il backtesting, né la possibilità di calibrazione dei modelli. Molto spesso, infatti, l´avvio di indagini da parte della magistratura, l´esecuzione di sequestri o provvedimenti di altro genere, divengono noti all´intermediario solo dopo diverso tempo (senza considerare che si tratta di eventi non così frequenti per cui risulta ancor più difficile affidare alla statistica la costruzione di robusti modelli). Ad esempio, con riferimento ai dati richiamati dalla stessa UIF si riscontrano 661 acquisizioni di SOS su 47.000 nel II semestre 2017 da parte della magistratura. Ciò equivale ad un tasso di circa 1.25% che rappresenta un evento raro, paragonabile al tasso di default. Il problema è che a differenza dell’ambito del credito per ovvie ragioni la banca stessa che dovrebbe calibrare i modelli innestati nei sistemi informatici non sa quali siano questi eventi, se non appunto in casi conclamati pubblici, per cui ogni backtesting, appare, in sostanza, precluso.

Ed allora cosa fanno quindi la maggior parte degli intermediari nelle prassi riscontrate dalla Uif? Un po’ per i rischi sanzionatori e reputazionali a carico degli organi aziendali, dei delegati alla segnalazione di operazioni sospette e dei responsabili di primo livello, si attengono ai talvolta rigidi processi interni, alla mera applicazione dei vari schemi di anomalia, e con una buona dose di prudenza sommergono la Uif di segnalazioni, anche quando palesemente riscontrano un rischio bassissimo o nullo.

Qualità dei software in uso agli intermediari. Big Data & Analytics

Riprendiamo il tema delle “falle” nei sistemi informativi descritti in premessa. Un primo punto da ricordare è che le proprietà che un software dovrebbe soddisfare son ormai ben note, e sono per esempio declinate in modo organico anche in alcuni framework normativi, quali il cosiddetto RDARR, risk data aggregation and risk reporting.

Tra tali auspicate proprietà, si ricorda:

• profilazione, cioè assegnazione di grants ben diversificate agli utenti, in modo che non sia facile, grazie a un meccanismo di contrapposizione di interessi, che via siano “super utenti” fuori controllo;
• auditability, cioè la tracciatura di tutte le attività effettuate sui dati (ad esempio: inserimento, modifica, cancellazione). Questo si ottiene se il sistema consente di gestire i “log” e anche impostarne il livello di dettaglio, (cosiddetta verbosity). Così facendo si può per esempio “versionare” gli stati del dato, cioè memorizzarne tutti i valori assunti (chi lo ha modificato e quando lo ha fatto);
• roll back, cioè potere ripristinare i sistemi a una data passata per potere rieseguire i processi in quella stessa data;
• providing e deproviding, un processo di assegnazione delle utenze e dei profili efficace, e la cessazione delle utenze o modifica a seguito, ad esempio, di cambio di ruolo o di ufficio dell´utente;
• intermediazione nell’accesso ai dati. Si tratta cioè di porre tra l’utente e i dati (tabelle del database) le opportune interfacce e maschere grafiche (dette GUI), così da impedire che si possa con strumenti informatici quali le query accedere direttamente alle tabelle per effettuare modifiche e cancellazioni.

Riguardo agli eventi richiamati nel primo paragrafo, non si può certo dire in questa sede cosa sia avvenuto. Di certo sembra che i sistemi software utilizzati non avessero all’epoca tutte le necessarie proprietà ed è altrettanto vero che in caso di collusioni di un numero alto di soggetti con logiche fraudolente il sistema informatico non può essere resiliente a qualunque manipolazione.

Ma il vero problema è a nostro parere un altro, se pensiamo alle sfide poste dalle attività di antiriciclaggio nell’intercettare potenziali operazioni sospette. All’avvio degli obblighi normativi, il sistema bancario italiano si è adagiato in modo forse eccessivamente rigido su pochi o forse su un solo sistema software quando, al contrario, una più aperta concorrenza avrebbe stimolato una più rapida ed efficace evoluzione degli strumenti. Basti pensare che anche in altri elementi vitali del sistema informativo delle banche italiane, come a puro titolo di esempio i sistemi di position keeping della finanza o i sistemi di predisposizione dei flussi di vigilanza, vi sono almeno 3-4 soluzioni di mercato in forte competizione che determinano miglioramenti continui[6].

Invece un po’ per questo motivo e anche per le ragioni illustrate nella sezione precedente ci si è adagiati sulla mera ripetizione degli schemi di anomalia, trasformati in “warning” del sistema informatico.

A pensarci bene l´AUI (archivio unico informatico), database core dell´antiriciclaggio, è un archivio multidimensionale che contempla numerosissimi dati riferibili alle operazioni, al cliente ed alla sua controparte, al settore di attività della clientela e a quello geografico. Visti nel tempo, si tratta di serie storiche caratterizzate da intensità, frequenza, ecc. per un totale di molte decine di variabili (“campi”). Il flusso AUI di una banca, in pratica, costituisce da solo un esempio di big data nella sua moltiplicazione di casi (operazioni) e variabili.

Ecco, senza mettere in gioco termini abusati quali machine learning e artificial intelligence, riteniamo che la strada corretta possa essere quella di investire in logiche e strumenti di data mining e discovery, cioè strumenti con efficaci funzioni algoritmiche e di visualizzazione che consentono una rapida e più efficace esplorazione dei dati stessi, una costruzione più dinamica e meno spoglia di semafori di warning, nonché una maggiore aggregazione di dati in modo da consentire analisi e ricerca di potenziali fenomeni “nascosti” nei dati.

Sembra che, negli ultimi 3-4 anni, alcune realtà di grandi dimensioni si siano finalmente mosse in questa direzione. Certo serve anche una evoluzione di prospettiva e/o di skills anche nelle funzioni di compliance e antiriciclaggio, spesso abituate a un approccio istruttorio sui singoli casi e meno ad un´analisi massiva dei dati. Questa prospettiva potrebbe, anzi, dovrebbe, coesistere con un approccio orientato all´analisi dei singoli casi. Se ciò mancasse del tutto probabilmente si perderebbe quella parte della visione logico/giuridica dei fenomeni sottostanti e delle finalità a cui tende la normativa.

Si auspica, insomma, che queste due anime analitiche possano coesistere e lavorare sempre più a stretto contatto, poiché ad oggi a giudicare dai numeri pubblicati dalla Uif, il sistema delle segnalazioni sembra migliorabile.

Riferimenti

i) Banca d’Italia (2017), Quaderni dell’antiriciclaggio dell’Unità di Informazione Finanziaria;

ii) Banca d’Italia (2019), Provvedimento sanzionatorio n.144 7.3.2019;

iii) Borzi N. (2019), “Il software Gianos e le falle nel sistema antiriciclaggio UBI”;

iv) BCBS (2013), “risk data aggregation and reporting”, paper 239;

v) Pierpaolo Fratangelo, Maria Pia Peluso, Banca d´Italia, Le nuove norme antiriciclaggio: i presidi aziendali alla prova del rischio di riciclaggio. Bancaria Editrice 3-2019;

vi) Marco Stellin, La nuova sfida della funzione antiriciclaggio: il collegamento fra rischio di riciclaggio e Risk Appetite Framework;

vii) Luciano Murtas, Intermediari assicurativi di fronte a nuovi adempimenti antiriciclaggio (Diritto24.it);

Siti web consultati:

https://valori.it/il-softaaware-gianos-e-le-falle-nel-sistema-antiriciclaggio-ubi/

http://www.ilgiornale.it/news/ecco-funziona-gianos-sentinella-dell-antiriciclaggio.html

https://www.repubblica.it/economia/2019/03/16/news/ing_stop_operazioni_bankitalia-221756978/

https://www.ilsole24ore.com/art/norme-e-tributi/2017-08-21/vincolo-segnalazione-se-c-e-sproporzione-il-reddito-e-flussi–211135.shtml?uuid=AEazmfFC

[3] Lo studio della UIF pubblicato sulla pagina web: http://uif.bancaditalia.it/pubblicazioni/quaderni/2019/quaderno-12-2019/Effetto_ispezioni_estratto_in_italiano_web.pdf utilizza i dati delle ispezioni antiriciclaggio svolte dalla Vigilanza e dalla UIF nel biennio 2012-2013, incrociati con i flussi di segnalazioni di operazioni sospette trasmessi dalle singole banche (ispezionate e non) e con le statistiche sull’attività operativa degli intermediari fornite dai dati antiriciclaggio ‘aggregati’ (SARA).

[4] I fattori che vengono presi in considerazione per la determinazione di una c.d. operazione anomala (che dovrà poi essere evidenziata alla banca) fanno riferimento, tra le altre cose, ai comportamenti enucleati all´interno dei singoli schemi di anomalia pubblicati tempo per tempo dalla UIF nonché al Provvedimento n. 616 del 24 agosto 2010 emanato dalla Banca d`Italia.

[5] Che certamente deve essere corroborata da un ragionamento complesso e deve dar luogo ad un´analisi approfondita che unisca tutti i necessari elementi soggettivi e oggettivi.

[6]Le nuove tecnologie possono rendere più efficienti ed efficaci i controlli tanto nella fase di acquisizione del cliente che in quella di monitoraggio. Strumenti di controllo biometrico, tecniche di elaborazione massiva dei dati o sistemi di intelligenza artificiale possono, infatti, garantire una piú estesa capacità di captazione delle informazioni rilevanti, ma anche una migliore reattività agli stimoli che possono derivare dalla valutazione di queste attività” (cfr. Pierpaolo Fratangelo, Maria Pia Peluso in Le nuove norme antiriciclaggio: i presidi aziendali alla prova del rischio di riciclaggio. Bancaria editrice 3/2019)

During the last few years, many of our daily activities went through drastic changes due to the growing digitalisation.  Nowadays, the way we interact with each other, perform errands, participate to civil society, and, of course, the way we do business is very different compared to ten or even five years ago.

If one has to pick the most impacted sectors, retail and finance (especially in relation to digital payments) are probably the ones to look at. Think, for instance, to the online shopping business. A decade ago, consumers considered buying online a futuristic and, most likely, not reliable feat[i]. Today, many people will happily ditch their local store in favour of online shopping platforms (or online enabled shopping experiences) when confronted with a better offer[ii].

The current environment originated from a number of factors. First, we have to consider the change in the cultural background of the people. The new generations (like Millennials and Generation Z) are well versed in technology and most of their daily living revolves around it[iii]. Second, the massive and widespread penetration of mobile devices enabled seamless and user-friendly experiences. A growing number of people is now used to this kind of user experience, and they do expect it from the services they buy. Third, there is a mounting regulatory pressure in the financial sector, with particular regard to the Eurozone. Regulatory evolution and the subsequent requirements arising from the new Payment Services Directive (also known as PSD2) are pushing for a more open digital financial market. In particular, when looked in the context of other norms, such as eIDAS, the General Data Protection Regulation (GDPR) and the Network and Information System Directive (NIS Directive), it appears clearly that the European regulators are accelerating toward a Single Digital Market, which will bring many changes to the financial sector as well[iv].

As already said, in the context of the wider financial sector the area that registers the highest degree of change is that of payment. Some non-financial players have indeed entered this market with a number of Fintech solutions that seem to be widely appreciated by the public. International brands like Apple and Samsung introduced their smart payment services[v], along with local start-ups (like the Italian Satispay), which are enjoying a roaring growth as well[vi]. This indicates that the users are not only ready, but also eager to adopt smart payment solutions and drop traditional payment methods like credit cards and money transfers[vii]. In this scenario, traditional players such as banks and insurance companies are still relatively lagging behind. One of the solutions to bridge the gap between expectations and service offering might be to foster the adoption of digital identity solutions and to leverage their full potential.

The concept of digital identity carries a number of benefits for both users and companies. In 2018, the International Telecommunication Union published a document that contains a non-exhaustive list of the most prominent ones such as improving the convenience of users, improving service delivery, lowering the cost of service delivery, creating new revenues opportunities, and enhancing security[viii].

Even though the topic of digital identity is now prominent in many debates about future technologies and digitalisation, it is a relatively dated concept. The idea of digitising identities is old as the internet, if not as old as the concept of computer itself. Throughout the years, this concept grew steadily, following the evolution of the technological environment. The boom of social media drastically moved forward the notion that users online should be somehow identified, although the real pioneer in this field was the Estonian Government, which in 2002 established the first national digital identity scheme in the world[ix].

But what are, precisely, the benefits for the financial sector, and why is digital identity so important? To answer this question, we have to consider what lies at the heart of every financial transaction (not involving cash), which is trust. Users literally entrust financial institutions with their money and to intermediate for them in interacting with other users. Users feel confident in doing so because financial institutions built a solid reputation around their capabilities to prove the validity of financial transactions[x]. Financial institutions are, in the end, providers of trust and some major players in the financial arena, like Mastercard, decided to use this concept to spearhead their entrance in the digital identity arena[xi].

In the day-to-day context of cash-transactions, users do not necessarily need an intermediary to guarantee the validity of the transaction. Everything is performed face-to-face. However, following the significant increase in non-cash payments and non-cash transactions[xii] due to the introduction of digital channels, the landscape has changed. Merchants, in particular, need to verify the identity of person buying their goods with a high level of confidence. This is exactly where financial institutions can play a prominent role.

Compared to other players in the field of identity, financial institutions have clear advantages. As their traditional business already require them to verify the identity of their customer with a high level of assurance, they have the means to translate such a level of assurance into a “commodified trust”. This is something that other companies such as the Fintech companies described above, or social media juggernauts like Facebook and Google, cannot (yet) do. Consider the following example. John Doe wants to buy a bottle of wine from the website of his local liquor store. The shop needs to verify the age of John before performing the payment. Now, both the identity provided by a bank and that provided by other companies indicate the age of John. However, it is more likely that the identity issued by the bank will have a higher level of assurance, since the identity enrolment procedures for banks are stricter and usually involve the verification of nationally-issued IDs. Hence, the shop can have more confidence that John has reached the legal age for drinking alcohol and sell him the desired goods.

Financial institutions, though, are not the only players capable of providing high level of assurance for identities. There is at least one other category, this being national authorities. Most likely, a national authority will have the means to provide for the highest level of assurance an identity can have. However, even when compared to these national actors, financial institutions still have the upper hand. Indeed, even though national digital identity schemes might be extremely reliable (in terms of level of assurance), they are very often limited to a specific country. Cross border digital identity systems are rare and complex to be implemented. On top of the already intricate technical issues, national authorities willing to make their systems interoperable have to face legal and political obstacles. Some supranational authorities are trying to work out the problem, such as the EU with the eIDAS regulation[xiii] and the STORK project[xiv]. However, a real global digital identity initiative is still far from becoming a reality. These constraints apply to financial institutions as well. However, it will be relatively easier for them to establish international identity schemes trough global partnerships with other actors. The flexibility granted by the B2B model enables them to build real international networks their customers can rely upon.

Lastly, an additional yet crucial element makes financial institutions a potential candidate to implement digital identity schemes. One of the key success factor for digital identity is to reach critical mass in a two-sided market. End-users will enrol in the digital identity scheme only if there is a clear value in doing it. The value comes from the participation of service providers to the digital identity schemes. However, service providers will not invest resources if there is no certainty about the share of users they can target (i.e. the name of end-users in the digital identity scheme). Since financial institutions are already well positioned in this two-sided market, they can act as intermediaries. By offering digital identity services to both of the sides, they can ease the matching of demand and supply.

As described, digital identity is becoming pivotal in the context of digital payments and transactions and financial institutions have all the characteristics to become the go-to solutions. In some countries, such as Canada[xv] and Sweden[xvi], financial institutions already play the role of main digital identity provider. However, this should be seen as a starting point. Providing digital identities with a high level of assurance can become the bedrock for new services and new offerings to the clients. For instance, financial institutions can collaborate with operators in other fields (such as e-mobility, e-health, e-government, etc.) to create a really integrated and seamless holistic experience, and promoting the advantages of digital identity beyond the mere financial sector.

AUTHORS

Andrea Rigoni – Partner Deloitte Risk Advisory

Alessandro Ortalda – Senior Consultant Deloitte Risk Advisory

[i]  Data shows that it was not until 2017 that the e-commerce share of total global retail sales surpassed the 10%. https://www.statista.com/statistics/534123/e-commerce-share-of-retail-sales-worldwide/

[ii]  See, for instance, a comparison of purchases from online and physical stores on Black Friday in Australia in 2017 and 2018. https://www.statista.com/statistics/943803/black-friday-purchases-online-physical-stores-australia/

EIOPA has recently (11.04.2019) published the risk dashboard (RDB) update at April 2019.

The RDB is published on a quarterly basis, showing the level of risk for 8 (=7+1) risk categories. The latest outcome is reported in the table below, compared to the previous one (January 2019):

1. Macro risks [medium, stable]

This is an overarching category affecting the whole economy, which considers economic growth, monetary policies, consumer price indices and fiscal balances.

The economic environment remains fragile because of both the continuous decline of the GDP growth, which has been revised downwards across most geographic areas (the indicator is a weighted average over Euro Area, UK, Switzerland, US and BRICS) and the low swap rates, decreases from the previous quarter (1.20%, -0.10%) due to slight declines in swap rates for all the currencies considered (EUR, GBP, CHF, USD). These outcomes point out a potential economic slowdown, together with the decrease in the inflation forecast (CPI; 1.62%, -0.30%), that remains a concern going forward. The unemployment rate decreases only very slightly compared to the previous quarter. Major central banks continue to reduce the pace of quantitative easing and the rate of expansion of their balance sheets has decreased (0.9%, -2%).

• Credit risks [medium, stable]

This category measures the vulnerability to the credit risk by looking at the relevant credit asset classes exposures combined with the associated metrics (e.g. government securities and credit spread on sovereigns). Since the previous assessment, spreads have decreased across all corporate bond segments, while the average credit quality of insurers’ investments has remained broadly stable, corresponding to an S&P rating between AA and A. The exposures of the Insurers in different asset classes remain quite stable and around

• 29% in European sovereign bonds, whose CDS spreads has slightly decreased
• 13% in non-financial corporate bonds, whose spreads have decreased
• 8% in unsecured financial corporate bonds, whose spreads has decreased
• 3% in secured financial corporate bonds, whose spreads has decreased
• 0.7% in loans and mortgages
• Market risks [medium, stable]

This vulnerability of the insurance sector to adverse developments is evaluated based on the investment exposures, while the current level of riskiness is evaluated based on the volatility of the yields together with the difference between the investment returns and the guaranteed interest rates. The market risks remain stable, reflecting the stability of the portfolios’ allocations of insurers, where the volatility of the bonds, largest asset class (60% of exposure), and equity market (7%) decreased, while the property one (2.9% exposure) remained stable.

• Liquidity and funding risk [medium, stable]

The vulnerability to liquidity shocked is monitored measuring the lapse rate, the holding in cash and the issuance of catastrophe bonds (low volumes or high spreads correspond to a reduction in the demand which could forma a risk). The median liquid assets ratio has registered a small increase from the previous quarter (67.1%, +0.8%), as well as the average ratio of coupons to maturity, while the issued bond volumes increased significantly from 3bln to 6.8bln euro. Lapse rates in life business are broadly stable, showing a median lapse rate around 2.6% (slightly decreased).

• Profitability and solvency [medium, stable]

The solvency level is measured via SCR and quality of OF, while the profitability via return on investments and combined ratio for the life and non-life sectors. The median SCR ratios for non-life solo companies remained stable, while the median SCR ratio for life companies has slightly decreased (180%, -2.5%).

• Interlinkages and imbalances [medium, stable]

Interlinkages are assessed between primary insurers and reinsurers, insurance and banking sector and among the derivative holdings. The exposure towards domestic sovereign debt is considered as well. No major changes have been reported over time in exposures of insurance groups to different parts of the financial sector.

• Insurance (underwriting) risk [medium, increasing]

Indicators for insurance risks are gross written premia, claims and losses due to natural catastrophes. The increase of the risk in this category, which has moved from low to medium, is due to a further increase in the catastrophe loss ratio (6.7%, +2.6%) driven by the natural catastrophes occurred in the US (California wildfire and hurricane Michael), which has impacted the reinsurers’ technical results.

• Market perception [medium, stable]

The market perception remains constant at medium level. The quantities assessed are relative stock market performances (insurance stock outperformed the Stoxx 600 both in life and non-life segments), price to earnings ratio (increased from the previous assessment: median 12.5%, +0.9%), CDS spreads (median value decreased to 55%, -13.2%) and external rating outlooks (unchanged from the last quarter).

### Executive Summary

E’ giunto a conclusione il lungo percorso di consultazione e affinamento tecnico, con relativo rinvio della entrata in vigore, che ha portato alla nuova disciplina sui rischi di mercato nel framework di Basilea, nota come FRTB, Fundamental Review del Trading Book. La versione pubblicata nel mese di febbraio tiene conto di vari aspetti emersi nel corso delle consultazioni. Nel paper cercheremo di dare conto di tali nuovi elementi con alcune riflessioni finali.

1 Necessità dell’FRTB e breve review storica

Il nuovo impianto FRTB è stato originato nella sua genesi da varie motivazioni, di cui riassumiamo le principali:

• Necessità di superare la over reaction alla crisi generata con la normativa detta di Basilea 2.5, con evidenti errori logici introdotti in tale ambito quali la somma tra VaR e StressedVaR e l’introduzione dell’IRC, specie per le banche che avevano validato i modelli interni, con un aggravio quindi di requisiti di capitale per le banche che al contrario erano più in grado di misurare correttamente i rischi. Si veda [8] e [9]
• La transizione dal VaR come misura di rischio all’Expected Shortfall (ES), per la sua migliore capacità di cogliere le perdite sulla coda negativa e migliori proprietà teoriche. Si veda [1], [2].
• La volontà di mettere a punto anche per le banche che utilizzano i modelli standard, che ricordiamo sono la più parte, di modelli di misura più risk sensitive, cioè più rappresentativi delle posizioni e delle esposizioni del portafoglio

La prima versione apparentemente definitiva del nuovo framework è stata pubblicata nel dicembre 2016, si veda [4].

In seguito sono stati condotti con la comunità finanziaria numerosi passi di affinamento e modifica, che hanno portato alla versione di febbraio 2019 [3].

Sintetizzando e omettendo per motivi di spazio varie questioni legate al processo di validazione e al confine banking book / trading book, il primo di questi punti è relativo alla (affermata) eccessiva complessità dei nuovi modelli standard, che chiedono alle banche una precisa tassonomia granulare dei fattori di rischio e dei prodotti, e una capacità di calcolare le sensitivities (delta, vega, gamma) sotto precise ipotesi, aggregando poi i rischi con opportune matrici di correlazione, in condizioni normali e stressate.

Questo ha portato alla proposta di un cosiddetto modello R-SBM, Reduced standard model, particolarmente semplice, diremo quasi grossolano, per banche con operatività finanziaria molto limitata. Si veda [5].

La seconda questione è alquanto tecnica, e riguardava per le banche con modelli interni i test di profit and loss attribution (PLA), ritenuti da molte banche non corretti, in quanto suscettibili di determinare per le banche stesse esiti negativi in qualche modo ingiustificati.

Ricordiamo che con PLA si intende la verifica che le P&L calcolate dai sistemi di risk management siano quanto più possibili prossime a quelle determinate dai sistemi di front office su cui si basano il reporting giornaliero, la contabilità e il bilancio.

Questo è un fatto forse poco comprensibile ai non addetti ai lavori, ma è noto e rilevante per chi ha esperienza pratica.

In sostanza in molte banche di grandi dimensioni vi sono più sistemi di front office (anche 3 o 4)  specializzati in varie operatività, per esempio per execution sui mercati quotati, o per derivati OTC interest rate, equity, ecc.

A valle di questi sistemi vi è una unica piattaforma di misura dei rischi che funge da collettore e aggregatore di tutte le posizioni, infine calcolatore del rischio. Si tratta quindi di un approccio duale, che se da un lato è molto costoso nella sua logica di “doppio binario”, dall’altro preserva il principio generale di indipendenza della funzione di risk management dalle funzioni di linea. Perché vi possono essere dunque differenze nel calcolo delle P&L tra i due livelli? Molte le cause:

• Errori nelle interfacce informatiche che trasformano le posizioni e i portafogli dei sistemi di front office per il loro caricamento nella piattaforma di risk management
• Diversità nei market data che alimentano i sistemi, causa diversi providers, diverso freeze temporale dei parametri, ecc.
• Fattori di rischio che per semplicità il processo di risk management potrebbe non considerare
• Diversità nelle librerie di pricing degli strumenti finanziari, o nei modelli o nella calibrazione dei relativi parametri.

Tornando a FRTB, e indicando con PLR le P&L calcolate dal sistema di risk management, e con PLF quelle di front office (la normativa le definisce “ipotetiche” ma ci sembra veramente poco azzeccato), i test PLA erano specificati nella versione 2016 del framework in base a due metriche da calcolare su opportuna finestra storica, cioè:

• Media(PLR – PLF) / Varianza(PLF), vincolo nel range [-10%,+10%]
• Varianza (PLR – PLF) / Varianza(PLF), vincolo nel range [0%,+20%]

Il senso concettuale dei test è evidente. La componente di P&L non spiegata, cioè (PLR – PLF), deve essere piccola in media e variabilità rispetto al fenomeno “vero”, cioè PLF.

Bene, in vari contesti (EBF, European Banking Federation, ABI, riviste di settore) alcune banche di grandi dimensioni hanno sostenuto come questi test determinassero esiti negativi tanto più spesso quanto più in portafogli a basso rischio, cioè con variabilità delle P&L, per costruzione aritmetica degli indicatori. Effetto questo non desiderabile. Ne sono seguite numerose istanze nei gruppi di lavoro congiunti delle banche europee e relative richieste alle authorities per una revisione.

2 Principali evoluzioni della versione definitiva FRTB

Vediamo quindi come l’ultima versione del framework FRTB ha definito gli aspetti di maggiore critica emersi nel dibattito internazionale

2.1 Modelli standard semplificati per banche con limitata operatività

Dell’argomento si occupa diffusamente il paragrafo 40 del paper, viene definito SSA, simpliefied standardized approach il metodo. Rileviamo gli aspetti salienti:

• Il metodo di calcolo rimane quello di Basilea 2 e 2.5. Rispetto al paper [5] del 2017, non viene quindi adottato un metodo ancora più semplice ma si conferma quello già noto alle banche, basato su tassonomie dei fattori di rischio e algoritmi di calcolo di complessità “intermedia”
• Il capital charge non è però quello determinato con le regole di Basilea 2 e 2.5, ma viene incrementato secondo i seguenti fattori moltiplicativi (scaling factor)
• Rischio di tasso: 1.30 (+30%)
• Rischio cambio: 1.20 (+20%)
• Rischio equity: 3.50 (+250%)
• Le regole per cui una banca può essere ammessa al metodo SSA si baseranno, secondo soglie non ancora definitive, su 2 indicatori di rilevanza, assoluta e relativa, del trading book della banca stessa, da soddisfare congiuntamente:
• Controvalore del trading book. Esempio:  sotto 1 bn €
• Quota dei rischi di mercato rispetto ai rischi globali di I pilastro (credito, mercato, operativo). Esempio: sotto il 10%.

2.2 Test PLA per i modelli interni

Su questo aspetto il comitato ha definito due metriche di impostazione più strettamente statistica

• Misura della correlazione dei ranghi di Spearman di PLR(t) vs PLF(t), così da catturare se via sia la stretta connessione auspicata tra le due
• Test di Kolmogorov-Smirnov di vicinanza tra le due distribuzioni. Questo test misura la distanza tra le due funzioni di ripartizione empirica, per cui è nota la distribuzione asintotica se provengono dallo stesso modello probabilistico e con opportune soglie di accettazione/rifiuto consente di discriminare se un campione proveniente da un fenomeno stocastico (in questo caso PLR(t)) è compatibile con un modello teorico che lo genera, in questo caso PLF(t).

Le due statistiche-test sono combinate per definire zone verdi, gialle, rosse, che per comodità riportiamo direttamente dal framework [3].

In sostanza, entrambi i test devono avere un buon risultato (alta correlazione tra i campioni, bassa distanza tra le distribuzioni delle P&L) per essere in zona verde di piena accettazione.

3 Alcune riflessioni

Il nuovo impianto FRTB di recente ha disciplinato in modo pressoché definitivo le questioni rimaste aperte da alcuni anni per giusto scetticismo della comunità finanziaria e internazionale.

L’ultima versione pubblicata del framework ci sembra abbia risolto in modo più che soddisfacente i limiti che erano emersi.

Per quanto riguarda i modelli standard, si tiene conto che per molte banche di limitata operatività il modello standard principale di FRTB sarebbe stato un sovra impianto di complessità francamente eccessiva. D’altronde il cosiddetto modello ridotto del 2017 era fin troppo grossolano. Bene quindi avere mantenuto le regole di calcolo di Basilea 2, però appesantite nel capital charge dalla applicazione dello scaling factor. Con la normativa di Basilea 2.5 le banche con modello standard, e quindi minori investimenti in modelli, risorse, tecnologie, erano ingiustamente favorite rispetto alle banche con modelli standard.

Per quanto riguarda i modelli interni e i test di profit and loss attribution, le nuove misure si caratterizzano per un più rigoroso impianto statistico.

Infine, non ne abbiamo qui parlato in quanto già previsto nel framework FRTB del 2016, va ricordata la positiva eliminazione del requisito IRC, che determinava un double counting tra rischio spread e rischio downgrade nei portafogli di bond ed equity, in favore del DRC, default risk charge, e soprattutto la sua applicazione anche alle banche con modello standard, che anche in questo ambito erano state inopportunamente avvantaggiate con la normativa Basilea 2.5.

Per concludere, quindi, il nuovo framework FRTB, pur nelle difficoltà implementative e nei dettagli oggetto di futura regulation e standard tecnici, appare ora come un sistema organico e coerente secondo i necessari principi di proporzionalità.

Riferimenti

[1] Acerbi C., Tasche D. (2001), “On the coherence of the Expected Shortfall”.

[2] Acerbi C., Szekely B “Backtesting Expected Shortfall”, MSCI Research paper.

[3] Basel Committee on Banking Supervision (2019), “Minimum capital requirements for market risk”, paper 457.

[4] Basel Committee on Banking Supervision (2016), “Minimum capital requirements for market risk”, paper 352.

[5] Basel Committee on Banking Supervision (2017), “Simplified alternative to the standardised approach to market risk capital requirements”, paper 408.

[6] Basel Committee on Banking Supervision (2014), “Fundamental review of the trading book: outstanding issues”, paper 305.

[7] Basel Committee on Banking Supervision (2013), “Fundamental review of the trading book: A revised market risk framework”, paper 265.

[8] Basel  committee on Banking Supervision (2009), “Revisions to the Basel II market risk framework – final version”,  paper 158.

[9] Basel Committee on Banking Supervision (2009), “Guidelines for computing capital for incremental risk

in the trading book”, paper 159.

[10] EUROPEAN PARLIAMENT (2013), “REGULATION (EU) No 575/2013 on prudential requirements for credit institutions and investment firms and amending Regulation”.

Le ultime vicende politiche italiane, la Brexit, le scelte commerciali di Trump e il rallentamento economico mondiale hanno scosso nuovamente i rendimenti dei titoli sovrani. L’idea che i mercati siano oramai globali e connessi è comunemente accettata, tuttavia non sempre è facile quantificare il grado d’interconnessione. L’analisi che andremo a illustrare ci permetterà di rilevare come, nel mercato dei titoli di Stato, vi siano shock esogeni che colpiscono alcuni Stati più di altri, mentre alcuni presentano quella che potremmo definire indipendenza sistemica, in altre parole una dinamica scollegata dagli eventi esterni e afferente esclusivamente alle caratteristiche idiosincratiche dello Stato (in gergo tecnico si parla appunto di rischio idiosincratico).

Il campione che abbiamo utilizziamo comprende i cinque paesi UE a più alto PIL (Germania, UK, Francia, Italia, Spagna) più Olanda, Belgio, Portogallo e USA in quanto, come si noterà poi, gli Stati Uniti rappresentano un player determinante all’interno del network europeo.

Al fine di rappresentare lo stato attuale delle interconnessioni che compongono il mercato dei titoli governativi della nostra “rete”, abbiamo utilizzato il metodo di misurazione delle connessioni utilizzato da Diebold e Yilmaz[1], il quale si basa sulla scomposizione di varianze tramite Vector Autoregressive Model e successiva rappresentazione grafica delle correlazioni tra le variabili attraverso nodi e vettori. Questa metodologia, sviluppata nel 2011, ha come obiettivo quello di analizzare l’intensità delle relazioni che s’istaurano all’interno di un campione di elementi omogenei (prezzi azionari, materie prime, prodotti energetici, rendimenti obbligazionari, ecc.) e la concentrazione del sistema nel suo complesso. Sarà infine eseguita un’analisi dinamica[2], volta a monitorare l’andamento dell’indice di connessione del network nel tempo, la quale rifletterà le ripercussioni geo-politiche ed economiche avute negli anni sullo stesso.

Benché solitamente si usi modellizzare i log-rendimenti calcolati sui prezzi, la nostra serie storica di partenza è quella dei tassi zero coupon a maturity costante dieci anni[3]. La scelta è dovuta al fatto che una serie storica dei prezzi dei bond governativi avente tale caratteristica non è di fatto disponibile. Tuttavia, è possibile ottenere la serie dei log-rendimenti artificialmente tramite la differenza dei tassi zero-coupon. Questo è evidente poiché la serie è a maturity costante e che i log-rendimenti equivalgono a:

dove S  è il prezzo dello zero coupon e  è il tasso zero coupon. Il segno meno è espressivo del fatto che se da un giorno all’altro il tasso zero coupon sale, allora il prezzo del titolo scende e dunque il log-rendimento è negativo (RL<0) .

Senza voler scendere troppo nei dettagli, la procedura che abbiamo utilizzato consiste nello stimare la volatilità storica sui log-rendimenti giornalieri, per la quale abbiamo usato un GARCH(1,1), e successivamente nel calcolare le correlazioni che sussistono tra i prezzi/ tassi dei titoli governativi del campione applicando un VAR(3) sulle volatilità così ottenute[4].
Questo approccio di tipo econometrico ci permette di rilevare l’impatto che, uno shock di tipo idiosincratico (per esempio un evento politico) avvenuto nel paese A, ha sul paese B. L’obiettivo è, appunto, quello di misurare l’effetto che uno shock sulle volatilità di A ha sulla volatilità dei tassi zero coupon del paese B. Dall’applicazione di tale metodologia si giunge al seguente risultato:

La matrice può essere letta sia per riga sia per colonna. Per colonna sono riportati gli shock che ciascun Paese trasmette agli altri Stati del Network: la colonna GER evidenzia l’impatto che uno shock avvenuto sul mercato dei titoli governativi tedeschi ha su USA (=0.30%), UK(=18.93%) e così via.
Analogamente, leggendo la tabella per riga si può individuare l’impatto che lo Stato, cui la riga si riferisce, riceve dagli altri Stati del Network: se prendiamo la riga FRA, questa ci riporta l’influenza che USA(=8.69%), e GER(=36.27%) hanno sulla Francia, quindi gli shock da questo ricevuti.
La diagonale è molto rilevante poiché rappresenta il livello di volatilità idiosincratica, ovvero quella volatilità che è dovuta a vicende interne, dunque scollegate da dinamiche internazionali.
Esemplificativo è il caso degli USA che, a causa della rilevanza delle politiche della FED e della potenza del Dollaro, subisce scarsamente le dinamiche internazionali (ciò si deduce da un valore della cella USA:USA particolarmente rilevante), bensì le detta, come dimostrato dall’elevato valore della cella TO.
Con riferimento all’Italia, anche il Belpaese, probabilmente a causa delle sue peculiari questioni di politica interna, presenta un’elevata volatilità idiosincratica piuttosto che esogena (la cella ITA:ITA presenta un valore molto alto).
La colonna FROM, invece, indica la volatilità che ogni Stato riceve dal sistema nel suo complesso e si ottiene sommando per riga i valori ivi riportati, ad eccezione di quello della diagonale[5]. Infine la riga TO rappresenta l’intensità con cui un paese contribuisce alla volatilità globale del network e si calcola come la somma per colonna, senza considerare lo shock idiosincratico. L’intersezione fra TO e FROM si può interpretare come il livello di volatilità sistemica del network e si ottiene come valore medio di contribuzione di ogni paese nel trasmettere o ricevere shock di volatilità dall’esterno (valore medio riga TO o FROM).

Con l’ausilio grafico del network[6], rappresentato nella Figura 1, possiamo meglio commentare i valori della Tabella 1. Germania e USA si presentano come i maggiori contributori alla volatilità del sistema; molto forte in particolare è l’influenza della Germania sui paesi dell’area centro-europea (Olanda, Belgio, Francia). Il ruolo degli USA rimane comunque prevalente se si osserva che la Germania condiziona il mercato americano per lo 0.30%, mentre gli USA influenzano la Germania per un valore pari al 22.69%.
Il Regno Unito si presta a essere influenzato dal Treasury americano e dal Bund tedesco e non risulta capace di condizionare nessun paese del Network, probabilmente a causa di diverse dinamiche monetarie/ inflazionistiche rispetto al blocco Europeo e agli USA.
L’Italia, come detto, risulta poco correlata (il valore della colonna FROM è il più basso dopo quello degli USA) a causa del suo elevato rischio idiosincratico. Il suo contributo al rischio sistemico (riga TO) tuttavia è il quarto più alto, indice che il mercato dei BTP è comunque in grado di influenzare il network complessivo. Nonostante ciò, questa influenza sembra dirigersi esclusivamente verso i paesi periferici, in particolare la Spagna: probabilmente questo fenomeno è dovuto al fatto che i futures sul Btp italiano sono, per questioni di maggiore liquidità rispetto ai futures iberici, utilizzati dagli operatori dei paesi periferici per l’hedging delle loro posizioni.
Infine, nella figura 2 è possibile osservare l’evolversi nel tempo del rischio sistemico del network inteso come la distribuzione nel tempo dell’indice di connessione, ovvero del valore della cella arancione della Tabella 1. Si rileva come, dopo la crisi del 2008, la correlazione totale dei prezzi/ tassi dei titoli di Stato sia stata particolarmente volatile: si passa da una serie di movimenti ondulatori di media ampiezza tra il 2011-2014, periodo della crisi greca e degli Stati periferici dell’UE[7], a un unico ciclo particolarmente lungo, iniziato nel 2014 e terminato a fine 2017. Questo periodo è stato scaturito da un notevole incremento dell’indebitamento pubblico causato dall’attuazione di una serie di piani per il salvataggio degli istituti di credito più in difficoltà, portati sull’orlo del default da un’elevata numerosità di sofferenze creditizie, soprattutto in Italia. Altri eventi rilevanti sono stati la Brexit (rappresentata dai due picchi individuati in data 2016: il voto a giugno e il crollo della sterlina a settembre), la drastica caduta del prezzo del greggio, l’avvento dei populismi e dell’euroscetticismo, i quali hanno generato ondate di volatilità sui mercati e incertezza, comportando anche un incremento degli spread tra i titoli di stato dei vari Paesi e il Bund. Nel 2018, le politiche commerciali protezionistiche di Trump, i problemi all’interno dei paesi OPEC e i disaccordi con gli USA, la gestione dell’uscita del Regno Unito dall’Unione Europea e la crisi diplomatica tra Stati Uniti e Cina hanno fatto rialzare l’indicatore del rischio sistemico a livelli allarmanti. Tuttavia, oggi il valore di tale indicatore sembra essersi parzialmente stabilizzato, trainato probabilmente dal rally dei listini globali.

Le ragioni che si nascondono dietro il livello d’interconnessione di una rete sono sicuramente molteplici. Ciò che sembra emergere però è il fatto che in periodi di stress, o comunque di alta volatilità, il livello di rischio sistemico sembra incrementare. La conclusione non banale che se ne può dedurre è quella dell’esistenza di cluster di correlazione, ovvero periodi temporali dove un numero significativo di titoli, tipicamente caratterizzati da dinamiche proprie, si muovono nella stessa direzione, aumentando il rischio di un eventuale “effetto domino”. Come i cluster di volatilità[8], la cui presenza è un fenomeno ben noto nei mercati finanziari, così certi picchi visibili nel livello di rischio sistemico (in figura 2) potrebbero essere spiegati dall’esistenza dei cluster di correlazione. In situazioni di stress, infatti, investitori professionali e istituzioni finanziarie potrebbero essere portati a liquidare massicciamente un ampio ventaglio di titoli da loro detenuti, comportando un incremento della correlazione e dunque del rischio sistemico.

[1] Diebold Yilmaz, On the network topology of variance decompositions: measuring the connectedness of financial firms, National Bureau of Economic Research, Cambridge (MA), October 2011.

Tramite una metodologia di rolling si suddivide il campione di analisi in sotto-campioni di ampiezza pari alla lunghezza delle finestre temporali definite a priori (nel nostro caso, 175 giorni)

[3] Le rilevazioni vanno dal 2010 al 2019, osservazioni giornaliere

[4] I valori missing del campione in input sono stati eliminati tramite listwise deletion data la loro scarsa numerosità (circa il 2% del numero di osservazioni totali del dataset)

[5] La somma di tale valore con quello della diagonale deve dare 100%: così è possibile verificare il grado di dipendenza dello Stato al sistema (un elevato valore della colonna FROM rappresenta un livello significativo di connessione col network, segno di come tale Paese possa essere indebolito da un qualsiasi evento avverso esterno)

[8] Si definiscono così dei periodi temporali in cui la volatilità di un certo giorno è positivamente correlata alla volatilità dei giorni precedenti. Detto in altro modo, la probabilità che la volatilità sia alta (bassa) è maggiore se nei giorni che precedono la volatilità è stata alta (bassa).

Introduzione

L’innovazione tecnologica sta oggi radicalmente modificando le modalità di approccio delle società all’evoluzione del business. Se nel recente passato era possibile ottenere vantaggi competitivi sul mercato in modo reattivo, ora tale approccio non può più funzionare. È necessario riuscire ad individuare i trend maggiormente in grado di rispondere alle esigenze in costante mutamento degli attori nel mercato e intervenire proattivamente, per riuscire a ottenere un vantaggio competitivo.

La blockchain attualmente è uno degli hot topic nel mondo dell’innovazione. Il crescente trend di interesse relativo a questa nuova tecnologia che avrà impatti in tutte le principali industry, aumentando efficienza, trasparenza e sicurezza
è dimostrato dai dati.

Secondo uno studio effettuato dall’International Data Corporation, le spese annuali per progetti blockchain raggiungeranno a livello globale \$12.4 mld entro il 2022, primariamente nell’industria dei servizi finanziari.

La crescente attenzione verso le opportunità connesse a tale tecnologia è certamente notevole se si considera che fino a pochissimi anni fa la parola “blockchain” era conosciuta solamente per la sua connessione con le criptovalute. Oggi invece si parla sempre più di certificazione, tracciabilità e token economy.

Deloitte’s 2018 global blockchain survey

Nella Global Blockchain Survey 2018 di Deloitte emerge come, nonostante la blockchain non sia ancora una tecnologia pienamente matura con impatti pervasivi nel business, il processo di affermazione e diffusione della stessa stia aumentando esponenzialmente. Le ipotesi accademiche sviluppate nel corso degli ultimi 5 anni stanno cominciando a trovare un riscontro nella realtà e l’attenzione principale della ricerca si sta spostando dall’apprendimento delle caratteristiche intrinseche della tecnologia verso l’esplorazione di potenzialità e realizzazione di prototipi che abbiano una applicazione di business.

L’indagine, svolta su un campione di 1.053 società con fatturato pari ad almeno a \$500 milioni dislocate in 7 paesi (Canada, Cina, Francia, Germania, Messico, Regno Unito e Stati Uniti), ha permesso di raccogliere le opinioni e percezioni su blockchain e il suo potenziale impatto nel futuro.

A livello strategico, emerge come l’adozione della blockchain rientri tra le top priorities per il 43% dei rispondenti, mentre solo il 7% non ne percepisce la rilevanza per il proprio business [tab 1]. A conferma di ciò, il 39% delle società intervistate nel corso del 2019 effettuerà investimenti per più di \$5 mln al fine di comprendere come integrare tale tecnologia nei propri processi di business [tab 2]. I principali vantaggi competitivi ravvisati dagli intervistati sono relativi alla prospettiva di velocizzare maggiormente le operazioni di trasmissione delle informazioni al fine di arrivare ad una condivisione in tempo reale, ottenendo così una maggiore efficienza operativa. Altro aspetto cruciale è la volontà di esplorare le opportunità di questa tecnologia con l’obiettivo di creare nuovi modelli e standard di processo nelle industry di riferimento garantendo una maggiore sicurezza rispetto ai tradizionali sistemi informativi [tab 3]. Gli ambiti sui quali le compagnie stanno ponendo maggiormente attenzione sono indirizzati verso soluzioni relative a supply chain, Internet of Things, digital identity e digital records [tab 4].

I numeri mettono in evidenza come la blockchain avrà impatti in diversi settori. I financial services (64%) sono una industry che potrà beneficiare dall’adozione della tecnologia, tuttavia altri settori come Automotive (73%), Oil & Gas (72%) e Life Sciences (72%) potranno avere impatti considerevoli.

Blockchain nei servizi finanziari: alcuni esempi di casi d’uso

A livello pratico, i registri distribuiti e decentralizzati hanno il potenziale di ridisegnare il modo in cui le istituzioni finanziarie interagiscono tra loro e con i relativi stakeholders (regolatori e clienti in primis). Questa tecnologia per sua natura ha una valenza consortile per cui gli ambiti di applicazione in molti casi vanno letti e interpretati immaginando un contesto di collaborazione tra diversi soggetti per ottenere benefici tangibili. Secondo Deloitte i principali casi d’uso nell’industria finanziaria sono i seguenti:

• Scambio di Valore: Blockchain (Bitcoin)è nata per gestire transazioni economiche peer to peer tra soggetti diversi. Attorno alle criptovalute sono nate negli ultimi anni molti servizi innovativi che vanno dal credito come nel caso di Nexo.io (Instant Crypto Credit line) ai pagamenti; il recente JP Morgan Coin mira a diventare uno strumento di pagamento interbancario, per ora in fase di test con un gruppo selezionato di clienti istituzionali. Sono inoltre moltissimi i servizi nati esclusivamente “Crypto” (wallet, exchange, trading platforms, …) che con l’avvento di Lightning Network (layer tecnologico di secondo livello che aumenta tramite i suoi payment channels la scalabilità del protocollo Bitcoin) porteranno una vera e propria disruption nel settore dei pagamenti.
• Immutabilità: Il timestamping è il primo e vero caso d’uso che sfrutta la potenzialità della tecnologia; un registro distribuito tamper-proof e censorship-resistant che garantisce l’immutabilità e la marca temporale di una transazione o di una informazione. Il Timestamping ha l’obiettivo di assicurare l’integrità dei dati delle transazioni finanziarie su modelli blockchain-based, al fine di garantire la loro immutabilità verso le autorità di vigilanza mediante la generazione di un hash value (codice non-reversibile), firma digitale della transazione, salvato in modo immutabile all’interno di un blocco della catena insieme all’indicazione relativa a data e ora. Ciò consente a potenziali verificatori di comprovare l’effettiva transazione avente riferimenti temporali ben definiti. Il timestamping, unito all’Internet of Things sta ampliando i campi di sperimentazione creando soluzioni di tracciabilità anche in altri settori come il lusso (LVMH è un esempio recente) o la tracciabilità della filiera produttiva nel mondo del food.
• Identity management: Il tema della gestione dell’identità online è comunemente noto come un processo lungo e costoso. Nel caso di servizi finanziari quali prestiti mutui o assicurazioni, è necessario infatti attivare un processo di acquisizione delle informazioni che richieda un livello di sicurezza elevato e conforme alle normative di Know Your Customer (KYC), di cui le banche e assicurazioni sono direttamente responsabili, relativamente alla profilazione dell’utente in termini di situazione finanziaria ed esperienze pregresse nel mercato finanziario.  L’adozione della tecnologia blockchain a supporto dei financial services non implica necessariamente rendere pubblici i dati sensibili, ma al contrario dare la possibilità all’utente di gestire in autonomia la propria identità (Le soluzioni di self sovereign identity della Sovrin foundation ne sono un’esempio), condividendo solo le informazioni strettamente necessarie, avendo l’opportunità di rendere disponibili i medesimi claim con più soggetti ridisegnando completamente le fasi del KYC.
• Smart contract/token: protocolli che consentono di eseguire autonomamente accordi e transazioni commerciali, senza la necessità dell’intervento di intermediari ed il cui funzionamento è garantito da un algoritmo. Sono contratti scritti in linguaggio informatico intellegibile da appositi software che vengono attivamente interrogati al verificarsi di determinate condizioni al fine di far rispettare specifiche clausole contrattuali. We.trade, piattaforma tecnologica nata da un consorzio di 8 anche per sviluppare il caso d’uso di trade finance su open account ne è un’esempio. Nel mondo Insurance questa cosa è stata sfruttata da AXA con il caso Fizzy che ha lanciato la prima assicurazione viaggio su blockchain. L’utilizzo degli smart contract si collega a un altro aspetto chiave connesso alla tecnologia blockchain: la Tokenization.

Tokenization

Deloitte crede che la tokenizzazione possa essere tra gli aspetti più rivoluzionari della blockchain. La tokenizzazione degli asset consiste nel processo di emissione di un token blockchain (in base alla tipologia di token si può parlare di security, utility o hybrid token offering) rappresentante digitalmente un bene negoziabile “reale”. Da qui sono nate nel corso del tempo le Initial Coin Offering (ICO) e oggi le Security Token Offering (STO). Queste ultime sono caratterizzate dall’emissione di token che hanno come sottostante un bene fisico e/o strumenti finanziari. Tale token può quindi essere utilizzato per creare una rappresentazione digitale di un asset, che sia esso un’azione, un fondo, un bond o addirittura la proprietà di un bene immobiliare o una frazione di esso: i token, infatti, danno la possibilità ad ogni investitore di acquistare o vendere percentuali molto piccole dell’asset sottostante. È importante sottolineare come il possesso di un security token comprenda gli stessi diritti e responsabilità legali di uno strumento finanziario comune, oltre ad un immutabile registro dei passaggi di proprietà.

Questa nuova frontiera permette di creare “Token Economies”, ovvero un mondo finanziario nuovo nel quale cambia il ruolo degli intermediari e lo scambio di beni si realizza in modalità peer to peer. In alcuni casi, asset o mercati tradizionalmente illiquidi possono assumere, grazie alla tecnologia caratteristiche più liquide sostituendo le classiche partecipazioni tramite equity.

Grazie agli smart contract, la transazione dei token avviene in modo automatico, riducendo le complessità amministrative presenti oggi nei processi di acquisizione/vendita e riducendo il numero di intermediari e dei costi legati alla transazione.

Ma quali sono i principali ostacoli di questo processo? In primis, va sottolineato sicuramente l’aspetto regolamentare: preso atto che un security token è composto dalle medesime caratteristiche di uno strumento finanziario, esso ricade in complesse normative che variano in base alla giurisdizione e che regolano non solo l’offerta iniziale al pubblico di investitori, ma anche gli scambi sul mercato secondario (MiFID, AML, KYC).

Inoltre, sono in corso in diversi paesi (Malta, Francia, UK) alcune consultazioni finalizzate a delineare delle chiare linee guida e regolamentazioni su come i security token debbano essere considerati a livello normativo/legale. In Italia la Consob ha emesso il 19 marzo un documento che si pone l’obiettivo di avviare un dibattito a livello nazionale sul tema delle offerte iniziali e degli scambi di cripto-attività in attesa della definizione in ambito europeo di un condiviso orientamento circa la qualificazione giuridica dei crypto-asset.

Nonostante la presenza di ostacoli, che potrà essere superata solo grazie al supporto dei diversi attori coinvolti lungo tutta la catena del valore, la nascita di una token economy rappresenta sicuramente una possibilità che le istituzioni finanziare necessitano di esplorare in profondità. Esse dovranno definire a quale ruolo ambiscono all’interno di quella che sarà una nuova catena del valore. Potrebbero concentrarsi sull’offerta di servizi di consulenza sulla strutturazione dei token, fungere da custodian bank per le chiavi private ed i wallet, offrire servizi di mantenimento account o agire come piattaforme di distribuzione.

Saranno le istituzioni che investono approcciando la tecnologia in modo metodico e continuativo, a guidare il futuro dei mercati finanziari.

Quali rischi?

Le opportunità di business connesse a questa tecnologia sono numerose e, in alcuni casi, molto promettenti: il crescente entusiasmo connesso all’utilizzo della blockchain sta favorendo l’aumento delle sperimentazioni e i tentativi di implementazione.

A queste nuove possibilità si affiancano, però, nuovi rischi: per cogliere realmente le opportunità emergenti di cui la blockchain e le distributed ledger technology sono fautrici è necessario costruire negli attori interessati una maggiore consapevolezza dei rischi connessi all’adozione di questa nuova tecnologia. Emerge sempre più l’importanza di chiedersi se i modelli blockchain-based possano effettivamente apportare una riduzione dei rischi o se, invece, non siano a loro volta portatori di nuove criticità non ancora pienamente percepite ed esperite. Una mancata corretta mitigazione dei rischi potrebbe, infatti, comportare il fallimento di progetti potenzialmente virtuosi e innovativi.

Prima di tutto, le istituzioni e le società sono tenute a valutare se posizionarsi come early adopters di questa tecnologia o se sia più corretto posticiparne l’adozione, in attesa di una sua maggiore maturazione. In entrambi i casi, i possibili scenari che ne scaturiscono sono molto vari e possono manifestare impatti non indifferenti sullo sviluppo del business stesso.

Sebbene i modelli blockchain-based siano contraddistinti dalla sicurezza delle transazioni, non è possibile affermare lo stesso circa la sicurezza dei wallet e degli account: i database distribuiti e la crittografia consentono di prevenire la corruzione dei dati internamente storati, ma gli account risultano, invece, suscettibili al rischio di account takeover o di perdita delle chiavi di accesso.

Conclusioni

La blockchain costituisce una delle innovazioni più discusse e maggiormente sotto i riflettori negli ultimi anni: è, infatti, riscontrabile sul mercato una crescente attenzione circa le possibilità di applicazione di questa tecnologia.

Il settore finanziario rientra tra quelli che maggiormente potranno essere impattati da questa tecnologia e, infatti, si registrano ad oggi diverse sperimentazioni e casi d’uso. Un processo che merita particolare attenzione è sicuramente quello della Tokenization, ovvero la tramutazione di beni fisici e strumenti finanziari in forma digitale in una logica di scambio peer-to-peer.

Oggi la tecnologia blockchain è ancora nelle sue prime fasi di sviluppo anche se sta già dimostrando benefici tangibili in alcuni casi d’uso molto specifici. Dal punto di vista tecnologico due aspetti fondamentali come adozione e infrastruttura sono ancora in piena evoluzione e risulta al momento difficile fare previsioni sulla sua evoluzione futura.

Per arrivare a una sua comune adozione la strada è ancora lunga: sarà necessaria un’attenta valutazione dei rischi connessi al suo utilizzo e la definizione di una normativa regolamentare che possa essere globalmente condivisa.

Autori

Paolo Gianturco – Senior Partner Deloitte, Head of FinTech & FS Tech – EMEA Blockchain Lab co-leader

Gabriele Tamburini – Manager, Deloitte Blockchain Lab

Marco Mione – Senior FinTech Specialist Deloitte

Ilaria Calò – Consultant Deloitte

Marco Corti – FinTech Analyst Deloitte

Matteo De Stefani – FinTech Analyst Deloitte ng 2 Accent 5

Il Rapporto è curato da Nadia Linciano, Angela Ciavarella, Rossella Signoretti, CONSOB, ed è disponibile al link:www.consob.it/web/area-pubblica/rcg2018. Le opinioni espresse sono personali e non impegnano in alcun modo l’Istituzione di appartenenza.

L’ultimo Rapporto Consob sulla corporate governance delle società quotate italiane conferma alcune caratteristiche degli assetti proprietari delle imprese domestiche, a fronte di cambiamenti innescati da evoluzioni regolamentari e di mercato. A fronte della perdurante bassa contedibilità delle società quotate italiane …

Alla fine del 2017 la maggior parte delle 231 società quotate sull’MTA è controllata o da un singolo azionista (177 emittenti a fronte di 181 nel 2010), con una prevalenza del modello di controllo familiare e pubblico (rispettivamente, 145 e 23 imprese rappresentanti il 34% della capitalizzazione di mercato; Fig. 1). La quota media detenuta dal principale azionista è pari al 47,7%, superiore al valore del 2010, pari al 46,2%, mentre il mercato detiene in media una quota di capitale del 40%.

… continua a ridursi l’incidenza dei patti e delle strutture piramidali…

Le imprese controllate da più azionisti aderenti a un patto parasociale sono, a fine 2017, 22 (51 nel 2010), mentre quelle appartenenti a strutture piramidali o miste sono il 19% circa del listino (Fig. 2).

… mentre la separazione tra proprietà e controllo realizzata attraverso loyalty shares e azioni a voto multiplo interessa soprattutto le società di minori dimensioni.

Per quanto riguarda le deviazioni dalla regola ‘one-share-one-vote’, a giugno 2018 le società i cui statuti prevedono azioni a voto multiplo e loyalty shares sono, rispettivamente, 3 e 41. Alla fine dell’anno precedente, le società i cui azionisti hanno maturato la maggiorazione del diritto di voto sono 14, con una divergenza tra diritti di voto e diritti ai flussi di cassa di circa il 14%. Si conferma, infine, l’incidenza marginale delle azioni di risparmio, emesse da 17 imprese.

Le caratteristiche dei boards continuano a cambiare, anche per effetto dell’applicazione della legge sulle quote di genere.

A giugno 2018 la presenza femminile raggiunge il 36% del totale degli incarichi di amministrazione e il 38% degli incarichi di componente degli organi di controllo, in entrambi i casi registrando i massimi storici per effetto dell’applicazione della Legge Golfo-Mosca – legge 120/2011 (Fig. 3). La maggioranza degli emittenti ha già riservato al genere meno rappresentato la quota di un terzo dei componenti del board, sia nel caso delle società giunte al secondo e al terzo rinnovo del board successivo alla legge (rispettivamente 156 e 24 con una presenza femminile pari al 36%) sia nel caso degli emittenti al primo rinnovo, a cui è applicabile la quota di genere di un quinto (31 casi, 35% di donne in CdA); il dato si riscontra anche nelle società non soggette alla legge 120/2011 in quanto neoquotate e nelle imprese che hanno già completato i tre rinnovi previsti dalla legge (complessivamente 17 casi, 33% di donne in CdA).

Per effetto dell’ingresso delle donne, sono aumentate le percentuali di amministratori laureati o con un titolo post-lauream, è cresciuta la diversificazione del profilo professionale (meno manager e più professionisti e accademici), mentre sono diminuite l’età e la presenza di amministratrici legate all’azionista di riferimento da una relazione familiare (quest’ultima ha raggiunto il minimo storico dell’11% circa).

Con riferimento ai ruoli ricoperti, mentre aumenta rispetto al passato la quota di donne qualificate come indipendenti (72% a metà 2018 a fronte del 69% nel biennio precedente), si riduce lievemente il numero di casi in cui una donna ricopre la carica di amministratore delegato (14 dai 17 rilevati a giugno 2011). È infine in crescita l’interlocking femminile, la cui incidenza si attesta, a giugno 2018, al 38% (era circa il 19% nel 2013).

In prospettiva, un impulso alla board diversity potrà venire anche dagli obblighi di rendicontazione non finanziaria.

Il d.lgs. 254/2016, e il relativo regolamento attuativo della Consob, recepisce nel nostro ordinamento la direttiva 2014/95/EU, introducendo l’obbligo di pubblicare una dichiarazione non finanziaria (DNF) e richiedendo alle società di fornire informazioni sulle politiche eventualmente adottate in materia di board diversity. Nel 2018, 151 società quotate hanno pubblicato una DNF, mentre 45 società (61,3% in termini di capitalizzazione di mercato) hanno istituito un comitato di sostenibilità. In 38 casi, le funzioni del comitato di sostenibilità sono abbinate con quelle di altri comitati (29 casi con comitato di controllo interno, presente nel 90% delle imprese).

Nel 2018, nelle 100 società quotate a più elevata capitalizzazione la stagione assembleare ha registrato i valori massimi di partecipazione degli investitori istituzionali …

A fronte di una partecipazione alle assemblee mediamente pari al 72,6% del capitale sociale, gli investitori istituzionali hanno rappresentato oltre il 21% del capitale (in aumento del 2% rispetto all’anno precedente; Fig. 4). Fondi d’investimento, banche e assicurazioni italiane hanno preso parte al maggior numero di adunanze dal 2012 (81 assemblee, il doppio rispetto al 2012-2013) e con un maggior numero di azioni (3% dell’assemblea). Gli investitori istituzionali esteri, presenti dal 2015 a tutte le assemblee delle maggiori 100 società, hanno esercitato in media voti per il 29% del capitale presente in assemblea.

… il cui dissenso sulle politiche di remunerazione ha raggiunto il massimo dalla prima introduzione del say-on-pay.

Con riguardo al voto sulle politiche di remunerazione (say-on-pay), gli investitori istituzionali hanno espresso voto favorevole con il 57% delle azioni complessivamente detenute, mentre i voti contrari e le astensioni dalla votazione hanno raggiunto, rispettivamente, il 38,7% e il 2,3% delle azioni. Il dissenso, classificato nel Rapporto come somma di voti contrari e astensioni, ha raggiunto il valore più elevato dalla prima introduzione del say-on-pay (Fig. 5).

Il sistema bancario italiano sembra esser tornato a vivere un momento difficile. Come emerge dall’ultimo Rapporto Banche CER 2/2018, nel corso degli ultimi 12 mesi rilevati dalle statistiche, cioè tra ottobre 2017 e ottobre 2018, gli impieghi totali erogati dal sistema bancario italiano sono diminuiti del 3,2%, contro un aumento del 10,4% in Francia, dell’1,9% in Germania. L’Italia in questo quadro sembra essere il paese con più difficoltà sul fronte bancario. Guardando al dettaglio dei finanziamenti erogati alle imprese non finanziarie la situazione italiana ad una prima analisi appare ancora peggiore. Lo stock degli impieghi alle imprese ha segnato una variazione pari a circa il -5,4% ad ottobre 2018 (-6,5% ad ottobre 2017). Nei paesi core, che comprendono Germania, Francia e le altre nazioni dell’Europa centrale, la variazione è stata invece nell’ordine del +5,2% (grafico 1).

Queste dinamiche risentono però dei processi di cartolarizzazione. La cessione dei prestiti, che negli ultimi mesi ha riguardato in particolare i crediti dubbi, fa infatti diminuire dai bilanci la consistenza dei crediti erogati. Correggendo per effetto delle cartolarizzazioni si rileva che il credito alle imprese operanti in Italia da inizio anno è tornato ad aumentare (+1,6% ad ottobre 2018 – grafico 2).

L’analisi in base alla dimensione delle imprese ci dice però che il miglioramento nell’erogazione del credito si è verificato soprattutto tra le imprese medio-grandi (grafico 3). Nel dettaglio, per le medio-grandi la variazione è stata lievemente positiva nel corso dei mesi centrali del 2018, mentre per le imprese di minor dimensione si continua a registrare una contrazione del credito (-2,1%) a settembre 2018.

Per determinare quanto queste dinamiche siano influenzate da fattori di offerta e/o di domanda si possono in primo luogo osservare le indicazioni offerte dalla Bank Lending Survey (BLS), un’indagine che viene effettuata dal 2003, condotta dalle banche centrali nazionali insieme alla BCE, che viene rivolta alle principali banche dell’area euro. Nel questionario somministrato vi è una specifica domanda in cui gli intermediari possono esprimere le loro valutazioni sull’andamento della congiunturale del sistema creditizio. Con specifico riferimento alle PMI, si osserva che la le condizioni di offerta del credito alle PMI confermano un allentamento anche a fine 2018 in Italia, ma si nota un peggioramento rispetto ai trimestri precedenti (grafico 4).

Inoltre, le più recenti informazioni sul fronte del livello della domanda di credito, relative alla fine del 2017 e tratte dall’Indagine sull’accesso al credito delle PMI condotta dalla Bce e dalla Commissione Europea, non segnalano difficoltà di accesso al credito da parte delle PMI italiane. Il saldo tra le risposte di chi ha registrato un incremento del credito bancario rispetto a chi ha osservato una sua diminuzione è rimasto positivo per tutte le aree considerate. Tuttavia, nel grafico si osserva un peggioramento nelle ultime rilevazioni e l’Italia ora mostra il saldo peggiore (grafico 5).

In conclusione, rispetto alla precedente nota, si evince un rallentamento dell’attività creditizia in un contesto in cui gli istituti (sia quelli italiani che quelli europei) stanno attraversando pressioni cicliche e strutturali non indifferenti, che causano una diminuzione costante dei margini per via dei bassi tassi d’interesse a fronte  di richieste di requisiti patrimoniali più elevati e di significativi investimenti imposti dalla sfida tecnologica.

Bibliografia