Ott 192018
 

La letteratura economica ha posto un focus maggiore sui problemi connessi con il rischio di credito, ponendo dall’altro lato una minore attenzione al rischio di mercato. Al riguardo va anche ricordato che il primo Accordo di Basilea si focalizzava esclusivamente sulla prima tipologia di rischio. Seguendo questa linea di pensiero, la vigilanza bancaria europea si è concentrata maggiormente sull’analisi del rischio di credito e sulle sue determinanti, con particolare interesse ai non-performing loan (NPL).

Esemplificative sono le dichiarazioni di Danièle Nouy, presidente del consiglio di vigilanza della BCE, di fronte al Parlamento Europeo: “Level 2 and Level 3 positions consist, to a large degree, of hedging and client-related transactions providing financial services to the real economy and satisfying a demand from various economic agents”. In altri termini, i rischi sottesi da queste forme di attività finanziaria non sono ritenuti eccessivi. Ma qual è il giudizio dei mercati al riguardo?

Una possibile risposta è stata fornita nel Rapporto Banche CER 1/2018. Per misurare il grado di rischio di una banca è stato considerato un indicatore molto diffuso nella letteratura economica, ovvero lo Z-score. Quest’indice misura quanto una banca è distante dal default. Ciò che si nota, nel periodo compreso tra il 2001 e il 2016, è che le banche che appartengono al cluster a basso rischio hanno, sia nel periodo pre-crisi che post-crisi, una maggior concentrazione delle loro attività nel tradizionale business creditizio, mentre di converso hanno una minore incidenza delle attività finanziarie (tavola 1). Le banche con rischio medio sono invece quelle meno attive sul credito e più propense ad investire in attività finanziarie, anche con finalità di trading. Le banche ad alto rischio si situano a metà degli altri due cluster per quanto riguarda la specializzazione sul mercato del credito e la dotazione del portafoglio finanziario. Rispetto agli altri due gruppi, però, l’incidenza dei non-performing loan è ben più elevata, sia nel periodo pre-crisi sia ancor più nel post-crisi.

 

Tavola 1. Banche europee quotate (distribuzione del rischio in base al modello di business)

Note: cluster analysis basata sui valori mediani.

Fonte: elaborazioni CER su dati Thomson-Reuters.

Da questa prima analisi emerge, quindi, come problemi sulla stabilità finanziaria delle banche possono nascere anche, e soprattutto, dal rischio di mercato e non prevalentemente dal rischio di credito.

Tra le attività finanziarie che possono determinare elevati rischi per le banche europee ci sono le cosiddette attività di 2° e 3° livello (level 2 e 3 asset), tipologie di attività finanziarie caratterizzate da una forte opacità e complessità. I level 2 e 3 asset non possono infatti essere valutati direttamente osservando prezzi di mercato ma il loro valore deve essere desunto analizzando l’andamento di asset similari e/o mediante l’utilizzo di articolati modelli interni di autovalutazione. Guardando ai dati raccolti da Mediobanca relativamente alle banche europee di maggior dimensione, emerge come Deutsche Bank sia la banca con maggiore presenza di level 2 e 3 asset in portafoglio (42% del totale attivo nel 2016). Seguono RBS, e Barclays. Le banche italiane non sono particolarmente propense ad investire in strumenti finanziari complessi. Sia Unicredit che Intesa-SanPaolo ne detengono un percentuale sul totale attivo tra le più basse del campione.

Le banche europee hanno continuato ad investire in titoli finanziari speculativi. Le attività complesse hanno infatti permesso di generare un risultato positivo dal trading, ma non tale da compensare la flessione del margine d’interesse. Il risultato finale è dunque una perdita di redditività per le banche che hanno investito in attività finanziarie speculative.

L’approccio tenuto dalle grandi banche europee, soprattutto francesi e tedesche, non è stato difforme da quello intrapreso nel periodo pre-crisi, con una sola importante differenza. Se nel periodo pre-crisi la speculazione finanziaria, attuata prevalentemente dalle banche americane, aveva lo scopo di accrescere oltremisura le fonti di reddito, e conseguentemente i bonus dei manager bancari, nel periodo più recente gli investimenti in attività finanziarie ad alto rischio hanno lo scopo di limitare la caduta del conto economico. In altri termini, se in passato era una speculazione “aggressiva”, ad oggi invece constatiamo una speculazione “difensiva”, volta cioè a far fronte ai bassi tassi d’interesse e a contrastare la concorrenza del fintech.

A livello sistemico questo approccio sta contribuendo all’instabilità finanziaria globale. Una misura del rischio sistemico è offerta dalla New York University Stern Volatility Lab attraverso l’SRISK, un indicatore che misura l’ammontare di capitale richiesto dalle società quotate per far fronte ad uno scenario di stress che prevede una riduzione del 40%, nell’arco di 6 mesi, dei mercati finanziari globali. Analizzando la relazione tra attività rischiose, connesse alla finanza e al credito, con l’SRISK si riscontra che il maggior contributo all’instabilità finanziaria globale è correlato al rischio di mercato. L’incidenza dei non-performing loan non sembra invece avere effetti di rilievo sul rischio sistemico (grafico 1).

 

Grafico 1. Rischio sistemico, asset finanziari complessi e NPL (dati relativi al periodo 2014-2016)

 

Note: campione delle prime 20 banche significative in Europa. Dati espressi in % del totale campione.

Fonte: elaborazioni CER su dati Mediobanca.

La sottovalutazione del rischio di mercato potrebbe avere effetti rilevanti sul sistema finanziario. Il maggior rischio sistemico non spinge infatti i manager bancari a detenere più capitale, anzi avviene paradossalmente l’esatto contrario: chi ha più rischio sistemico detiene una minore proporzione di capitale di buona qualità rispetto al totale attivo (grafico 2).

 

Grafico 2. Rischio sistemico e dotazione di capitale (dati relativi al periodo 2014-2016)

 

Note: campione delle prime 20 banche significative in Europa. SRISK espresso in % del totale campione.

Fonte: elaborazioni CER su dati Mediobanca.

 

Questo contesto dovrebbe destare ancor più preoccupazione se si considera che i mercati finanziari internazionali stanno segnalando da diverso tempo la presenza di un certo surriscaldamento. Tra le diverse concause possono citarsi l’aggressiva politica commerciale di Trump, l’inversione dell’intonazione delle politiche monetarie, l’eccessivo ricorso al debito da parte dei paesi emergenti (soprattutto attraverso il canale dello shadow banking system) e, da ultimo, i timori legati all’Italexit, ovvero l’uscita dell’Italia dall’Area euro.

Guardando alla volatilità di Borsa negli Stati Uniti e nell’Area euro si nota come questa sia ancora contenuta, attestandosi su livelli osservati nella fase precedente alla crisi del 2007-2008, ma come allo stesso tempo segnali da alcuni mesi una forte tendenza crescente (grafico 3). Anche lo spread tra i corporate bond con rating BBB e i titoli governativi da indicazioni analoghe, con livelli storicamente molto bassi sia negli Usa che in Europa ma con una rapida inversione di tendenza nel periodo recente (grafico 4).

Grafico 3. Volatilità di Borsa

Fonte: elaborazioni CER su dati Thomson-Reuters.

 

Grafico 4. Spread tra i rendimenti dei corporate bond con rating BBB e dei titoli governativi

Fonte: elaborazioni CER su dati Thomson-Reuters.

In definitiva, aver trascurato il rischio di mercato, focalizzandosi prevalentemente su quello di credito, potrebbe nuovamente rivelarsi un problema per la stabilità finanziaria. Data l’insufficiente dotazione di capitale delle banche più esposte con le attività finanziarie, soprattutto se misurata attraverso coefficienti di patrimonializzazione non manipolabili (si veda Barucci e Milani, 2018), in caso di crisi sarebbe inevitabile chiedere nuovamente l’intervento degli Stati nazionali.

 

Bibliografia

– Barucci E., Milani C., Do European banks manipulate risk weights?, International Review of Financial Analysis, Volume 59, pp. 47-57, North-Holland, 2018.

– CER, Rapporto Banche 1/2018.

Ott 112018
 

The revised Payment Services Directive (PSD2) aims to contribute to the development of the EU market for electronic payments, where consumers, retail operators and payment service providers will be able to enjoy advantages offered by the internal market of the European Union.

 

In particular, the new Community rules aim to:

  • stimulate competition by promoting innovative payment methods,
    • imposing a supervisory obligation also for suppliers of non-traditional payment systems (e-commerce payments)
    • reducing entry barriers for some types of payment service providers
    • forcing banks to allow access to their Third Party Provider (TPP) infrastructures through standardized APIs (Application Programming Interfaces)
  • protect the consumer and improve security in the use of payment services,
    • providing for more transparent transaction costs and a ban on the applicability of “surcharging” to the customer in the case of electronic payments
    • improving authentication procedures and data protection measures
    • Increasing customer protection in case of unauthorized payments.

Below is a non-exhaustive list of some of the new rules of law.

  • The PSD2 introduces two types of TPP: the Payment Initiation Service Providers (PISP) ​​and the Account Information Service Providers (AISP). Banks will be required to allow access of their back-end systems to TPPs in the first case following requests for initialization of payment transactions₂,₃, in the second case to requests for information on accounts held by their clients (with their authorization).
  • The PSD2 requires that “strong customer authentication” (SCA) measures be applied whenever, in carrying out payment transactions through traditional financial institutions or third-party suppliers, the service user:
    • accesses your online account
    • has an electronic payment transaction
    • performs any operation, through remote channels that involves a risk of fraud or abuse.

These measures involve the use of at least two independent factors: “knowledge” (security question, password), “possession” (token, personal device or “digi-pass”), “inherence” (fingerprint, retina data) ₄,₅,₆.

The publication of the RTS and the questions still open

The process of implementation of the PSD2 Directive has developed in a complex path. One of the main steps of this path is certainly the publication of the Regulatory Technical Standards (RTS) on Strong Customer Authentication (SCA) and Common Secure Communication (CSC), which took place on March 13th, 2018. On June 13th 2018 EBA published his Opinion on the “implementation of the RTS on SCA and CSC” ₇.

The definition of RTS and the related opinions are fundamental elements of the PSD2 framework, but the documents leaves some important issues open.

The text of the RTS will apply from September 14th 2019, but as of March 14th 2019, the “Account Servicing Payment Service Providers” (ASPSPs) will have to make the technical specifications of their access interfaces available to TPPs and provide them with a test environment to carry out tests of the applications that TPP will use to offer services.

The RTS only specifies that the ASPSPs must ensure that their interfaces follow the communication standards issued by international or European standardization organizations.

The Commission, recognizing that the lack of detailed requirements may lead to application problems, proposed the creation of the Application Programming Interface Evaluation Group (API EG) to evaluate the API specifications to ensure that they comply with the PSD2 and other applicable regulations (i.e. General Data Protection Regulation – GDPR).

The recommendations issued by the EG API will aim to create harmonized market practices among EU Member States in order to reduce implementation time and costs for the actors involved.

Further, open points with respect to the General Data Protection Regulation
The European General Data Protection Regulation (GDPR), which became enforceable in May this year, poses some additional questions regarding the PSD2, such as:

  • Determine who is responsible for obtaining consent from customers to enable banks to share their payment information with TPPs.

This is because if PSD2 foresees that TPPs can directly access the customer’s payment account information, provided that they have their explicit consent, using banks’ infrastructure to facilitate provision of payment initiation or account information services.

Under the GDPR, banks are responsible for the processing of their customers’ data and are responsible for the purposes and the manner in which personal data are processed and shared.

PSD2 adds data protection requirements by stating that TPPs are permitted to access the information only for specific purposes “explicitly requested by the customer” related to the provision of account information or payment initiation services.

Therefore, considering these interacting requirements, it seems that while TPPs will likely initiate the process of securing customers’ consent, including consent for their own activities and use of the data once obtained, banks will ultimately remain responsible for confirming, or otherwise separately obtaining, the consent directly with their customers.

Furthermore, EBA in his recent Opinion required above expressed his conviction regarding the fact that, if an AISP or a PISP provides services to a Payment Service User (PSU) on the basis of a contract signed by both parties, then the ASPSPs do not have to check consent. It suffices that the AISP and PISP can rely on the authentication procedures provided by the ASPSP to the PSU, when it comes to the expression of explicit consent. From our point of view, it’s not clear how the banks can verify the will of their customers and how the contractual obligations are going to involve the bank. In this sense, a joint pronouncement by EBA and EDPB is desirable.

  • Determine what constitutes “sensitive payment data”.
    The aforementioned RTS on SCA and CSC in PSD2 establish that banks must provide AISP with the same information made available to the customer₈,₉, when he accesses his own account information directly, if this information does not include “sensitive payment data”. Unfortunately, neither the RTS nor the PSD2 define the meaning of “sensitive payment data”, leaving to the discretion of the banks the task of determining which data they consider sensitive.

GDPR defines “personal data”, and therefore protects, such as any information relating to an identified or identifiable natural person. However, it also allows EU Member States to specify their own rules ” for the processing of special categories of personal data (‘sensitive data’)”, defined as personal data revealing racial or ethnic origins, political opinions, religious beliefs or philosophical beliefs, or union membership and processing of genetic data, biometric data.

The risk, in the absence of specifications on the point, is that the rule will be interpreted in a less restrictive way, facilitating access to additional and unnecessary information with respect to the purposes indicated in the standard increasing the risk of non-compliance.

It is necessary to change the pace
Further guidance by national and EU regulators is urgently needed on how companies can reconcile the requirements under PSD2 and the GDPR, both in the interim period and thereafter. It is desirable that companies manage the GDPR and PSD2 implementation programs in a coordinated way, taking into account reciprocal conditioning.

On the other hand, with the finalized RTS and the timing of implementation deadlines clarified, the companies should proceed quickly, clarifying their strategic positioning and then proceeding on the design and implementation of their communication interfaces, on SCA solutions, on the definition of operating models for the management of interaction with TPPs. All of these points will allow companies to face a rapidly-changing competitive environment such as the one enabled by PSD2₁₀.

David Mogini – Partner Deloitte Consulting

Michele Paolin – Partner Deloitte Consulting

 

Notes

  1. This publication has been written in general terms and we recommend that you obtain professional advice before acting or refraining from action on any of the contents of this publication. Deloitte LLP accepts no liability for any loss occasioned to any person acting or refraining from action as a result of any material in this publication
  2. The EBA also clarified in his Opinion issued on June 13th 2018 that PISPs have the right to initiate the same transactions that the ASPSP offers to its own PSUs, such as instant payments, batch payments, international payments, recurring transactions, payments set by national schemes and future-dated payments.
  3. The EBA also clarified in his Opinion issued on June 13th 2018 that PISPs have the right to initiate the same transactions that the ASPSP offers to its own PSUs, such as instant payments, batch payments, international payments, recurring transactions, payments set by national schemes and future-dated payments.
  4. The EBA also clarified in his Opinion issued on June 13th 2018 that the two factors in SCA need to belong to two different categories (the categories being knowledge, possession, inherence).
  5. The EBA also clarified in his Opinion issued on June 13th 2018 that SCA has to be applied to access to payment account information and to every payment initiation, including within a session in which SCA was performed to access the account data, unless an exemption under the RTS applies.
  6. The PSP applying SCA is the PSP that issues the personalised security credentials. Therefore, it is the same provider that decides whether or not to apply an exemption in the context of AIS and PIS. The ASPSP may, however, choose to contract with other providers such as wallet providers or PISPs and AISPs for them to conduct SCA on the ASPSP’s behalf and determine the liability between them.
  7. On June 13th 2018, EBA also published the document “Draft Guidelines on the conditions to be met to benefit from an exemption from contingency measures under Article 33(6) of Regulation (EU) 2018/389 (RTS on SCA &CSC)”.
  8. The EBA also clarified in his Opinion issued on June 13th 2018 that, AISPs can access the maximum amount of data available to PSUs with regard to their payment account(s) help with a specific ASPSP regardless of the electronic channel used to access it. I.e. if there are more data available through a computer connection online than through a mobile app, the AISP is able to access, via the ASPSP’s interface, the data available on the computer online, regardless of the channel used by the PSU to access the AISP.
  9. The scope of data to be shared with AISPs and PISPs by the ASPSP does not include the PSU’s identity (e.g. address, date of birth, social security number).

 

For further reading on this topic please visit

Ott 062018
 

Life insurance products are often characterized by a minimum guarantee: the insurance company manages funds guaranteeing a minimum return to policyholders (with profit products).

In a recent paper with Elisa Mastrogiacomo we investigated how the presence of a minimum guarantee affects the asset manager’s strategy assuming that the liability of the insurance company is partially charged to the asset manager, see also Dong He and Kou (2018) and Lin et al. (2017).

Usually, the funds of policyholders are pooled together in a segregated fund, the insurance company manages it in order to refund claims and lapses of policyholders. The company is remunerated through a constant fee, and a fee that depends on the assets under management (AUM) of the fund (asset management fee) or through a share of the surplus over the guarantee in case it is positive and zero otherwise (performance fee). In some cases, a combination of the two schemes is at work.

Life insurance products with a minimum guarantee establish that the insurance company is endowed with a liability in case the fund goes below it. If this is the case, then the insurance company has to refund the performance gap to policyholders and, therefore, the company is short of a put option written on the AUM of the fund. This type of contract affects the management of the segregated fund by the insurance company.

We have investigated the asset management problem in a dynamic setting assuming that the payoff of the asset manager is made up of a constant fee, an asset management/performance fee and the liability in case the performance target is not reached. The guarantee is defined as a threshold on the AUM. We assume that the manager’s remuneration decreases in case the AUM is below the guarantee threshold, concurring to the loss of the insurance company, but it cannot become negative. Therefore, it is the insurance company, with its revenues from other activities or its capital, that ensures the payment of the minimum return to policyholders, while the manager only concurs to the loss in the sense that her remuneration is negatively affected if the minimum guarantee is not reached. We deal with a stochastic and a constant risk interest rate.

We show that an asset management fee or a performance fee lead to a similar investment strategy with the latter yielding a lower level of risk exposure (investment in the risky asset). We show that the manager may invest in the risky asset even if the put option is in the money, i.e., when AUM are below the threshold of the guarantee. In that region, the investment is hump shaped: when the put option is deep in the money (AUM are far away from the threshold) the manager doesn’t invest in the risky asset; as AUM increase, the investment in the risky asset increases and then decreases just below the guarantee reaching a null investment for a level of AUM that allow to reach the minimum guarantee. At that point there is a kink, then the investment in the risky asset increases again converging towards the solution obtained without constraint in the region where the guarantee is satisfied (Merton solution). The strategy is depicted in the figure below: we consider a market with a risk-free asset (a bond) and a risky asset (a stock), and we plot the percentage of the AUM (1=100%) invested in the risky asset  by the manager, setting the minimum guarantee threshold equal to 1.

If the company is remunerated also through a constant fee, then the investment strategy may be hump shaped also above the threshold yielding excess risk taking with respect to the Merton solution. This result confirms that, contrary to common wisdom, a remuneration based on a fixed fee leads to excess risk taking, see Ross (2004) Barucci et al. (2018) .

 

Bibliography

Emilio Barucci, Gaetano La Bua and Daniele Marazzina (2018) On relative performance, remuneration and risk taking of asset managers, forthcoming in Annals of Finance.

Emilio Barucci, Daniele Marazzina and Elisa Mastrogiacomo (2018) Optimal investment strategies with a minimum performance constraint, working paper.

Xue Dong He, and Steven Kou (2018) Profit sharing in hedge funds, Mathematical Finance, 28: 50-81.

Hogcan Lin, David Saunders, and Chengguo Weng (2017) Optimal investment strategies for participating contracts, Insurance: Mathematics and Economics, 73: 137-155.

Stephen Ross (2004) Compensation, incentives, and the duality of risk aversion and riskiness, The Journal of Finance, 59: 207-225.

Set 232018
 

Quale sarà l’impatto dell’ondata tecnologica di Intelligenza Artificiale (AI) e Machine Learning (ML), pilastri della Data Science, sull’industria del Wealth Management (WM)? Di certo l’ondata Fintech sta portando e porterà novità nella matura e relativamente poco digitale industria del WM. La parte forse più elettrizzante di questa rivoluzione tecnologica in atto riguarda AI e ML. Si tratta di strumenti incredibilmente potenti che risolvono già una discreta quantità di problemi della vita di tutti i giorni, oltre a imperversare (spesso in modo del tutto casuale e inappropriato) nei convegni Fintech, essendo ormai oggetto di discussioni da bar.

Per capire il possibile impatto di ML e AI sul vasto mondo del WM, mettiamo prima a fuoco l’argomento, facendo chiarezza sul significato di queste parole, spesso confuse tra loro e utilizzate a sproposito. Vediamo allora che cosa si cela dietro al gergo della Data Science.

Intelligenza Artificiale, Machine Learning e Data Science

C’è una bella distinzione tra ML e AI: il ML ha a che fare con l’inferenza, le previsioni, l’individuazione di pattern nascosti nei dati, il ragionamento automatico, la rappresentazione della conoscenza. Si tratta di generare e condensare informazioni che aiutano a prendere decisioni migliori. E fare previsioni. Ad esempio, sfruttare i Big Data per individuare nuovi cluster di clienti, nuovi bisogni ai quali associare prodotti, creando la giusta mappatura, analizzare e simulare il client conversion funnel… si può continuare per paginate e paginate, perché le applicazioni sono vastissime.

L’AI, intesa in senso stretto, è qualcosa di più del ML. L’AI è un computer che agisce come un Homo sapiens. Pertanto occorre che la macchina sappia interagire con gli umani utilizzando gli strumenti del Natural Language Processing, sfruttando al contempo gli algoritmi di Machine Learning . Le applicazioni tipiche sono i chatbot e gli assistenti virtuali.

Figura 1 – Strettamente parlando l’Intelligenza Artificiale differisce dal Machine Learning per l’uso del Natural Language Processing (NPL) – vale a dire metodi di riconoscimento vocale, analisi testuale automatica, comprensione generazione di testi e discorsi –consentendo a un computer di agire come un umano.

Spesso l’idea di AI è però più ampia, e coincide con l’idea di Data Science, area multidisciplinare che si colloca all’interesezione di statistica, computer science, scienze sociali e Data Visualization (DataViz), senza dimenticare le conoscenze di dominio in termini di business (cioè la Business Intelligence). Al crescere dell’automazione nell’industria finanziaria si è iniziato a parlare di Financial Data Science: essenzialmente, e in modo non particolarmente sorprendente, applicazioni di Data Science alla finanza.

Nella pratica, tutte queste distinzioni pseudo-formali lasciano il tempo che trovano: la pratica consiste nell’utilizzare i dati a disposizione e tutti gli algoritmi e le tecniche di analisi note per estrarre valore dai dati. Occorono informazioni spendibili, che aiutano concretamente a generare più ricavi e/o ridurre costi. Il resto non conta.

Figura 2 – Financial Data Science: un’area interdisciplinare che richiede different skills.

Financial Data Science: il vantaggio degli incumbent

Con l’affermarsi dei modelli di business “data –driven”, nell’industria della gestione dei risparmi grande è il timore degli “incumbent”, gli operatori tradizionali, nei confronti dei giganti della tecnologia: Amazon, Alphabet/Google, Facebook e Apple in testa. Comprensibile. Hanno masse enormi di utenti. E li conoscono alla perfezione, grazie alla loro capacità di analizzare i dati – la frontiera della Data Science non è certo nelle università (mi spiace), ma lì. Quando i Big Tech decideranno di entrare con forza sul mercato dei risparmi e degli investimenti, sarà battaglia. Gli intermediari finanziari tradizionali hanno però parecchie armi a loro disposizione.

Primo vantaggio: i dati

Praticamente ogni settore dell’economia ha accesso a una quantità di dati inimmaginabile anche solo una decina d’anni fa – e l’industria del WM non fa eccezione. Banche, assicurazioni, asset manager, hanno infatti un bel po’ di dati dai quali estrarre informazioni di enorme valore grazie alla Financial Data Science.

Tipicamente gli intermediari che si occupano di gestire gli investimenti sono in possesso dei seguenti tipi di dati:

  • finanziari, relativi a posizioni e movimenti presenti e passati dei clienti e a flussi di pagamento – dati dai quali si possono ricavare, informazioni sulle dinamiche d’investiemnto, nonché sulle abitudini di consumo/risparmio;
  • socio-demografici, come età, luogo di nascita e residenza, sesso, situazione familiare e via dicendo, fondamentali, ad esempio, per inquadrare l’investment life-cycle del cliente;
  • le risposte al questionario Mifid (che, se ben disegnato e compliato correttamente, è una miniera d’informazioni), cruciale per estrarre il DNA finanziario del cliente;
  • dati d’interazione cliente-intermediario, come quelli legati alla fruizione del sito, all’apertura di eventuali newsletter, uso di app, conversazioni telefoniche (rammento che devono essere conservate per cinque anni e se ne possono estrarre indici di attitudine e sentiment).

Anche senza dati ulteriori (legati ad esempio ai social media come Linkedin, Facebook, Twitter, o ad attività specifiche di “smart engagement”, come quiz, gaming, e via dicendo) è chiaro che si tratta di un patrimonio informativo notevole.

Innanzitutto sono informazioni ricchissime, perché specifiche: riguardano la sfera economico-patrimoniale. E poiché stiamo parlando di risparmi e investimenti, questo è evidentemente molto più rilevante delle passioni per teneri gattini o il meme del momento che si possono trovare su Instagram e Facebook.

Si tratta inoltre di un data-set che può essere “aumentato” – senza fare grandi voli di fantasia – incrociandolo con varie fonti dati esterne, in primis i dati dei mercati finanziari, quelli dell’economia e le news. Poi, volendo, vi sono svariati “alternative data sets”, ad esempio quelli legati a sentiment analysis, o geospaziali.

Vantaggio ancor più considerevole è che, in ottica GDPR, gli intermediari sono pienamente titolati a macinare questi dati in loro possesso (possesso pienamente autorizzato, cosa che forse non sarebbe sempre vera per i Big Tech), in quanto si tratta di dati inerenti la sfera finanziaria, utilizzati per risolvere problemi finanziari, quelli alla base del rapporto contrattuale.

Ma in che modo AI e ML possono concretamente aiutare l’industria del wealth management? Le applicazioni sono moltissime, e possono impattare l’intera “value chain”. Per esempio, con il supporto di dati e algoritmi, si possono affrontare e risolvere problemi come::

  • individuare e comprendere i bisogni finanziari dei clienti e i loro obiettivi reali;
  • costruire modelli predittivi del comportamento dei clienti (ad esempio se acquisterà o meno un dato prodotto finanziario/assicurativo);
  • individuare i clienti attualmente piccoli ma con elevato potenziale di crescita;
  • migliorare la segmentazione dei clienti, offrendo loro soluzioni d’investimento e servizi accessori personalizzati, migliorando la user experience a costi molto bassi;
  • individuare quali bisogni finanziari sono soddisfatti da un dato prodotto, e per quali obiettivi è consigliabile;
  • supportare le reti di consulenti finanziari, agenti e altri relationship manager con informazioni mirate sui clienti e recommendation systems relativi alle migliori soluzioni da offrire ai clienti, in base ai loro specifici bisogni e caratteristiche;
  • gestire la compliance in tempo reale;
  • simulare l’impatto di eventi di mercato su processi, masse in gestione, costi e margini – attuando qualle che è probabilmente la più utile forma di risk management per un wealth manager (molto più che calcolare il VaR al 99% a una settimana sui portafogli dei clienti);
  • catturare e analizzare nuove fonti di dati.

Figura 3 – I dati dovrebbero essere al cuore del processo di wealth management, supportando e indirizzando tute le principali azioni.

Quindi le aziende finanziarie possono estrarre valore tangibile da numerose fonti dati interne ed esterne utilizzando gli strumenti della Data Science. Tuttavia, la quantità di dati non è l’aspetto più rilevante.

Secondo vantaggio: conoscenza di dominio

I dati sono la materia prima, certo. E la loro quantità rileva, ma la qualità rileva di gran lunga di più. La rilevanza dei dati in termini di business è strategica: nei problemi di ML legati alla gestione dei risparmi, gettare nel bidone degli algoritmi supervisionati o non-supervisionati i dati in modo indiscriminato raramente è una buona idea. Il settore finanziario è infatti fortemente regolamentato, con prassi professionali dalla logica forte e ben consolidata: sarebbe follia non includere queste informazioni “di struttura” nel processo di number crunching. La “features selection”, cioè la selezione delle variabili di input è cruciale se non si vogliono avere algoritmi che funzionano bene in fase di training ma sono incomprensibili e funzionano male nell’opertività quotidiana.

La comprensione del business che sta dietro e intorno ai dati è di gran lunga più importante della soluzione tecnica, cioè di sviluppo di modelli complessi ma fini a sé stessi, e deve essere tenuta in conto nello sviluppo dei modelli stessi. Modelli black-box molto grandi, nella nostra esperienza (Virtual B SpA in larga parte di questo si occupa) tendono all’overfitting e al data snooping: termini che, in sostanza, significano che il modello non ha penetrato davvero la logica del problema che vuole risolvere, bensì ha operato una sofisticatissima interpolazione con scarso valore predittivo. Più dati ci sono, più complesso è il modello, meno conoscenza di dominio si ha, e più è probabile, insidioso e difficile da riconoscere l’overfitting.

Inoltre, per molte applicazioni algoritmiche legate alla gestione dei risparmi i regulators vogliono poter effettuare il “look through”, cioè aprire la scatola del modello per capirne le logiche e i nessi causali. Ragionevole. In questi casi, aver attuato un’analisi via deep learning, per esempio, scaraventando dentro la black box tutte le informazioni possibile, non è esattamente una grande idea.

Ecco perché la conoscenza di dominio è fondamentale, se si vuole utilizzare la Data Science per azioni concrete, misurabili, con un elevato ROI sugli investimenti in tecnologia. Questo è un enorme vantaggio degli intermediari finanziari. Questo è il primo articolo di una serie: nei prossimi vedremo alcune applicazioni concrete.

Take home

Gli intermediari finanziari sono già oggi in possesso di basi dati di grande valore. Si tratta di sfruttarle con intelligenza e senso pratico, mettendo al lavoro gli strumenti offerti dalla Financial Data Science, cioè algoritmi di Machine Learning e tutto ciò che viene in senso lato connotato come Intelligenza Artificiale.

La Financial Data Science, in breve, fa esplodere efficienza e scalabilità. Che si traducono in maggiore produttività. Cioè margini migliori. Di questi tempi, non è male.

Set 132018
 

The financial system is undergoing a more and more important, pervasive and disrupting technological evolution.

Most of the financial market players are evolving their business models into a FinTech direction, leveraging on the more efficient, independent and flexible technology which is able to learn through an iterative process of self-learning and error correction.

Following the recent 2008 financial crisis, the Supervisory Controls on behalf of Regulators have become more pervasive, detailed and intransigent, recording cumulative penalties for ca. $ 200 bn since 2008 because of the failures to regulatory requirement compliance (Douglas, Janos, & Ross, 2016).

The fear of a new light supervision over banking activities along with a worsening of the financial markets health have suggested an enlarged scope of regulatory requirements and greater reporting effort, data disclosure and data quality processes.

RegTech addresses these needs by introducing in a cost-effective and simple way, a new technology that is able to offer flexibility in data and report’s production, automation in terms of data quality, improvement in data management for analysis and inspections purposes (e.g. cognitive learning applied to RAF).

However, RegTech implies significant changes in compliance approach for banking institutions and consequently, it places new challenges to Regulators’ infrastructural capabilities. Supervisors are involved in this disrupting process, they have to acquire technological and analytical tools able to process and analyze an increasing amount of data requested.

 

RegTech: an evolving framework

Regulatory developments in action

New regulations, introduced as a consequence of the recent financial crisis, have increased controls of financial institutions both in terms of banking prudential capitalization (minimum capital requirement for operational, credit and market risks under Basel III, FRTB) and data disclosure for Regulators and customers (MiFID II, PSD 2).

The rationale behind these changes is to determine a homogeneous capitalization scheme among all banks in order to provide Supervisor with the chance to compare and efficiently aggregate banking risks and to achieve an overall picture of the banking system.

In this context, the standard models, as well as tests under stressed conditions, will become mandatory for all banks (including those that use internal models and therefore necessarily adapted to their needs) and represent the regulatory floor to RWA. For this purpose, a set of widespread exercises (EBA Stress Tests) and inspections (TRIM) have been set up.

In this fast evolving framework, banking institutions are experiencing an inevitable growth of the burden of analysis, reporting and public disclosure of their status towards Supervisors, resulting in greater economic expenditures and IT architecture developments

Digitalization: FinTech transformation in the FSI industry

In order to grasp the new opportunities available on the market, Financial Industry is progressively increasing the use of technology in various areas at different levels where it is involved, for example payment service, digital banking and lending.

These new technologies applied to the financial world is now called FinTech. Different sub-sectors of Financial Industry can benefit from the development and application of this new science such as:

  • Artificial Intelligence
  • Blockchain
  • Cyber Security
  • BigData

RegTech Information

The RegTech has been identified, for the first time, by FCA (Financial Conduct Authority) (Imogen, Gray, & Gavin, 2016) as “a subset of FinTech that focuses on technologies that may facilitate the delivery of regulatory requirements more efficiently and effectively than existing capabilities”. It addresses both the need of banking institutions to produce, as fast as possible, reports for regulatory requests and the creation of a new framework between Regulator and financial institution, driven by collaboration and mutual efficiency.

RegTech is becoming the tool to obtain a greater sharing of information between the parties, by reducing the time spent to produce and verify data and by performing jointly analyses, both current and prospective through mutual skills.

 

Implications for banking institutions

RegTech will allow institutions to develop a new way of communicating their data to the control authorities and to the whole financial system by exploiting a more efficient Risk Management and an advanced Compliance management.

Digital Compliance

The RegTech Council (Groenfeldt, 2018) has estimated that, on average, the banking institutions spend 4% of their revenues in activities related to compliance regulation and, by 2022; this quote will increase by around 10%. In this area, the transition to an advanced and digital management of compliance would bring around 5% of cost-savings. Concerning the new regulations introduced for trading and post trading areas, the RegTech would help managing the huge amount of data referred to transactions, KPI, market data and personal data related to customer profiling.

Particularly, a Thomson Reuters survey (Reuters, s.d.), has estimated that, in the 2017, the process of information checking of new users lasted around 26 days. The cost of Customer Due Diligence for the intermediaries is on average around $40 million per year. This is due to the inefficiencies of the actual processes, to the increase of FTE required as result of the increasing controls defined by Regulators and to the loss incurred by the stop of customer profiling practices, which are extremely slow and complex.

Risk Management 2.0

In the last few years, the role of the Risk Management has significantly changed from a static supervision of Front Office activities to a dynamic and integrated framework involving all Bank’s divisions.

However, the evolution of Risk Management not only goes through a change in its approach but also through a substantial IT architecture revolution.

The main habit is creating a fully integrated risk ecosystem able to feed itself from many banking systems, performing checks and regular data monitoring through cognitive learning.

The change of position from an independent risk management to a completely centralized one allows obtaining advantages as:

  • cost reduction ensuring a unique architecture;
  • greater flexibility in its updating / evolution;
  • reduction of the effort (FTE) for the intra system reconciliation;
  • greater uniformity in the compliance checks;
  • standardization of information sources for all disclosures maintaining consistency.

Nowadays, considering the status of the RegTech area, populated by many start-ups and differentiated solutions without a consolidate best practice, there are some barriers to its completed implementation:

  • preference in financial industry for business investments rather than innovation;
  • the needed investments cannot rest on previous investments in Compliance;
  • continuous changes about the regulatory requirements still ongoing;
  • challenges for the RegTech start-ups to interface with the IT structures, potentially not adequate for the ongoing system.

Implications for the Regulators

Financial System increasingly focuses its attention on the supervisory authorities by requiring them a costs reduction/complexity in the face of a greater quality of the controls put in place.

If on one hand, the institutions try to apply FinTech’s innovations to their own disclosure activity, on the other hand, it is advisable that the Regulators invest in similar technological innovations in order to manage a considerable amount of required data through new regulations.

The potential benefits are:

  • creation of preventive compliance system developed to anticipate any breach
  • performing real-time analysis and checks rather than only historical ones
  • possibility to carry out more complete analysis on a wider data panel and not only on aggregations already provided without the underlying details
  • implementing simple tools to increase the information level against a reduction of the overall effort (eg. fingerprint for the access to the trading platforms).

All of this also brings benefits to the entire financial system:

  • defining framework at national level but especially at international level so as to reduce progressively the potential arbitrages between markets
  • increasing the flexibility (both on banking institutions and Regulators) to analyze different sets of data by avoiding development costs and the related implementation time as result of these changes
  • making compliance architecture an useful analysis tool to monitor impacts of new regulation through an ad-hoc scenario analysis.

Conclusions

RegTech represents one of the most important challenges of the financial system, which is able to modify structurally the global financial markets.

Despite the entry barriers to the use of technology in a regulatory environment, the banking institutions will necessarily have to evolve their way to relate with Regulators by making the process less costly and more efficient and at the same time by maintaining their competitiveness on the market.

With regard to this, the approach suggested by the literature is to acquire pilot or “sandbox” cases in order to adopt gradually an innovative process without causing potentially negative impacts.

Particularly, the institutions need this application in the trading field where the new regulations require a remarkable quantity of data and computational speed not manually sustainable.

In addition, the Supervisory Authority is willing to avoid the situation where it has the needed information for supervisory purposes but it is not able to analyze them promptly and correctly. For this purpose, the Supervisory Authority are slightly more static because they are still stuck on the old paradigm and on the review of the main regulations.

 

Alberto Capizzano – Director Deloitte Consulting

Silvia Manera – Manager Deloitte Consulting

Bibliography

Douglas, W. A., Janos, N. B., & Ross, P. B. (2016, October 1). FinTech, RegTech and the Reconceptualization of Financial Regulation. Northwestern Journal of International Law & Business, Forthcoming, p. 51.

Groenfeldt, T. (2018, 04 4). Understanding MiFID II’s 30,000 Pages Of Regulation Requires RegTech. Forbes, p. 1.

Imogen, G., Gray, J., & Gavin, P. (2016). FCA outlines approach to RegTech. Fintech, United Kingdom, 1.

R.T. (s.d.). KYC onboarding still a pain point for financial institutions: https://blogs.thomsonreuters.com/financial-risk/risk-management-and-compliance/kyc-onboarding-still-a-pain-point-for-financial-institutions/

 

Set 082018
 

Under Solvency II (SII), insurance and reinsurance companies have to evaluate their assets and liabilities following harmonized principles, among which the discounting of the liabilities cash flows through a risk free interest rates yield curve, that EIOPA has been publishing on a monthly basis since February 2015. The Authority does not state anything else regarding the future evolution of the risk free yield curve or the volatility it should show, which count a lot in the determination of the liabilities value.

If the liabilities were characterized by having no optionality, their present value could be easily calculated discounting the cash flows though the deterministic yield curve provided by EIOPA; in truth, insurance products usually offer a guarantee on a minimum level of return credited to policyholder fund. This optionality must be priced in a risk neutral framework, likely making use of Monte Carlo simulations. Whatever model is chosen to project the shape of the interest rates in the future, it must satisfy the risk neutrality principle (i.e. all the assets are expected to earn, on average, the risk-free rate). Roughly speaking, this means that, if we consider an asset that is worth X euros in t=0 and capitalize and discount it over the N paths of the projected interest rates, the average value of the N evaluations should be X. Although, Liabilities cash flows are not that simple and the volatility of the projected rates plays an important role when defining the value of the optionality they embed. The Interest Rate (IR) model adopted is calibrated such that the projected interest rates are Market Consistent (MC), that is, capable of replicating some Implied Volatilities (IVs) quoted in the market. The question is: which IV shall be targeted? It is worth noticing that we move from talking about the volatility of the interest rates, used to price the optionality (and therefore the IV) of the liabilities to a different IV, that comes from the market, from completely different types of options. When thinking about the market, another important piece of information is that the price of an instrument is unique, while its IV depends on certain assumptions: it is implied by a specific formula. Another key element is that prices are the unique quantity definable via Monte Carlo simulation, while IV shall be derived from the former.

The SII regulation does not provide any answer and the choice is left to the insurance and reinsurance undertakings, which can select the IR model they prefer and its market target for the calibration purposes. Actually, the Standard Formula does not even consider the IR volatility as a risk.

The IVs quoted in the market are those of the Cap, Floor and Swaption contracts, all the three being defined over an Interest Rate Swap (IRS).The IRS is a derivative instrument where two parties agree to exchange IR cash flows from a fixed () to a floating () rate, or vice versa. The IRS is called payer/receiver when the fixed rate is paid/received. The fixed rate that makes the contract fair is called forward swap rate and is equal to:

where is the time when the contract starts and the number of years it lasts.

Caps and Floors can be respectively seen as options on a payer/receiver IRS, where the money exchange is set in favorable circumstances only. The present value of the payoff of a Cap is:

Caps can be used for hedging purposes when one is debtor of the floating rate . Indeed, when holding such a contract, the whole exposition becomes , that does not exceed the fixed rate . Caps and Floors are made up of sequences of Caplets and Floorlets, each one defined over a certain époque and referred to a certain forward rate. A Cap contract is said to be ITM (In), ATM (At) or OTM (Out of The Money) when K is respectively <, = or > than the fair value, and the difference between K and the fair value is called moneyness, so

A payer/receiver Swaption contract is an option granting its owner the right but not the obligation to enter in into an underlying payer/receiver IRS of tenor . The actual value of a payer Swaption is:

Because of the Jensen inequality, this value is never grater that the Cap correspondent one. Likewise the Cap, a payer Swaption is said to be ITM, ATM or OTM when the strike K is respectively <, = or > than .

Until the recent past (say, before the negative rates appeared), both Caps/Floors (considered as sum of Caplets and Floorlets) and Swaptions were priced using the Black formula, supposing a lognormal distribution respectively for the forward rates and the forward swap rate. Although widely used in the market, the two pricings were incoherent, being the forward swap rate defined as a weighted average of the forward rates and the being the sum of aleatory variables with lognormal distribution not lognormal distributed (i.e. the two assumptions on the distributions of the rates cannot hold true together). As the price of a Swaption depends on the forward swap rate, knowing the volatilities of the single forward rates is no longer sufficient for the evaluation and information about the forward rates joint distribution and the correlation between different maturities are needed. Because their price embeds more information, Swaption contracts are often preferred to Caps when setting the market target for the calibration of the IR models.

Given a unique price of a Swaption, there are three types of IV quoted in the market, based on different assumptions on the distribution (Lognormal, Displaced Lognormal or Normal) of the swap forward rate:

  • LN-SIV are defined as a relative change of the forward swap rate (bigger changes for higher YC)

  • DLN-SIV are defined as a relative change of the displaced forward swap rate

  • N-SIV are defined as an absolute change of the forward swap rate, independent of its level

All the three are linked by the value of the underlying forward swap rate and, roughly speaking, there are 2 order of magnitudes between the former and the latter. Even though the relationship is not given by a simple rescaling and it is not linear, a good approximation to keep in mind is:

The recent past market environment, characterized by a number of tenors whose rate was negative, has questioned the use of LN-IV: negative/close to zero forward swap rates turn into not defined/extreme IV, which make the calibration of any IR model very challenging and potentially inaccurate.

N-IV has started to catch on, with the additional benefit of mitigating the distortion that comes from applying a market IV to a Yield Curve (YC) that is different from the market one. Indeed, the IV quoted in the market refer to the market swap YC, while the IR models used for the liabilities evaluation are based on the published EIOPA YC (much higher on the long term due to the convergence to the UFR). The misalignment of applying a certain IV (that refers to the market YC) to a higher YC (the EIOPA one) is exacerbated when LN-IV are adopted, as they are proportional to the level of the rates. The usage of N-IV in place of LN ones helps in taming the volatility embedded in the projected rates, that affects the TVOG, normally increasing the BEL value. The following picture clarifies the statement, by comparing the market ATM LN Swption IV (implicit in the market rates) to those derived from the N-IV when the EIOPA YC is used: the latter are smaller because, given the same N-IV, a higher rate appears as denominator.

After having concluded that Swaptions are more exhaustive than Caps and, in this context, N-IV are more appropriate than LN-IV, a question is left: when calibrating an IR model, which data shall be considered as target among all those available for the Swaption N-IV (N-SIV) cube (option maturity , IRS tenor , moneyness) at a certain reference date?

Let’s try not to forget the original goal: determining a value for the Liabilities, that embed a degree of optionality, priced via Monte Carlo methods. The market data chosen as target drive the calibration of the IR model chosen and, in turn, the projected rates and their distribution. Different sets of projected rates give origin to different liability values. Setting a certain target is nothing else than deciding on the properties the projected rates should have, including their volatility, keeping in mind that the IV of the liabilities will not be equal to the IV of the Swaptions as the liabilities are not Swaption contracts.

Being the N-SIV quite smoothed, there is potentially no contraindication in setting the whole SIV cube as target but the runtime needed to carry out the IR model calibration: it is a matter of balance between calibration speed and fitting accuracy, which also depends on the IR model adopted. Deciding on which data to consider introduces a degree of subjectivity and exposes one to the risk/benefit of choosing some points rather than others. What if the others matters more? On the other hand, along with reducing the runtime, the selection of a subset of data may help in discarding unrepresentative or inaccurate data points, not consistent with the surrounding ones.

Once the relevant data have been chosen, the last question is: shall they all be weighted the same way or should some of them count more than others? The easiest possibility is to assign uniform weights to all the points considered, while a more subjective one is to decide on which SIV triples should count more. There is no contraindication of going for the first choice, while the latter introduces again a degree of subjectivity. A possibility for defining a not uniform weighting scheme would be to derive it from the liabilities’ profile, but it would be a more complex approach, less stable over time and subject to introducing sensitivity between rates levels and volatilities (the liability profile depends on the level of the rates and so the derived weights, which will drive the next calibration, like the tail wagging the dog). In addition to that, one should remember that there is no direct link between liabilities and Swaption contracts: the IV quoted in the marked for the Swaptions are not becoming IVs for the liabilities.

Having said that, in case liability driven weights was still the favorite option, an insurance company should define a parallelism between the financial optionality and that embedded in insurance products to derive the option maturities, IRS tenors and moneyness it is more exposed to. To this aim, only contracts with of a minimum guaranteed rate shall be considered. A “with profit” contract, where the policyholder has the right to get a minimum guaranteed rate in case of lapse/death/maturity, could be compared to a Long European Swaption as the policyholder may chose a fixed payout at the end of his contract or a variable benefit if he takes the money and invests it at the risk-free rate; from the perspective of the insurance company, this contract would be comparable to is a Short European Receiver Swaption. One can think of:

  • the option maturity (T) as the time in which the policyholder can decide to leave the contract
  • IRS tenor (n) as the residual time since the policyholder has left the contract till its original maturity
  • the moneyness of the option (r_mg) as the difference between the minimum guaranteed rate (moneyness) and the swap forward rate S(T,T+n). In a market environment characterized by low yields and high guarantees, the liabilities would be more exposed to OTM Swaptions on the short term (a rational policyholder would prefer to stay in the contract and get the minimum guaranteed rate rather than reinvest the benefit in the market at the risk-free rate, which is lower) and to ITM Swaptions on the long term (when the market rates are higher than the guaranteed one).

To put into effect this parallelism between insurance policies and financial contracts, one needs derive a 3D matrix (T,T+n,moneyness) starting from a 1D projection of mathematical reserves and outgo cash flows for the maturity only CF(t,MAT.OUT). The mathematical reserves are used as the best proxy of the amount of money the policyholder will get in case of lapse (exercise of the option), while maturity outgoes are considered being the only outgo cash flows where the policyholder can exercise an option (neither death cash flows are considered as the policyholder cannot decide to die/survive, nor annuity cash flows are, because, when paid, they correspond to a decision already made by the policyholder – staying in the contract and not leaving getting a lump sum).

  • both V(t) and CF(t,MAT.OUT) can be split by r_mg, from which one can derive the moneyness (that gives the 3rd dimension)

  • given a certain r_mg, to transform the 1D projection into a 2D matrix one has to “recycle” the data “moving in time”
  • the first dimension (T) is naturally given by the “move in time”
  • the exposure of the Liabilities to the IRIV risk is given by the amount of mathematical reserves that the policyholders can withdraw at that time (T), given the lapse rate as the base one

  • at each (T), the second dimension (T+n) is given by the amount of contract in place at time e that are expiring in (T+n) – one moves in time considering for each row (i+1) a subset of the data used in (i), removing the first element

As the SIV cube does not include all the possible triples, the data without a correspondence have to be assigned to the nearest existing labels (e.g. tenor 6 is split equivalently to tenor 5 and tenor 7), in a “condensation” process. Even though it is be possible to identify the whole cube, the entries may be further condensed into a limited number of triples, which have been defined as target.

As already stated, the parallelism between financial and insurance options is just a parallelism that undergoes a number of simplifications, among which:

  • ignoring additional payments on top of the minimum guaranteed amounts (that happen because of the profit sharing) as well as fiscal benefits or penalties in case of early surrender
  • the surrender date is not set at maturity only: policyholders can surrender at any time until maturity (it would be more similar to a Bermudan option rather than to a European Swaption)
    • it is not exactly clear whether an insurance contract shall be addressed as payer or receiver option: looking at the payoff, the payer label would fit more (max(0,L-K) ), but from a definition perspective the policyholder actually receives from the insurance company a fixed amount, that than exchanges with a third party (the market).

 

Ago 302018
 

La congiuntura bancaria europea sembra vivere un momento positivo. Come emerge dall’ultimo Rapporto Banche del Centro Europa Ricerche (2018) gli impieghi bancari erogati a tutti i settori economici sono cresciuti dello 0,4% in Italia, del 2,2 in Spagna, del 2,4 in Germania e dell’8,5% in Francia.

L’Italia in questo quadro sembra essere il paese con più difficoltà sul fronte bancario. Guardando al dettaglio dei finanziamenti erogati alle imprese non finanziarie la situazione italiana ad una prima analisi appare ancora peggiore. Lo stock degli impieghi alle imprese ha segnato una variazione pari a circa il -5% ad aprile 2018 (-1,6% ad aprile 2017), una riduzione in linea con quella osservata negli altri paesi periferici (Grecia, Irlanda, Portogallo e Spagna, GIPS). Nei paesi core, che comprendono Germania, Francia e le altre nazioni dell’Europa centrale, la variazione è stata invece nell’ordine del +4% (grafico 1).

Queste dinamiche risentono però dei processi di cartolarizzazione. La cessione dei prestiti, che negli ultimi mesi ha riguardato in particolare i crediti dubbi, fa infatti diminuire dai bilanci la consistenza dei crediti erogati. Correggendo per effetto delle cartolarizzazioni si rileva che il credito alle imprese operanti in Italia da inizio anno è tornato ad aumentare (+2,2% ad aprile 2018 – grafico 2).

 

Grafico 1. Impieghi alle società non finanziarie – Tasso di crescita su base annua

 

Fonte: elaborazioni CER su dati BCE.

  Grafico 2. Impieghi alle società non finanziarie – Tasso di crescita su base annua corretto per le cartolarizzazioni

Fonte: elaborazioni CER su dati BCE.

 

L’analisi in base alla dimensione delle imprese ci dice però che il miglioramento nell’erogazione del credito si è verificato soprattutto tra le imprese medio-grandi (grafico 3). Per le più piccole c’è stata una flessione, seppur meno rilevante rispetto ad un anno fa.

Grafico 3. Variazione % su base annua dei prestiti bancari (*)

 

 

(*) Escludono i pronti contro termine e le sofferenze. Le variazioni percentuali sono corrette per tenere conto dell’effetto contabile di cartolarizzazioni e riclassificazioni. Le imprese piccole includono le società in accomandita semplice, in nome collettivo, semplici, di fatto e le imprese individuali con numero di addetti inferiore a 20.
Fonte: Banca d’Italia (Bollettino Economico).

 

 

   

Grafico 4. Condizioni di offerta del credito alle PMI nell’ultimo trimestre (indice di diffusione (*))

(*) 100 = massimo restringimento nell’erogazione del credito, -100 = massimo allentamento.
Fonte: elaborazioni CER su dati BCE.

 

 

 

 

 

 

 

Per determinare quanto queste dinamiche siano influenzate da fattori di offerta e/o di domanda si possono in primo luogo osservare le indicazioni offerte dalla Bank Lending Survey (BLS), un’indagine che viene effettuata dal 2003, condotta dalle banche centrali nazionali insieme alla BCE, che viene rivolta alle principali banche dell’area euro. Nel questionario somministrato vi è una specifica domanda in cui gli intermediari possono esprimere le loro valutazioni sull’andamento della congiunturale del sistema creditizio. Con specifico riferimento alle PMI, si osserva come le condizioni di offerta applicate in Italia nell’ultimo anno siano intonate verso l’allentamento, seppur in misura minore rispetto alla metà del 2016 (grafico 4).

Grafico 5. Indicatore di accesso al credito delle PMI

Saldo netto delle risposte tra chi ha registrato un incremento rispetto alla riduzione del credito bancario

Fonte: elaborazioni CER su dati BCE e Commissione Europea.

Inoltre, le più recenti informazioni sul fronte del livello della domanda di credito, relative alla fine del 2017 e tratte dall’Indagine sull’accesso al credito delle PMI condotta dalla Bce e dalla Commissione Europea, non segnalano difficoltà di accesso al credito da parte delle PMI italiane. Il saldo tra le risposte di chi ha registrato un incremento del credito bancario rispetto a chi, invece, ha osservato una sua diminuzione offre delle indicazioni su quale è il livello di domanda di credito rimasta inevasa. Le indicazioni più recenti segnalano che la domanda di credito in Italia è stata interamente soddisfatta, tendenza che accomuna anche gli altri paesi europei (grafico 5).

In definitiva, le informazioni qualitative che emergono dalle survey dal lato dell’offerta e della domanda segnalano che nella fase più recente anche le imprese di minore dimensione non stanno registrando, in media, problemi di accesso al credito, come invece si poteva constare tra il 2011 e il 2014.

Al miglioramento delle condizioni di acceso ai finanziamenti bancari da parte delle imprese italiane, così come delle famiglie, hanno contribuito la pulizia dei bilanci bancari e soprattutto l’incisiva azione della Bce, in particolare tramite il quantitative easing (si veda Milani, 2015). Dal prossimo anno, però, il piano di acquisti di titoli di Stato verrà arrestato. Se la tabella di marcia definita da Mario Draghi, che prevede il permanere di una politica monetaria particolarmente accomodante per ancora molto tempo, sarà sposata anche dal nuovo presidente della Bce non c’è in ogni caso da attendersi un ritorno alla restrizione creditizia.

 

Bibliografia

– CER, Rapporto Banche 1/2018.

– Milani, Prime valutazioni sul quantitative easing europeo, FinRiskAlert.it del 12 Maggio 2015.

 

Ago 022018
 

L’innovazione mette alla prova i Wealth Manager

Le Fintech stanno diventando realtà anche nel Wealth Management, il mercato più “human intensive” per definizione. Intelligenza artificiale, chatbot e robot sono le tecnologie Fintech che stanno cambiando il mercato finanziario e che saranno sempre più sulla bocca di tutti, clienti e consulenti finanziari compresi. In tale contesto le tecnologiche emergenti impatteranno sia le dinamiche di relazione consulente-cliente sia la macchina operativa.

È arrivato il Robo Advisory

Il mercato della Consulenza Finanziaria sta affrontando la sfida del Robo Advisory, il servizio di gestione degli investimenti supportato da algoritmi ed erogato attraverso piattaforme digitali. Il Robo Advisory, utilizzando le informazioni dei clienti e combinandole alle strategie desiderate di asset allocation, permette di fornire raccomandazioni d’investimento/ portafogli personalizzati. In poche parole un servizio di consulenza personalizzato, supportato da una gestione e da un’ottimizzazione automatizzata del portafoglio, fruibile mediante dashboard interattive. Questo fenomeno, che interessa sia operatori storici che start-up Fintech, ad oggi sta vivendo in Italia una forte fase espansiva.

 

Robo Advisory: un trend in crescita

A livello globale le masse gestite direttamente attraverso tecnologie Robo Advisory sono destinate a crescere considerevolmente nei prossimi 2 anni. Questo trend sarà principalmente guidato dal mercato americano: nei soli Stati Uniti, infatti, il mercato passerà dagli attuali ~265 €Mld a ~435 €Mld nel 2020. In Europa, invece, si passerà da ~17 €Mld (di cui ~170 €Mln in Italia) a ~50 €Mld nel 2020 (di cui ~670 €Mln in Italia) [Fig. 1]. L’impennata globale degli AUM gestiti da “Robo Advisor” non è tuttavia destinata a rallentare: le attese sono quelle di raggiungere ~1.300 €Mld nel 2025. Spinti da questo trend di crescita, anche i grandi player leader dell’Asset Management stanno orientando alcuni dei loro investimenti sulla costruzione di nuove piattaforme per la gestione completamente automatizzata di grandi portafogli. BlackRock, per esempio, ha recentemente annunciato l’introduzione di un fondo ETF seguito interamente da robot, che utilizzerà l’intelligenza artificiale per la selezione dei titoli replicando “meccanicamente” le analisi normalmente effettuate da intelligenza umana. L’investimento di BlackRock ha fin da subito portato a risultati soddisfacenti: i fondi gestiti dai robot hanno mostrato una performance significativamente superiore rispetto ai classici “stock pickers” discrezionali. Sulla scia di questa iniziativa anche altri grandi gestori di asset management come Bridgewater Associates, Point72 Asset Management e JPMorgan stanno andando nella stessa direzione sperimentando attivamente l’uso dell’automazione.

In Italia, Money Farm è stato un pioniere nell’offerta di servizi di consulenza automatizzata. Società fondata nel 2011, oggi conta 20k clienti attivi al mondo, 150k iscritti profilati dalla piattaforma al mondo e masse gestite a livello mondiale (tra Italia e UK) per oltre 400 €Mln. Lo sviluppo di piattaforme digitali di advisory per i segmenti “affluent” e “mass” con un patrimonio inferiore a 500 €k si sta diffondendo anche tra le banche commerciali italiane.

Quali sono i vantaggi del Robo Advisory?

L’introduzione del Robo Advisory permette di avere costi commissionali e di gestione significativamente più bassi rispetto ai modelli tradizionali, così da costituire un’opportunità per i segmenti di clientela a basso valore attualmente non pienamente serviti. L’utilizzo di algoritmi per la creazione e la gestione di portafogli, infatti, rappresenta una soluzione in grado di ridurre i costi di servizio per la Banca. Questa graduale riduzione dell’effort “discrezionale” dell’uomo si ribalterà sul cliente finale, generando una significativa riduzione dei costi dei servizi finanziari.  Secondo le analisi Monitor Deloitte, solo l’utilizzo delle chatbot porterà, entro il 2020, a significativi risparmi di costo quantificabili tra 0,50 e 0,70 dollari per ogni interazione banca-cliente.

La tecnologia viene quindi vista più come a supporto che come in sostituzione del lavoro umano in un’ottica “Robo 4 Advisor”. Riteniamo che questo potrebbe aprire il mercato della consulenza finanziaria su segmenti di clientela meno abbienti consentendo costi del servizio più accessibili e offrendo la possibilità al gestore di servire meglio e in modo più efficiente i clienti in portafoglio. Da un lato, se oggi per coprire costi diretti e indiretti del servizio, un Wealth Manager può arrivare a dover gestire 100 milioni di euro di masse, attraverso un modello combinato questa soglia potrebbe essere dimezzata.

Come “contropartita”, dal consulente ci si attende che riesca a seguire da vicino portafogli dai 100 ai 200 clienti. Senza il supporto della tecnologia, difficilmente si riuscirebbe ad essere proattivi su un portafoglio di tale entità e focalizzare, allo stesso tempo, l’effort commerciale sui clienti a maggior valore e/o intensità relazionale.

La consulenza Robo può quindi essere “vincente” su profili di clientela che tradizionalmente non potevano permettersi un consiglio finanziario personalizzato, strategia particolarmente attrattiva in questo periodo di tassi di interesse prossimi allo zero.

L’automatizzazione nella gestione dei portafogli, come detto, supporterà senza sostituire la componente umana. A seconda della diversa composizione del portafoglio, infatti, l’intervento umano rappresenta ancora un asset prezioso per la Banca. Nei portafogli molto concentrati (o caratterizzati da titoli con scarsa liquidità) la scarsa disponibilità di informazioni societarie e di settore genera la necessità di un tipo di consulenza più “insightful” ed elaborata, più adatta quindi a una valutazione discrezionale e personale. Saranno invece i settori caratterizzati da asset class consolidate e molto liquide, con la disponibilità di una grande quantità di informazioni, i più adatti a tale innovazione.

Cosa ne pensano i clienti?

Secondo il “Global Investor Pulse”, ricerca annuale di BlackRock sul mercato Italiano, il 46% degli investitori dichiara di sapere conoscere questa tecnologia, con punte che raggiungono il 62% tra i Millenial. Fra coloro che conoscono il Robo Advisory, il 57% dichiara che potrebbe ricorrere a un servizio di consulenza automatizzata già nel corso del prossimo anno (con picchi oltre il 70% per i Millenial) [Fig. 2]. In generale, comunque, tale apertura non è incondizionata, ma è subordinata per la maggior parte degli investitori alla presenza di un supporto terzo: quasi la metà condiziona la sua adozione alla possibilità di interagire con un consulente o con un’istituzione finanziaria avente un forte brand. Poco più del 10% si dice pronto a percorrere questa strada in modalità pienamente autonoma, livello di adozione in linea con i trend caratteristici dei canali digitali in Banca. Per fare un parallelismo con il mondo delle banche tradizionali, il canale fisico rimane (e rimarrà) centrale per la relazione con il cliente evolvendo, tuttavia, il proprio ruolo. Allo stesso modo, anche per il consulente finanziario, le nuove tecnologie prima ancora di cannibalizzare parte del mercato, potranno abilitare una relazione con il cliente più diretta, profonda ed economica.

Le nuove generazioni? Si aspettano sempre di più

Le piattaforme automatizzate possono risultare potenzialmente molto interessanti per una “nuova” fascia di clientela bancaria, giovane, con ampi margini di crescita, molto evoluta digitalmente che allo stesso tempo richiede alla propria banca un controllo e una conoscenza dei propri investimenti sempre maggiore. Infatti, anche i clienti high-net-worth (HNW) diventano più esperti di tecnologia digitale e si aspettano gli stessi livelli di trasparenza e connettività offerti dalle banche retail. Si prevede che le generazioni più giovani erediteranno 1 trilione di dollari nei prossimi 20 anni, aspettandosi un funzionamento dei servizi per la gestione dei propri patrimoni simile a quella di altre applicazioni, come Amazon e Google: servizi semplici e perfettamente integrati nella vita di tutti i giorni.

Tradizionalmente, i Private Banker, grazie alle relazioni personali, hanno gestito le esigenze dei clienti e garantito un livello di servizio elevato. La digitalizzazione non sostituisce quella relazione personale, ma la migliora accelerando i processi e utilizzando i dati dei clienti per prevedere con precisione ciò che sarà più vicino ai loro bisogni. In questo senso, i Private Banker dovranno essere in grado di fornire ai propri clienti un servizio ancora più personalizzato. Offrire un servizio di consulenza eccellente a 360° su tutto il patrimonio non è facile così come non è semplice amministrare capitale, partecipazioni, immobili, con un unico strumento. In questo senso, l’Intelligenza artificiale e tutte le nuove tecnologie disponibili possono venire in aiuto al consulente, permettendogli di offrire un servizio sempre più specifico e personalizzato nel prossimo futuro.

 

Carlo Murolo, Senior Partner, Head of FS Industry, Deloitte Consulting

Manuel Pincetti, Senior Executive, Monitor Deloitte Strategy Consulting

Luigi Capitanio, Senior Executive, Monitor Deloitte Strategy Consulting

Daniele Ingannamorte, Senior Associate, Monitor Deloitte Strategy Consulting

Lug 262018
 

EIOPA launched its fourth union-wide exercise with the aim of assessing the resilience of the European insurance companies against adverse scenarios which can trigger systemic risk and threaten the stability of the European financial markets and the real economy.

The target sample encompasses 42 insurance groups (the first 30 and 12 additional others supervised by different NCAs), for a total coverage close to 78% of the consolidated Assets according to the SII Financial Stability reporting.

The Stress Test (ST) does not represent a “pass” or “fail” exercise, but rather a full bottom up calculation to assess the impact of three adverse scenarios to the insurance groups Balance Sheets (BS), Own Funds (OF) and Solvency Capital Requirement (SCR), with reference date 31.12.17. The set of templates to report these results are broadly based on the SII QRT reporting and will be partly disclosed upon the consent of the participating groups.

Participating groups are requested to submit the filled in templates to the NCAs by the 16th of August and quality checks and benchmarking will be carried out by the supervisors until end October, with the aim of disclosing the results by the second half of January 2019.

In the 2018 ST exercise:

  • the shocks are instantaneous and applied to the entire in force business at the reference date
  • the shocks levels for sovereign or corporate yields refer to a change in the total yield, and changes to the risk free yields (swaps) have to be considered too when calculating the credit spreads
  • shocks on the underwriting risks have to be applied after the market ones and, in case the lapse/longevity shocks imply a positive impact on the SII OF conditional to the situation after the application of the market ones, their impact has to be capped to 0 (only groups take part to the exercise)
  • the consolidation of the results for the group BS after stress shall be in line with the base
  • participations in not-insurance entities and related undertakings held by the group shall be stressed according to the shock prescribed to the stock prices
  • measures like mitigating strategies that rely on taking future actions after the reference date should not be considered
  • the look through approach shall be applied
  • for what concerns the SCR calculation, approximations and simplifications can be used considering the trade-off between feasibility and reliability, and all the simplifications shall be discussed with the group supervisor and cannot include the calculation of Loss Absorbing Capacity of Technical Provisions (LACTP) and Deferred Taxes (LACDT)
  • for what concerns the Risk Margin (RM) recalculation, scaling approaches can be used to derive the post stress RM according to the change in BEL
  • the Long Term Guarantees (LTG) and Transition measures applied at the reference date shall be applied in the stressed situations too and the impact calculated; the impact of the latter on the TP shall be calculated in the base scenario, approved by the NCA and kept constant in the stressed scenarios.

Three adverse scenarios are proposed, along with a questionnaire on the exposure to the cyber risk:

[1] YC up + LAPSE up + inflation pressure (that causes a provision deficiency)

This scenario is characterized by an upward shift in the risk free rates as well as a significant increase in inflationary pressure, followed by a large share of policyholders who surrender. An abrupt fall in the global asset prices puts in trouble the insurers that are large investors in government and corporate bonds, equity and real estates:

  • the swap yield with 10y maturity increases by 85bps in the EU
  • the spread of a 10y government bond increases on average by 36pbs, reaching a maximum of 134bps; yields on corporate and bank debt increase too and in larger measure
  • stock prices in the EU decline by about 39%, equity by 33%, real estate by 41% and residential and commercial real estates by 20% and 31% respectively
  • overall expenses and costs increase strongly because of the inflation pressure
  • an instantaneous shock of 20% of the lapse rate shall be applied in place of the best estimate to all products types (but mandatory), overruling the potential dynamic adjustment generated by the market shocks
  • the annual claims cost of non-life insurers increases by 2.24%

[2] YC dw + LONGEVITY up

This scenario is characterized by a protracted period of extremely low interest rates (including an adjustment to the UFR) in conjunction with a significant increase in the average life expectancy:

  • the swap yield with 10y maturity decreases by 80bps in the EU
  • the spread of a 10y government bond declines on average by 36pbs, spanning from 49 to 17bps; yields on corporate bonds decrease too, increasing the spreads
  • stock prices in the EU decline by about 16%, equity by 6%, real estate by 18% and residential and commercial real estate remain unchanged
  • consistently to the methodology recently suggested for the review of the SF, a relative change of -15% shall be applied to the best estimate mortality assumptions independently of the age and the type of product

[3] NATURAL CATASTROPHE

This scenario is characterized by multiple catastrophic events for windstorm (4), floods (2) and earthquakes (2) to be considered as separate events for reinsurance recoveries. Management actions such additional reinsurances cannot be considered and insurers may therefore suffer from exhaustion of the reinstatement provisions of their reinsurance treaties

 

CYBER QUESTIONNAIRE

The questionnaire aims at gathering information on the current situation, the existing approaches and the best practices to deal with the cyber risk, that has climbed to the top positions in the list of global risks for businesses as a consequence of the digital transformation going on lately. Insurers have to check their definition of cyber risk against a benchmark and have to analyse its impact in terms of frequency and economic loss in the last four years (cyber risk is usually classified as operational risk, linked to a deliberate exploitation of computers systems and networks). They finally have to collect information on the exposures held in underwritten portfolios, split between “affirmative” (coverage explicitly included) and “not affirmative” (coverage not explicitly excluded, i.e. “silent”).

Lug 202018
 

La sera del 18 luglio ho introdotto il film La Grande Scommessa nell’ambito del Polimifest, una bella iniziativa del mio Ateneo. Un film del 2015 di Adam McKay, prodotto da Brad Pitt e tratto dal libro di Michael Lewis, cinque candidature per il premio Oscar, premio Oscar per la migliore sceneggiatura non originale.

Ho buttato giù per iscritto le parole che ho detto per questa occasione in quanto penso (modestamente) che siano una riflessione di qualche interesse per coloro che praticano il mondo della finanza. Ho cercato di essere fedele alle cose che ho detto senza abbellirla in modo artefatto.

Penso che un film del genere dovrebbe essere mostrato agli studenti di finanza e che dovrebbe essere spiegato loro con attenzione e passione. Sarebbe un buon modo di introdurli alle contraddizioni di questo mondo.

Si tratta di un film difficile che fugge due possibili trabocchetti: raccontare una storia romanzata e fare la morale. E’ un film che mantiene un taglio documentarista in modo efficace con alcune trovate che lo rendono avvincente. Si basa su fatti realmente accaduti ed infatti cita personaggi e operatori del mondo finanziario senza remore. E’ difficile per una persona non esperta di finanza comprendere tutto ma non importa, il senso si comprende e quindi non ci si deve spaventare. E’ anche un film senza errori, una nota di merito vista la difficoltà del tema.

Il film racconta l’alta finanza per quello che è: una trasposizione moderna della ‘‘guerra’’ in una società (quella americana) ben educata e sviluppata. Non penso di essere il primo né l’ultimo che fa questo paragone. Il film lo mostra in modo efficace. Una guerra che si consuma in palazzi di vetro, tra persone ben vestite che non fa vittime fisicamente (almeno direttamente) ma che può procurare molti danni.

Le storie di quattro personaggi si intrecciano nel film. Vediamoli:

  1. Michael Burry: il medico che è diventato un guru della finanza con qualche problema di relazione e che scommette per primo contro il mercato immobiliare in quanto si è documentato e agisce principalmente per il gusto di mostrare che ha ragione.
  2. Mark Baum: il moralizzatore, che pur gestendo un hedge fund, vorrebbe dare un calcio nei denti alle banche e quindi scommette contro il mercato immobiliare per far scoppiare la bolla e farle soffrire.
  3. Jared Vennett: il venditore senza morale che non esita a vendere prodotti che vanno contro l’interesse della sua banca pensando solo al suo bonus.
  4. Jamie Shipley e Charlie Geller: due giovani rampanti che vogliono semplicemente diventare ricchi scommettendo contro il mercato immobiliare.

Sono tanti i punti di contatto tra finanza e guerra mostrati dal film. Vediamoli.

  1. E’ un film solo al maschile in cui le figure femminili svolgono un ruolo marginale. La finanza come affermazione di virilità sotto varie forme. Non soltanto per fare soldi ma anche per vedere riconosciuti i propri argomenti, per sopraffare l’altro, per vincere una scommessa, o per moralizzare il mondo. Insomma la finanza è uno splendido palcoscenico in cui affermare il proprio ego. Potremmo dire il gioco dei giochi in quanto i soldi in ballo sono tanti, le ricadute per la collettività inimmaginabili e la necessità di rispondere del proprio operato è assai limitata.
  2. Racconta la finanza nelle sue contraddizioni. I quattro protagonisti, seppur animati da motivazioni diverse, fanno alla fine soldi a palate non solo per loro ma anche per altri, che non erano animati da buone intenzioni (nel caso di Baum e Burry) e contribuiscono a salvare il sistema finanziario (Baum). Dove sta il bene e il male? Cosa è giusto o sbagliato? Difficile da dire.

Georgina Hale di Standard&Poor’s messa sotto pressione per i rating farlocchi degli ABS e dei CDO scritti sui mutui subprime lo dice in modo chiaro a Mark Baum: il vostro interesse a veder abbassare il rating è motivato dalla vostra posizione corta sui titoli. Baum non si nasconde ma rivendica che avere una posizione corta non fa sì che lui sia in errore nel chiedere alle agenzie di rating un rating più basso per questi titoli. Giorgina ribatte che è un ipocrita.

E’ questa la contraddizione che deve essere affrontata: distinguere l’interesse personale (nel rispetto della norma che a dire il vero ‘‘morde’’ poco) da ciò che è vero, ciò che è giusto. Un tema difficile da affrontare in finanza in quanto non ci sono regole chiare stringenti e i valori e i diritti in campo non sono ben definiti. Il film ci sottopone il dilemma senza pretendere di darci risposte.

Mark Baum è l’ultimo a cedere, non vuole liquidare la sua posizione per salvare Morgan Stanley in quanto vuole dargli una pedata nei denti e combattere la sua crociata. Quando accetta di farlo diventando incredibilmente ricco confessa: se facciamo questo diventeremo come gli altri. Il film non suggerisce cosa sia giusto o sbagliato. Non fa la morale, il moralizzatore è soltanto triste e dopo la crisi diventerà più gentile e non si permetterà mai di dire ‘‘Io l’avevo detto, Io avevo ragione’’ in quanto appunto è come gli altri. Uno sconfitto.

  1. Racconta un mondo della finanza in cui regna l’irresponsabilità in quanto i protagonisti della finanza hanno spesso poca dimestichezza con la loro coscienza, pensano al bonus, alla loro (breve) carriera in cui potrebbero anche farla franca tenendo comportamenti avventati.
  2. Il paragone con la guerra si vede bene in un aspetto che spesso viene dimenticato. Come i legionari romani che tornavano dalla campagna militare e venivano allietati da donne e banchetti, i protagonisti della finanza (tutti maschi) vivono una vita nel lusso fatta champagne e di ristoranti stellati.
  3. Un altro punto di contatto è offerto dal predominio della tecnica che appare neutra (e quindi pulita) ma non lo è. Quante volte negli ultimi decenni ci è stata raccontata la balla della guerra tecnologica che non farebbe danni collaterali. Bombe intelligenti che non farebbero vittime. Discorso simile in finanza. I protagonisti si fanno la guerra tra di loro (a chi fa più soldi) ma poi a soffrire davvero sono le persone che perdono il lavoro e sono costrette a vivere in macchina in quanto non hanno più una casa.

Questo porta alla contraddizione tra mondo della finanza e mondo reale che è molto simile al contrasto tipico di tutte le guerre tra la vita degli alti comandi e le sofferenze della popolazione.

  1. Come in guerra non ci sono strumenti di protezione. Non c’è Stato, né regolatore che tengano. Un po’ come nel caso della Convenzione di Ginevra in guerra che offre davvero poche garanzie, in finanza è permesso tutto ciò che non è espressamente proibito e se poi divieni vittima puoi davvero farci poco.

Jared Vennett usa un’espressione che può essere rivenduta: ‘‘dimmi la differenza che c’è tra stupido e illegale e faccio arrestare mio cognato’’. Il sistema finanziario avrebbe fatto cose stupide in quanto non valutava bene i titoli strutturati scritti sui mutui subprime e aveva messo in gioco meccanismi non controllabili ma nessuno faceva, secondo la sua interpretazione, cose illegali (cosa tutta da dimostrare).

Il film si chiude con una riflessione di Mark Baum che fa pensare. Osservando che dopo dieci anni nessuno ha pagato e che il sistema non è stato riformato afferma: ‘‘ho la sensazione che tra qualche anno la gente dirà quello che dice sempre quando l’economia crolla. Daranno la colpa agli immigrati e alla povera gente.’’ Non era ancora arrivato Donald Trump, era in anticipo sui tempi ma ha colto nel segno.

Una riflessione che ci obbliga a valutare se questa crisi sia passata invano. Difficile da dire, molte cose sono state fatte c’è da domandarsi se si è andati sempre nella giusta direzione non per moralizzare la finanza ma per farla funzionare bene. Si può e si deve agire sui comportamenti degli uomini ma in fin dei conti una buona finanza è una finanza ben costruita.