Ott 222019
 

How Digital transformation is transforming CFOs agenda

Digital Transformation in the Financial Services is changing the way how business operates leveraging on new technologies and processes to create—and to sustain—a competitive advantage, byimproving efficiency, empowering new products and services, enabling new business models to overcome the boundaries among industries.

Figure 1. Financial Companies investments in digital transformation are part of their strategic plan goals

Looking at the Finance area, the Digital Transformation is being started to re-think and support the core processes and to introduce new innovative ones, as emerging from the CFOs agenda[1]:

  • Finance success will be related to a combination of humans, robots and algorithms, as stated by over 42% of CFOs, implying the need for new processes definition impacting the way Business is supported in the Decision-Making process;
  • New technologies, such as Artificial Intelligence, will represent a distinctive factor to raise the bar of prediction and accuracyover 60% of Finance Leaders say that using data science and leveraging on power of advanced analytics is a top influence on their strategy for delivering accurate financial reports to support/ anticipate business decisions;
  • The time dedicated to traditional activities in favour of strategic and highly innovative activities is decreasing[2], expecting a shift from standard reporting/ analysis to cognitive/ predictive analysis.

Several constraints for Finance growth are internal (organization structure, siloed behaviors, culture, inefficiency, etc.), as 80% of CFOs are declaring, leading to the identification of new interventions to change their organizational model supported by the new technologies

The focus highlighted by Finance Leaders on actuals and predictions accuracy to proactively support the business Decision-Making process leveraging on Big Data and AI has a specific impact on “Planning & Control” transformation and streamlining journey.

How Planning & Control is going to rethink the support to Decision-Making

Within the CFO area, Planning and Control function is preparing for its own streamlining, boosted by the digital transformation

1.Roles & Operating Model, P&C as a new Business Partner

The application of Automation, Robotics and AI will allow Planning & Control functions to re-interpret and reinforce the “proactive partnering” role, providing Business people (Relationship Managers, Sales, Traders etc…) with “just in time” data, new insights, advanced visualization and storytelling – moving from the “cut and paste” era, spending time to crunch and reconcile figures, to “advanced financial analyses” one, granting continuing osmosis with commercial and business areas.

Figure 2. Finance work expectations in three years – Percent of CFOs selecting a specific level of agreement for each statement; Source: CFO Signals, Q3 2018, CFO Program, Deloitte LLP

“What does this tell me about the business?” and “How can the business close gaps in performance expectations?” will be the future key questions, requiring for a strong business centric service, dedicated new skills and new organizational structures:

  • Business centric operating model will lead to new agile pool of resources with differentiated service levels for the different business stakeholders (e.g. co-location, co-processes and new technological solutions will be key to grant business and P&C people constantly connected)
  • Cross-functional teams leveraging on differentiated but integrated competences will include not only business experts, but also “Finance Data scientist” (statistical and mathematical models skills), “Finance Data engineer” (data preparation and visualization skills) together with story-tellers and cognitive psychologists
    • Contamination between Business traditional specific roles and the “Data Science” will be key to unlock the potential and to enable the creation of value stemming from the (Big) Data and AI
    • This network of teams will not be able to be ready in the near future if a dedicated “re-skilling” program won’t take place supported by the Talent function
Figure 3. Investing in workforce re-skilling – How organizations are planning investments in re-skilling their workforce; Source: Deloitte Global Human Capital Trends survey, 2019
  • New “orga charts” will come up in the next years, where Planning and Control function will continue to be a key role for the CFO, but as some players are already experiencing, “hub & spoke” models will take place to leverage on one hand on a central strong governance, and on the other hand with the possibility to have effective peripheral impact with business departments (e.g. Corporate)

2. Planning & Control cycle revolution

The standard “Planning & Control” cycle, where periodic phases are envisaged with e.g. monthly and quarterly cadence, is less and less consistent with the new digital bank business models, where everything happens quickly and the Decision Making process is always more a “matter of seconds”.

Following this new approach, Planning & control function will no longer “simply” plan the business and control the results, but supported by the new AI/tech solutions will play a more business integrated role . This will be much more inclusive and close to the business, where the cooperation will be granted on a daily/ “on demand” basis and not only during the periodic close.

Figure 4. Artificial intelligence techniques and technologies allow the evolution of reporting from periodic closing to real-time insight

For this reason, an evolution of this standard cycle seems to be not only useful, but also a key survival factor to be able to answer and support business people. This will lead to a paradigm overturning from the pure “Planning and Control” to the future “Foreseeing, Oversight and Advice”:

  • Foreseeing, to predict future market trends and create competitive advantage through, for example, advanced analytics and machine learning solutions applied to apparently unrelated features;
  • Oversight, to achieve streamlined and automated supervision on performance management controlling through the adoption of AI techniques with a wider scope and a data science driven view (e.g. machine learning on selected features, performance monitoring on algorithms output);
  • Advice, to closely and actively support the top management and commercial network in decision making through artificial intelligence methodologies which provide augmented awareness of data through deeper insights and hidden patterns, amplifying human capabilities. As a result, humans are able to enrich these insights with their unpaired feel and understanding of the business.

These three elements are structurally interrelated and imply a new processes and operating framework definition: leaving behind operative tasks which will be replaced by robots and algorithms, people will do more human work including exception based and insight driven activities.

In addition to internal pros, real-time and self-service access to data has another positive outcome on the capability to provide fast response to the increasing demand of information from external stakeholders (e.g. regulators, investors), leading to a progressive convergence between internal and external needs.

3. Data, models and functions: the ingredients of Innovation

The automation and AI represents for the Finance Area, and specifically for Planning & Control, a key transformation opportunity which will affect all the core traditional processes, granting more efficiency, but also the innovative ones to bring new insights, real time suggestions, etc.

The automation and AI represents for the Finance Area, and specifically for Planning & Control, a key transformation opportunity which will affect all the core traditional processes, granting more efficiency, but also the innovative ones to bring new insights, real time suggestions, etc.

Data feeding, elaboration and reporting are going to be revised to benefit from the new technologies:

  • Data feeding volume, variety and velocity will be supported by new architectures, mixing both traditional relational models with big data one, including new and unstructured data which can be more easily integrated and used to support business analysis (e.g. relationship manager, network default contagion for risk evaluations, etc.)
  • Data elaboration and models will be strongly improved both in terms of:
    • “process timing” which allows to increase the efficiency and reduce the effort of human interventions (e.g. cognitive solution to automatically perform data forecasting on past figures)
    • “data enhancement/ augmentation”, which allows to generate new figures and insight, leveraging on advanced data science algorithms (e.g. predictive forecasting solution, aimed at predicting the financial future of Business thanks to algorithm able to “learn” from previous cycles,  passing from “pure planning” to “foreseeing and oversight”) –  Artificial Intelligence is a relevant mean to reduce cognitive bias coming from human behavior[3], therefore these solutions will transform the capability supporting the “decision making process”.
  • Data reporting will no longer be prepared/ integrated manually via human activities. However, it won’t just be a matter of full automation only to increase the efficiency, but it will be revised to offer a new user experience boosting the process. For example, the application of Deep Learning-NLP solutions will enhance reporting experience, leveraging on linguistic rules to both navigate data and reports and for “instant commenting” via language rules which mimic business speech. This will be a significant contribution to pass form pure profitability results monitoring to a proactive advice, where business support is boosted with less risk of cognitive bias.

An applied case of transformation leveraging on AIAn applied case of transformation leveraging on AI

The banking ecosystem is actively responding to the transformation strengths with dedicated strategies to evolve. Many distinctive characteristics of such evolution can be observed on one of the largest European banking groups where AI and its applications are one of the main pillar of the multi-year industrial plan. In this case the Group is moving on two drivers adopting a two-speed roadmap:

  1. On one side, it is rapidly implementing AI best practices in the Finance area where main applications are seen in performance management processes. Predictive models and cognitive solutions have created discontinuity on the traditional way of thinking and working. For example, in forecasting processes, predictive intelligence algorithms have been adopted to enhance profitability engines, which now provide:
    • Increased accuracy of profitability estimate through regression trees and ARIMA model for time series forecasting
    • Reduced number of manual corrections made by the controllers and optimized processes.
    • Single-client profitability to drive capital allocation adjustments through classification trees and K-means algorithm for client clustering
  2. On the other side, the Group is deeply committed on a long term transformation path of its workforce and organization; the Group has put in place relevant investments to re-skill its workforce through highly specialized training programs (e.g. for the Finance Data Scientist). As a direct consequence, the Group is also re-designing its organization to have AI coverage on as many areas as possible, thus making it a strategic asset to support transformation.

Along with these new challenges, the Group has also set up a strategy to fill the gap in areas of improvement which represent a key success factor for the “AI value chain” to work correctly:

  • Upstream, data need to meet high quality standards to allow AI to generate significant insights; source redundancy has to make room for single point of truth; as of today, P&C and, in general, Finance IT systems are still affected by some silos causing partial synergies with other areas, Risk for instance
  • Downstream, processes and analysis are still partially biased by a mindset oriented to traditional P&C cycles. Reporting processes are still tied to periodicity and clearance/ reconciliation purposes reducing the possibility of being an enabling factor to achieve ongoing strategic decision making support and business partnership.

Despite the Group has moved its beginning steps into this transformation journey, the Finance area has started acknowledging the added value that first AI applications are delivering.

What’s next

Finance leaders are going to investigate and consolidate the answers to the strategic questions to effectively manage the Digital Transformation, increasing the awareness on how AI solutions, which are growing exponentially, can support the Decision-Making

While operational finance will be potentially leaner in the near future thanks to automation and robotics solution, the expectations for support from Business Finance to the Decision-Making (Business partnering, reporting, budgeting, forecasting, ….) will continue to grow.

The timing and the characteristics of this grow will depend on both the internal maturity/ awareness of the Finance area and new technologies reliability which will lead to different paths of evolution, from cherry-picked process redesign to advanced finance models evolution, wide people re-skilling and technology scale-up to effectively be business partners achieving synergies among the organization’s functions.

Autori:

Luigi Mastrangelo – Partner, DCM Finance & Performance Offering Leader

Davide Grassi – Director, Deloitte Consulting

Rosario Laface – Senior Manager, Deloitte Consulting

Michele Angarano – Manager, Deloitte Consulting

Alice Cortese – Consultant, Deloitte Consulting


[1] CFO Forums, CFO Transition LabTM, Deloitte Dbrief webcast

Deloitte Survey – Gfk Eurisko, Harvard Business Review

Deloitte survey 2019 – CFO Program’s – Transition Lab

[2] Deloitte – Crunch Time. CFO talks

[3] D. Kanheman, Thinking, Fast and Slow, Farrar, Straus and Giroux, 2011

Ott 182019
 

Il quadro legislativo europeo in tema di vigilanza prudenziale degli istituti di credito, definito dal regolamento (UE) 575/2013 del Parlamento europeo e del Consiglio (CRR) e dalla direttiva 2013/36/UE del Parlamento europeo e del Consiglio (CRD IV), prevedono per i singoli paesi membri di esercitare diverse opzioni e discrezioni.

L’EBA ha censito ben 70 possibili opzioni e discrezioni che possono essere attuate su base nazionale, di cui 51 ammesse dalla CRR[1] e 19 dalla CRD IV[2] .

Il Centro Europa Ricerche (CER) ha svolto un’analisi sulle National Discretion sui requisiti di capitale nel suo Rapporto Banche 1/2019.

Nel grafico 1 è rappresentato il numero di national discretion per singolo paese.

Grafico 1. Numero di national discretion per paese
Fonte: elaborazioni CER su dati EBA.

Quelli con il numero più elevato di regole discrezionali sono Irlanda (46), Lussemburgo (35), Francia e Svezia (33), Regno Unito (32) e Portogallo (31). Valori intermedi (compresi tra 24 e 28) per Italia, Spagna, Austria, Olanda, Germania, Belgio e Grecia, mentre gli Stati con il numero più basso di national discretion sono Danimarca e Finlandia, rispettivamente 17 e 14.

Grafico 2. Numero di national discretion utilizzate
(classificazione per tipologia di national discretion)

Fonte: elaborazioni CER su dati EBA.

Il grafico 2.2 rappresenta il numero di national discretion utilizzate classificate in base alla tipologia. Le più adoperate sono quelle su grandi esposizioni e sui fondi propri (12), seguono liquidità, rischio di credito, e capital buffer e floor (6), livello di applicazione dei requisiti (5). Valori più bassi per i requisiti per l’accesso all’attività bancaria e governance (4), norme sulle SICAV/SIM/SGR, poteri delle autorità degli Stati membri ospitanti, e partecipazioni qualificate (3), definizione di calcolo dei requisiti (2), infine rischio di mercato, di controparte e SREP (1).

Aggregando i paesi per gruppi omogenei, si riscontra che i paesi GIPS (Grecia, Irlanda, Portogallo e Spagna) utilizzano in media 32 national discretion (grafico 2.3). In termini di composizione il peso maggiore è attribuito alle grandi esposizioni (8) e i fondi propri (7). I paesi CORE (Austria, Belgio, Finlandia, Francia, Germania, Lussemburgo e Olanda) ne presentano in media 26, composte maggiormente da grandi esposizioni e fondi propri (5). I principali paesi non aderanti all’Area euro (Regno Unito, Svezia e Danimarca) ne presentano in media 27. Per quest’ultimi vi è una maggiore concentrazioni sui fondi propri (6) per le grandi esposizioni (4).

La media delle regole discrezionali calcolata su tutta l’Unione Europea è di 28.

In Italia le regole discrezionali utilizzate sono 28, composte maggiormente da grandi esposizioni (6), capital buffer floor e fondi propri (4).

Grafico 3. National discretion per tipologia e gruppi di paesi
Fonte: elaborazioni CER su dati EBA.

Guardando alla composizione delle national discretion per tipologia, possiamo capire dove le autorità nazionali di vigilanza concentrano maggiormente il loro interesse. I paesi GIPS si focalizzano maggiormente sulle grandi esposizioni (32% del totale delle national discretion) seguono i fondi propri (27%) e altre regole discrezionali (24%; grafico 2.4).  Basse invece le percentuali sul rischio di credito (3%).

I paesi extra Area euro, hanno una percentuale più elevata di regole discrezionali sui fondi propri (19%), grandi esposizioni (13%) e altre regole (12%). I paesi CORE si focalizzano maggiormente su grandi esposizioni (33%) e fondi propri (32%).  Considerando tutta l’Unione, si nota una maggiore attenzione sulle grandi esposizioni, e sui fondi propri e altro.

Grafico 4. Composizione delle national discretion per tipologia
Fonte: elaborazioni CER su dati EBA.

Guardando ad una diversa composizione dei gruppi di paesi, possiamo osservare una diversa distribuzione delle national discretion (grafico 5).

Il gruppo composto da Irlanda, Lussemburgo e Regno Unito, ovvero i paesi europei con le piazze finanziarie più sviluppate e a maggior attrazione di investimenti finanziari dall’estero, presentano in media 38 regole discrezionali. Di rilievo la presenza di eccezioni su fondi propri (9), e grandi esposizioni (5).

Per i restanti paesi UE le eccezioni sulle grandi esposizioni sono 6, quelle sui fondi propri 5.

Grafico.5 National discretion per tipologia e gruppi di paesi
Fonte: elaborazioni CER su dati EBA.

Osservando le principali economie dell’Area euro, si nota che da parte di Germania, Francia e Italia c’è una forte attenzione sulle grandi esposizioni, cosa che invece non si verifica per la Spagna (grafico 6). Le autorità di quest’ultima sembrano concentrarsi maggiormente sulle regole per il capital buffer, floor e fondi propri.

La Francia oltre alle grandi esposizioni, ha un quadro normativo che permette eccezioni più ampie, rispetto a Germania e Italia, sui fondi propri.

Sulla restante parte di regole, sembra ci sia una distribuzione omogenea tra paesi, ad eccezione delle regole su definizioni, metodi di calcolo e modalità di diffusione dei requisiti di segnalazione in cui nessuna delle quattro principali economie dell’Area euro sembra focalizzarsi.

Rielaborando le informazioni fin qui descritte è possibile individuare tre cluster di paesi nell’ambito dell’Area euro analizzando, da un lato, la distribuzione del numero di national discretion utilizzate e, dall’altro, un indice di concentrazione delle tipologie di discrezione a cui si fatto ricorso (grafico 7). Più che il numero assoluto di discrezionalità normative utilizzate, un vantaggio asimmetrico per alcuni sistemi bancari potrebbe nascere dal fatto che il legislatore domestico ha focalizzato la sua attenzione su alcuni specifici dossier con l’intento di proteggere e favorire determinate realtà domestiche.           

Grafico 6. Principali paesi europei: numero di national discretion
(classificazione per tipologia di national discretion)

Fonte: elaborazioni CER su dati EBA.

Al riguardo si nota che l’insieme A presenta paesi che fanno un utilizzo ridotto di national discretion ma ben focalizzato su specifici ambiti di intervento. Questo gruppo è composto da Finlandia, Grecia, Olanda, Germania, Austria e Spagna. L’insieme B invece racchiude paesi con fanno un alto ricorso a regole discrezionali, ma queste sono parzialmente suddivise su più campi di intervento. Questo gruppo include Portogallo, Francia, Lussemburgo e Irlanda.

Infine, l’ultimo insieme, quello C, abbraccia paesi che fanno un utilizzo di national discretion in media con l’intera Unione Europea. Queste norme discrezionali sono però ampiamente diversificate in più ambiti di intervento. Fanno parte del gruppo C Belgio e Italia.

Grafico 7. Distribuzione delle national discretion nei paesi dell’Area euro in base al numero e all’indice di concentrazione

Note: l’indice di concentrazione è dato dall’Herfindahl-Hirschman Index, ovvero dalla sommatoria del quadrato dell’incidenza percentuale di 16 macrocategorie di national discretion possibili. L’indice ha la massima concentrazione quando assume un valore pari 1, minima con un livello pari a 0.
Gruppo A: paesi con ridotte national discretion, ma molte concentrate su specifici capitoli di intervento. Include Finlandia, Grecia, Olanda, Germania, Austria e Spagna.
Gruppo B: paesi con molte national discretion, ma parzialmente suddivise su più capitoli di intervento. Include Portogallo, Francia, Lussemburgo e Irlanda.
Gruppo C: paesi con ridotte national discretion suddivise su più capitoli di intervento. Include Belgio e Italia.
Fonte: elaborazioni CER su dati EBA.

[1] Nello specifico sono previste opzioni e discrezioni per i seguenti articoli: 4(2), 6(4), 18(5), 18(6), 89(3), 95(2), 99(3), 124(2), 129(1), 164(5) , 178(1)(b), 284(4), 327(2) , 395(1), 400(2)(a) e 493(3)(a), 400(2)(b) e 493(3)(b), 400(2)(c) e 493(3)(c), 400(2)(d) e 493(3)(d), 400(2)(e) e 493(3)(e), 400(2)(f) e 493(3)(f), 400(2)(g) e 493(3)(g), 400(2)(h) e 493(3)(h), 400(2)(i) e 493(3)(i), 400(2)(j) e 493(3)(j), 400(2)(k) e 493(3)(k), 412(5), 413(3), 415(3), 420(2), 422(4), 465(2), 467(2), 467(3), 468(2) , 468(3) , 471(1), 473(1), 478(3), 479(4), 480(3), 481(3), 486(6), 495(1), 496(1), 499(3), 500(5).

[2] Nello specifico sono previste opzioni e discrezioni per i seguenti articoli: 9(2), 12(3), 12(4), 21(1), 29(3), 32(1), 40, 94(1)(g)(i), 94(1)(g)(ii), 94(1)(g)(iii), 94(1)(l), 103, 129(2), 130(2), 133(18), 134(1), 152  (primo paragrafo), 152  (secondo paragrafo), 160(6).

Ott 112019
 

Climate Change has been one of the most debated topics over the last few months.

Having liked it or not, one cannot have staid indifferent to the speech held by Greta Thunberg last 23 September at the 2019 UN Climate Action Summit, where the climate activist said: “we are at the beginning of a mass extinction. And all you can talk about is money and fairy tales of eternal economic growth”. Besides the scientific consensus on her side, it is easy to agree with her ideals and her passion.

Back in 2012, in a more prosaic way, Christiana Figueres, the former executive secretary of the UN Framework Convention on Climate Change said: “climate change increasingly poses one of the biggest long-term threats to the investments and the wealth of the global economy”.

Pensions, life insurances and nest eggs of billions of ordinary people depend on the long-term security and stability of institutional investment funds. This article provides an insights on how the climate change has been considered so far in the insurance industry and in the SII framework.

Last August 2018, the European Commission requested EIOPA to provide an opinion on sustainability within Solvency II, with a particular focus on aspects relating to climate change mitigation, due by 30 September 2019. To make it short, EIOPA thinks that undertakings should asses their exposure to sustainability risk, but acknowledges that the medium to long term impacts of climate change cannot fully be captured in the SII capital requirements of Pillar I, that are designed to reflect the risk over a 1 year time horizon. Complementary tools like scenario analysis and stress testing may be more appropriate and included in the ORSA evaluation (Pillar II). Regarding Pillar II, in the near future further considerations should be given to mandatory requirements for public disclosure on sustainability risk on both sides of the BS.

Beyond the outcome of this opinion, deeply discussed in the following, it is important to recall that EIOPA is committed to the international and European agenda on sustainability. In fact, the Authority is:

  • engaged in the preparation on a sensitivity analysis exercise to assess the risk embedded in undertakings’ portfolios for the transition to a low-carbon economy to take place in 2020
  • dedicating analysis for climate related risks in its financial stability report and enhancing its supervisory stress testing methodology
  • coordinating a catastrophe risk expert network to provide evidences on the calibration of the standard formula parameters, the risk management practices and private sector initiatives in addressing gaps in coverage of natural catastrophe risks
  • involved in the Commission’s work on developing a unified classification system for sustainable economic activities (taxonomy)
  • a member of the Network for Greening the Financial System.

To draft the opinion requested by the European Commission, EIOPA collected evidences via a public call for evidence and a confidential request for information conducted between January and March 2019 (at European level, solo and group participants represent approximatively 20% and 38% of the total assets), plus a public consultation on a draft opinion conducted between the 3rd and the 26th of July 2019 (answered by 26 stakeholders). The outcome of the opinion covers multiple goals, among which:

  • understanding the extent to which sustainability and climate risk are captured in the evaluation of Assets and Liabilities and understanding the extent to which the Standard Formula calibrations and the Internal Models designs are capable of taking into account sustainability factors and climate related developments;
  • understanding the extent to which sustainability and climate risk are considered in the products designing and whether or not they are incentivised by SII;
  • collecting good practices on how to incorporate sustainability in the investment and ALM phases.

Before deep diving into the opinion, it is important to clarify what climate change related risks are and how they can be classified.

          Climate change related risks obviously encompass extreme weather events, including natural catastrophes, but also more general climate trends, such the rise in temperatures, the rise of the sea’s level or climate-related forced migration that could affect the insurance activity.

          EIOPA classifies the climate change related risks into three categories, proposed by the Bank of England

  1. physical risk: related to specific weather events and longer term shifts in the climate. It is expected to mostly impact real estate portfolios and, indirectly, sovereign bond exposures (affecting the tourism), global supply and availability of resources;
  2. transition risk: arising from the process of adjustment towards a low carbon economy, due to developments in policy and regulations, emerging of disruptive technology or business models or shifting of sentiment and societal preferences. EIOPA is currently investigating to identify and quantify potential climate transition vulnerabilities in the asset portfolios of European insurers by tracing the extent to which they are accumulating of reducing the risk in their corporate bonds and equity portfolios;
  3. liability risk: coming from people or businesses seeking compensation for losses they may suffer from 1. or 2.. It is of concern for insurance undertakings providing liability protection (e.g. professional indemnity insurance).

Solvency II, that operates on a risk based framework, is designed to take into account all quantifiable risks and requires insurers to hold sufficient capital against those. The capital requirements are calibrated to correspond to the VaR of the BOF of an insurance subject to a confidence level of 99.50% over a one year period (Article 101 (3) of the SII Directive). Therefore, the current design does not provide any positive or negative incentive with respect to sustainable investments.

          For what concerns the Assets valuation, market prices should reflect all relevant risks, including sustainability considerations. Unfortunately, the market currently seems to be not that efficient because of a limited availability of information on the sustainability profile of the investments: undertakings do not value sustainable investments differently than other investments. Improvement on data quality and collection of reliable information can help the market to correctly price the sustainability risk. Scenario analysis should be applied and mitigation strategies should be put in place. Some measures to reduce sustainability risks can be taken into account in the valuation of property risk as it is plausible that the value of a very energy efficient real estate is less sensitive to energy price movements compared to other real estates.  Equity prices are on the opposite influenced by a broad variety of factors and, looking backward, it cannot even be assumed that an asset currently considered to be green has always been green in the past (examples of such transformations can be found in the energy sectors). The spread risk module is mostly relevant for bonds and, therefore, it also has a relevance for sustainable assets, especially in the area od project bonds aiming at sustainable projects, like green bonds.

          Regarding the Liability evaluations, the majority (over 75%) of the undertakings interviewed do not take into account climate or sustainability risks in their best estimate calculations. Non-life (CAT) insurers implicitly consider climate risks, but only based on historical data; the current calibration of the Standard Formula parameters for the natural catastrophe risk module does not explicitly include climate change risks. EIOPA suggests the need of capturing those risks in a forward looking manner in the ORSA. Life business insurances do not integrate the risks at all, even if climate change can have an impact on the best estimate calculation though its effect on economic scenario generators, health and mortality and morbidity rates. As it is not straightforward for undertakings to account for sustainability and climate change related developments in the Liabilities evaluations, they should perform sensitivities and scenario analysis, using historical data combined with scientific literature and forward looking models.

For what concerns the underwriting policies and pricing decisions, the majority of the firms interviewed declared that they not take explicit account of climate or sustainability risk in their underwriting policies and pricing decisions. More than 80% of the Life Business responded that climate risk is not applicable to them. Underwriting by itself cannot mitigate a risk, it can only price a risk and, although higher prices can shift the business to sustainable models, there are obvious commercial and societal limits to repricing. EIOPA suggests to require undertakings to consider the impact of their underwriting on sustainability factors and adjust the pricing of products to reduce the risk and to have a positive impact on the Environmental, Social and Governance issues.

For what concerns the investment practices, EIOPA considers it is relevant to require undertakings to take into account the impact of their investment activity on sustainability factors. 70% of the participants declared that they have already implemented practices to include sustainability in their investment management / they are planning to do so in the next three years. Nevertheless, undertakings noted that sustainable investments are not less risky per se. The four major obstacles they have highlighted in investing in sustainable investments are: 1) lack of data and information on performance, 2) lack of commonly agreed taxonomy, 3) poor offer and 4) impossibility to monitor climate change risks. The interviewed undertakings have also pointed out the need for SII to remain risk based and avoid imposing investment incentives. The main benefit of identifying green or brown assets, if based on a European definition (taxonomy) of sustainable activities, would be that investors will be better positioned to assess their asset allocation against climate change objectives: such classification may support thematic investments, but not general investment purposes. For developed market equities it has been proved (cit. Black Rock Research paper “Sustainable investing: a ‘why not’ moment”) that both risk and returns are surprisingly similar for ESG (Environmental, Social and Governance) and non ESG investments. Furthermore, while developments on a green taxonomy are ongoing, no brown taxonomy has yet been developed at European level and it’s also not straightforward to distinguish green assets (i.e. assets whose underlying activity is considered to be sustainable) from others, as their risk profile has many facets that it’s difficult to break it down into black and white. Together with a lack of clear definition, there is also a lack of database for the analysis of a long term trend in the associated risks.

Set 272019
 

IFRS 9: main innovations introduced

In 2005 the IASB & FASB jointly started a new accounting project in order to reduce the complexities related to the IAS 39 financial asset classification. This study aims at simplifying the financial instruments’ classification, hedge accounting rules and better monitoring financial market  evolutions as well as financial engineering developments.

IFRS 9 is composed by three main pillars:

  1. “Classification and measurement”, which replaces existing categories of financial assets and liabilities with new ones;
  2. “Impairment”, that proposes a new forward looking model, based on expected credit losses instead of already incurred ones;
  3. “Hedge accounting”, focused on hedging test simplification and on the extension of eligible hedging instruments’ perimeter.

A new loan market view

IAS 39 provided a single classification category for loans with credit exposures (“loans and receivables”) with an amortized cost measurement while the new financial instruments standard allows two possible measurements for financial assets (amortized cost and fair value – “FV” -, based on the entity’s business model and characteristics of the instrument), removing the IAS 39 loan portfolio constraint.

The IFRS 13 defines fair value as “the price that would be received to sell an asset or paid to transfer a liability in an orderly transaction between market participants at the measurement date”.

Therefore, the introduction of IFRS 9 allows banks to assign a FV measurement to credit exposures implying a market driven method where the value is related to market conditions (buy/sell trades) and not to an amortizing schedule.

These changes regarding the measurement and the classification of credit portfolios are part of a deeper supervisory review on the treatment of loans within the regulatory framework:

  • Bank of Italy 2006/263 Circular excluded credit exposures from the regulatory trading book,
  • EU 2013/575 Regulation (“Capital Requirements Regulation”, CRR) firstly opened to this new classification by not strictly bind credit exposures from the perimeter of the trading book,
  • In 2017 the introduction of the ECB “Guidance on Leveraged Transactions” explicitly stated the opportunity to include loans in trading portfolios.  

Therefore, accounting and regulatory evolutions confirm a new market trend for loans, considered more as “hybrid market-credit instruments” than fixed assets to be maintained on balance sheet till maturity.

Implications for banks

Credit supply represents a fundamental part of the traditional banking activity, generating money to lend from public savings collection. Credit exposures have always been treated as fixed assets in banks’ balance sheets. The borrower’s financial stability and solvency were hence one of a bank’s major concern, which introduced monitoring systems in order to prevent missed repayments.

In the last few years, monetary policies focused on liquidity injections carried out by central banks have resulted in a strong reduction of the lending interest rates. This has been leading commercial banks to struggle to reach their profitability targets.

The current economic situation, as well as the described regulatory developments, has boosted financial institutions to look for new business opportunities to increase incomes and reduce costs even in loan management. Innovation has led to:

  • buy and sell loans in order to get capital gains introducing an high frequency loan trading activity (sustained by quick risk and issue valuations to catch market momentum),
  • dispose part of the loan portfolio reducing the regulatory capital consumption,
  • participate to ABS, CDO, CLO’s secondary market through the securitization process.

Besides this new credit portfolio management, there is also the possibility to get higher returns from advisory, arrangement and structuring activities by receiving upfront and ongoing fees.

A clear indicator of this continuous change is represented by the huge rise of the Over The Counter leveraged loan market, where loans, disbursed to high leveraged firms, are traded like bonds.

Following this new market driven view for credit instruments and the related market opportunities, banks face an important challenge: adapt their processes, functions and systems in order to produce analyses and valuations granting the correct “time to market”.

The internal processes must be radically reviewed in order to be agile since the client’s due diligence and information technology systems need to become dynamic enough to provide on demand data required for qualitative and quantitative assessments. Easily accessible databases and quick information flows are necessary also to allow Risk Management functions to assess risks over the time.

Risk management, in fact, assumes a fundamental importance due to the establishment of these new practices; risk-sensitive analyses on instruments must be adequately set up considering new extended risk frameworks, no longer exclusively represented by default risk but also by market dynamics. Loans are not considered fixed assets in balance sheets anymore but they are exchanged in the primary and secondary market as more “liquid” instruments.

Namely, some strict market risk metrics such as Value at Risk can be put in place also for loans in accordance to their new hybrid nature and intent.

This roll-out of metrics is not simple: new and dedicated methodologies have to be defined according to some specific credit characteristics of the instrument; in fact loans are typically tailor-made, not standardized and less liquid than other traded assets making it necessary to customize Value at Risk calculation in relation to the credit exposure.

Main methodological aspects to be considered are:

  • approach (in consideration of time-step and length of historical series),
  • confidence level,
  • time horizon (relating to instruments liquidity/market maturity to sustain daily calculation),
  • yield to be used (gross or net of funding and/or cost of capital)
  • spread curve to discount future cash flows (potential use of: single name curves, comparable single name curves, credit spread re-engineered from quoted obligations, use of CDS index or rating/sector comparable curves).  

Implications for regulators

While on one side the described dynamic context creates new banking business opportunities, on the other side regulators have to put increasing attention on banks’ loan management incoming practices.

In recent years, supervisory authorities have been concerned about the growth of high risk markets such as leveraged loan one. The financial system and real economy were until recently considered mature enough for a normalization of monetary policies but, nowadays, due to several geo-political issues, uncertainty is rising once again.

Because of continuous bank businesses evolutions, regulators have to carefully supervise any new activity put in place and its impact on the overall financial system. Financial sustainability has to be continuously monitored to avoid the dramatic consequences occurred in 2008. Even if after the financial crisis regulation constraints have increased, banking activity constantly evolves, forcing the supervisors to promote effective risk mitigation techniques at the right time.

Joint working groups of analysis between banks and regulators may set a positive framework in order to converge a sustainable business, share their different points of view and assess together adequately risks and opportunities.

Conclusion

European banks have only started approaching this business. A more dynamic balance sheet, an increasing focus on brokerage margin, a relevant reduction of regulatory capital requirements are just some of the benefits of these new practices. Business has the chance to turn the regulatory evolutions and market trends into new significant opportunities to increase the profitability and better manage its portfolio. Furthermore, this new loan management allows firms to access more easily to the credit supply and consequently to invest in their ideas and development.

Within this new loan market, earning opportunities are as relevant as their inherent risks, especially if related to high leveraged loans. Spreads of leveraged credit exposures allow institution to get high profits but also expose them to systemic risks considering intrinsic interrelation of these instruments among banks.

For this reason, a constant communication between Front Office functions and Risk Management should be the base to accurately and prudentially participate to these new business model activities.

Even though Risk Management structures are essential in defining and monitoring risk appetite frameworks and limits to this kind of exposure, it is as well really important that market participants will be able to self-regulate their actions avoiding to take excessively speculative positions. Given the market driven nature of these credit instruments, default risk may become a dangerous source of systemic risk to be burdened by a broader range of entities.

Regulators need to anticipate or, at least, strictly go hand in hand with the banking business developments in the eternal conflict between risk and return laying the foundations for a new and more comprehensive risk valuation which can cover at 360° almost all principal risks.

A strong and resilient historical memory should be the common base to inspire both banking and regulatory activities for the future.

Autori:

Paolo Gianturco – Business Operations & FinTech Leader

Silvia Manera – Business Operations Director

Tommaso Sacchi – Business Operations Senior Consulting

Nizar Mohamed Saeed Ahmed – Business Operations Analyst

Si ringrazia per il contributo Massimiliano Semprini – Leader of the Italian IFRS Centre of Excellence

Bibliography

Cimini Riccardo, Il sistema di bilancio degli enti finanziari e creditizi, Cedam Scienze Economiche e Aziendali, Wolters Kluwer Italia, 2016.

International Accounting Standard Board, “IFRS 9 – Financial Instruments”, 2014.

International Accounting Standard Board, “IAS 39 – Recognition and Measurement”, 2003.

International Accounting Standard Board, “IFRS 13 – Fair Value Measurement”, 2013.

Gazzetta Ufficiale dell’Unione Europea, “Regolamento (UE) n. 575/2013 del Parlamento Europeo e del Consiglio del 26 giugno 2013 relativo ai requisiti prudenziali per gli enti creditizi e le imprese di investimento”.

Banca d’Italia, Eurosistema, “Nuove disposizioni di vigilanza prudenziale per le banche”, Circolare n. 263 del 27 dicembre 2006.

European Central Bank, Banking Supervision, “Guidance on Leveraged Transactions”, 2017.

M. Longo, Il Sole 24 Ore, Quali sono i subprime 2.0? Occhi puntati sui leveraged loans made in Usa, 17 Febbraio 2019.

Set 202019
 

Benché le chiacchere su AI e Machine Learning superino di gran lunga la pratica (secondo Gartner[1], solo il 37% delle imprese utilizza l’AI, e ben il 40% delle start-up che si definiscono “di AI” non utilizza affatto l’AI[2]) , nel mondo delle banche e delle assicurazioni è opinione diffusa che grazie a tecnologie data-driven e innovazione digitale si possano offrire prodotti e servizi a costi molto più bassi.

Di questi guadagni d’efficienza ne beneficierebbe la profittabilità di un’industria proverbialmente poco dinamica (per rendersi conto di quanto, basta considerare l’imbarazzante e perdurante diffusione un linguaggio di programmazione paleozoico come il Cobol[3]). Un’industria che vive un periodo di grande compressione dei margini, e che di questi guadagni di produttività ne ha bisogno come il pane, viste le prospettive relative ai tassi d’interesse e ai margini d’intermediazione.

Ovviamente si avrebbero vantaggi anche per i consumatori, in termini di qualità di servizio e “financial inclusion”, nonché guadagni di produttività in altri settori dell’economia limitrofi.

Bello, sì.

Ma quanto è grande il guadagno di produttività legato a innovazione digitale e uso dei dati (i.e., Machine Learning, AI)? Cioè: con modelli operativi concretamente perseguibili in tempi accettabili, di quanto stiamo parlando?

Sulla base di alcune ipotesi che descrivo nel seguito e che trovano riscontro in software esistente, ho provato a fare una mano di conti. Mi sono focalizzato sul settore del wealth management inteso in senso lato: ossia servizi d’investimento, protezione di persone e cose (vale a dire servizi d’assicurazione), finanziamenti. L’odierna offerta di banche e gruppi assicurativi ad ampio spettro, insomma.

Immaginiamo una di queste realtà, con il classico modello di business basato su reti di professionisti – consulenti finanziari, private banker, o agenti assicurativi – e una tecnologia che:

  • individua precisamente bisogni ed obiettivi dei clienti dai dati, tramite Machine Learning (ottemperando tra le altre cose gli obblighi di legge, ossia profilazione e product targeting secondo MIFID e IDD);
  • aiuta a creare il miglior mix personalizzato di prodotti per ciascun cliente, e la conseguente Next Best Action;
  • offre automaticamente contenuti, modulistica e reportistica, anch’essi personalizzati in base alle preferenze e i bisogni dei clienti;
  • segue il life-cycle del cliente, a partire dalla fase d’ingaggio, imparando e adattandosi nel tempo.

Ora chiediamoci: cosa succede se forniamo all’azienda e alla sua rete questa tecnologia?

Per rispondere, con una piccola survey ho innanzitutto raccolto informazioni da alcuni consulenti finanziari sulla loro operatività e la saturazione del loro tempo, sulla quantità e qualità di clienti, su come si preparano ad incontrarli e altre informazioni di processo. Insomma: tempi e metodi. Ho considerato i dati sulla distribuzione della capacità patrimoniale tra i clienti, integrando diverse banche dati.

Essendoci varietà nelle risposte e poche certezze a questo mondo, ne è scaturito un modello probabilistico, calibrato sulle informazioni raccolte e sui dati a disposizione, che descrive il processo di gestione della clientela e le metriche ad esso associate. È un modello profondamente fondato su Agent-based modeling e Teoria delle Code[4], un campo della matematica applicata popolare nell’analisi di reti di telecomunicazioni, ma che si presta anche a rappresentare il servizio di consulenza finanziaria/assicurativa. Simulando il tutto con metodo Monte Carlo e sintetizzando l’informe nube di decine di migliaia di numeri sono emersi alcuni fatti interessanti, che riporto brevemente.

Risparmi di tempo e guadagni di produttività

Se si introduce questa tecnologia su una rete la cui capacità produttiva non è lontana dal punto di saturazione e il software in questione consente un risparmio di tempo significativo, del 35% in media (stima conservativa, basti pensare al tempo occorrente per assemblare una reportistica decente, o studiare il profilo del cliente), il guadagno di produttività, inteso come maggior numero di clienti gestibili è sorprendente: con probabilità superiore al 90%, la capacità di gestire clienti raddoppia. Esatto: radoppia. E qualche volta triplica.

Può stupire che una tecnologia che porta a un risparmio di circa un terzo del tempo porti a più che raddoppiare il numero di clienti gestibili. Ma, al di là del fatto che poche cose viaggiano in linea retta in natura e ancor meno in economia, ciò è tipico di sistemi che presentano inefficienze di processo e “colli di bottiglia”. Ora, il mondo finanziario-assicurativo è un condensato d’inefficienze di processo tanto quanto una stella di neutroni è un condensato di materia, sicché l’applicazione di Machine Learning e customer intelligence vanno a braccetto, portando a risultati sorprendenti.

Nuovi clienti, nuove masse in gestione e nuova raccolta premi

Nuovi clienti da servire equivalgono a nuove masse in gestione o a nuova raccolta premi. Ma, visto che i clienti obbediscono a una legge di Pareto (si veda il grafico seguente, una stima sulla popolazione reale), dove pochissimi hanno molto e molti hanno poco, probabilmente ciò significa andare a parare su clienti con minor potenziale. Infatti consulenti e agenti si concentrano tipicamente sul top 20% del bacino di clienti, sicché si tratterebbe di puntare sul restante 80%.

Concentriamoci per semplicità di calcolo sui prodotti d’investimento, e valutiamo l’incremento annuo di AuM associato ai nuovi clienti, riportato nel grafico seguente: nel 90% dei casi simulati l’incremento di AuM si colloca tra il 20% e il 46%, con una mediana del 33%. Identico incremento è atteso sulle commissioni, se si ipotizza che non cambino aumentando il numero di clienti.

Può andare anche meglio

Questo risultato appena descritto è condizionato dall’ipotesi che i clienti aggiuntivi siano tutti più piccoli degli attuali. Tutti. È un’ipotesi iperconservativa, visto che anche tra i “clienti mignon” si nasconde una quota di clienti ad alto potenziale[1]. Rilassando quest’ipotesi e ammettendo che alcuni nuovi clienti possano essere dimensionalmente importanti, l’incremento di AuM (e di riflesso quello delle commissioni) migliora sensibilmente e nel 95% dei casi – cioè praticamente sempre – è superiore al 40%, con mediana pari a 80%. Grosso modo lo stesso incremento è atteso sulle commissioni, essendo approssimativamente in relazione lineare con gli AuM.

I risultati sono nel complesso paragonabili a stime di tutt’altra natura, ottenute non per via simulativa – ad esempio McKinsey stima che gli advanced analytics portino ad un aumento di ricavi compreso tra il 15% e il 60%[2]. Ciò non toglie che quello qui presentato sia modello semplificato, un’approssimazione d’ordine zero della realtà. Comunque, questa prima, rude stima dell’impatto dell’innovazione digitale e della scienza dei dati nel wealth management dice forte e chiaro una cosa: l’impatto è rilevante, è qualcosa in grado di cambiare la redditività.

È evidente che ci sono altri benefici di drammatica importanza: pensate all’aumento della qualità del servizio al cliente – cosa che lo fidelizzerà e porterà ad una crescita del “life-time value”, con relativo impatto sul valore dell’azienda.

Al di là delle chiacchere e del grande “hype dell’AI”, questa tecnologia esiste. Anche se non basta solo la tecnologia, occorrono anche “soft skills”.

L’abilità infatti consiste nel trovare il giusto modello organizzativo per combinare:

  • tecnologia, raccolta efficiente dei dati e uso dei canali digitali – disponibili sempre, con processi paralleli simultanei e scalabili;
  • esperienza e professionalità del consulente finanziario o dell’agente assicurativo – disponibile solo in certi momenti, impossibile da utilizzare in modo parallelo e poco/niente scalabile, e che potrebbe temere l’innovazione tecnologica, rallentandola.

In altri termini, serve una data strategy[3] che apra la strada all’innovazione. Il beneficio è un portentoso salto in avanti in termini di qualità, produttività e quindi profittabilità per banche ed assicurazioni.


[1] Si veda https://www.linkedin.com/pulse/lo-strano-caso-dei-clienti-mignon-raffaele-zenti/

[2] “Advanced analytics in asset management: Beyond the buzz”, McKinsey & Company, https://www.mckinsey.com/industries/financial-services/our-insights/advanced-analytics-in-asset-management-beyond-the-buzz

[3] “Avete una data strategy?” FinRiskAlert, https://www.finriskalert.it/?p=7088


[1] “Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form”, Gartner, https://www.gartner.com/en/newsroom/press-releases/2019-01-21-gartner-survey-shows-37-percent-of-organizations-have

[2] “Europe’s AI start-ups often do not use AI, study finds”, Financial Times, https://www.ft.com/content/21b19010-3e9f-11e9-b896-fe36ec32aece

[3] “Wanted at Banks: Young Tech Pros with Old-Tech Smarts”, American Banker, https://www.americanbanker.com/news/wanted-at-banks-young-tech-pros-with-old-tech-smarts

[4] Qui un’introduzione, per chi ne fosse a digiuno: http://wwwhome.math.utwente.nl/~scheinhardtwrw/queueingdictaat.pdf

Set 152019
 

Le attività di raccolta dei depositi e di impiego (credito) ai clienti sono cruciali per tutte le banche commerciali. In primis, perché le banche sono le uniche istituzioni finanziarie che possono avere un deposito, ad esempio nella forma del conto corrente. In secondo luogo, perché l’attività del credito permetterà di trasformare il deposito, che può essere ritirato in ogni momento e quindi ha una scadenza di breve termine, in un investimento con una scadenza temporale di lungo termine (es. mutuo). Da questo mismatch temporale proviene la maggiore fonte di guadagno delle banche, fintanto che la curva dei tassi di interesse prevede che venga remunerato un investimento a lungo termine più di uno a breve termine per corrispondere un premio al tempo e all’incertezza dell’investimento. Dal punto di vista della banca tale mismatch temporale è fonte di guadagno ma anche fonte di rischi, in particolare il rischio di liquidità e il rischio di tasso di interesse. Il primo riguarda l’incertezza relativa a quando e quanto verranno ritirati i depositi, o quando e quanto verranno ripagati prima del tempo previsto contrattualmente il debito verso la banca (e.g. prepagamento di mutui), facendo affluire/defluire con maggiore velocità la liquidità della banca. Il secondo tipo di rischio riguarda l’incertezza sul tasso con cui verranno remunerati i depositi ed il tasso di impiego dei crediti; entrambi i tassi dipendono dalla curva dei rendimenti e dai movimenti al rialzo/ribasso che potranno avvenire in futuri. Entrambi i rischi possono essere mitigati se la banca comprende il comportamento dei clienti e, tramite un modello, può prevedere quale sia l’ammontare di depositi stabili ed insensibili nel tempo o prevedere quale sia l’ammontare di prepagamenti. In conclusione, la redditività ed il rischio di liquidità e di tasso di interesse sono profondamente influenzati dal comportamento dei clienti e dai modelli interni utilizzati per gestire prospetticamente i rischi e la redditività futura.

Recentemente con Umberto Crespi abbiamo scritto un libro[1] dedicato ai modelli comportamentali, alla natura e corretta impostazione delle assunzioni usate nei modelli che hanno il fine di gestire il disallineamento (mismatch) tra i depositi/impieghi ed il relativo rischio di liquidità e tasso di interesse. Sono modelli statistici e matematici che si dividono, per semplicità, in due macro-categorie: i modelli per i depositi e quelli per il prepagamento. I primi mirano a stimare quale sia la parte di depositi che possa essere considerata come una fonte stabile di finanziamento e quale parte dei volumi sono insensibili alle variazioni dei tassi di interesse. I secondi, invece, sono modelli che stimano la probabilità ed il volume di finanziamenti (e.g. mutui) che sarà prepagato dal cliente. Il prepagamento può essere parziale o totale e, in entrambi i casi, modifica le rate contrattualmente previste. Quest’ultimo comportamento ha effetti importanti per l’intero portafoglio di crediti della banca malgrado sia stimato a livello di singolo evento (un mutuo). In particolare i modelli di prepagamento sono diventati rilevanti in paesi, come l’Italia, che hanno abolito la normativa vincolante il rapporto contrattuale univoco con la banca dando la possibilità di estinguere, prepagare o surrogare senza costi aggiuntivi (Decreto Bersani l. legge 2 aprile 2007, n. 40).

L’output dei modelli è rilevante per misurare e gestire il rischio di tasso di interesse ma anche per comprendere la redditività delle banche. In particolare, il modello dei depositi stima quale sia l’ammontare di prelievi che verranno effettuati dai conti correnti o, viceversa, qual è l’ammontare di depositi che non verrà prelevato, in un arco temporale di un anno o anche di più. Allo stesso tempo considera una probabilità di tali uscite e, per essere conservativi, di solito si prende il 95% o il 99% dei possibili scenari futuri. Facciamo un esempio: se sul conto corrente un cliente ha 1.000 euro, il modello dovrà prevedere quale sia l’ammontare, o la percentuale dei 1.000 euro, che sarà ancora sul conto corrente tra un anno o due anni o anche dieci anni. E tale percentuale deve essere prudente, nel senso che il modello deve considerare periodi di stress in cui, per diversi motivi, il conto corrente non è più alimentato da uno stipendio o una pensione ma ci sono sole uscite. Mettiamo che il risultato del modello con un orizzonte temporale di dieci anni e un livello di confidenza del 95% sia 300 euro. Di conseguenza la banca potrà investire, ad esempio in un mutuo, 300 euro prestandoli ad un cliente con un orizzonte di dieci anni, ed essere certa al 95% che non dovrà reperire altrove, ovvero sui mercati finanziari, 300 euro qualora il cliente richieda il proprio deposito indietro. Il secondo obiettivo del modello dei depositi è stimare, sempre con un certo livello di confidenza, quale parte di questi 300 euro depositati è insensibile al variare dei tassi di interesse. Assumiamo che il deposito sia remunerato con un tasso di interesse pari allo 0.1% e che il modello preveda per quel cliente un volume insensibile ai tassi di interesse pari a 200 euro. Questo significa che se i tassi di interesse nei prossimi dieci anni aumenteranno o diminuiranno solo 100 euro dovranno cambiare remunerazione a causa della fluttuazione mentre 200 euro riceveranno sempre lo 0.1%. Chiaramente, questo esempio non vale per un singolo correntista e bisogna osservare il fenomeno a livello di portafoglio, ovvero osservando tutti i clienti nel loro insieme o in sotto-insiemi effettuando l’analisi per il cluster Retail, Private o nel mondo delle imprese segregando le piccole dalle medie/grandi imprese.

Chiarito questo obiettivo, è importante capire le cause, ovvero le variabili esplicative del modello, che possono spiegare come mai il cliente con 1.000 euro sul conto utilizzerà con il 95% di probabilità nei prossimi dieci anni il 70% di quest’ultimi e chiederà, per l’80% di questo deposito, di rivedere al rialzo le condizioni contrattuali se i tassi di interesse di mercato aumenteranno, o viceversa, si vedrà la richiesta da parte della banca di diminuire la remunerazione dei  depositi se i tassi scenderanno.

Usando l’econometria, congiuntamente alla logica economica,  si crea il mix perfetto che consente al modello di assumere che gli eventi storici osservati siano predittivi del futuro in termini sia di dimensioni sia di impatto per le banche. Per questo motivo è importante avere un database utile alla stima del modello con una profondità storica di almeno 3-5 anni, una granularità dei dati che storicizzi il depositi medio mensile (quello giornaliero è troppo di dettaglio per l’obiettivo del modello), una capacità di aggregare i clienti in funzione dell’appartenenza al settore Retail, Private, small-business, grandi imprese o banche, e che includa per ognuno di essi la remunerazione dei depositi.

Seguendo la teoria economica, ognuno di noi detiene depositi sul conto corrente in funzione delle transazioni attese (componente transazionale) quali le spese per affitto, ristoranti o vestiti, per gestire le future transazioni  (componente risparmio) o per investire (componente speculativa). Per questo motivo il modello dovrà considerare quelle variabili che possono spiegare la componente transazionali, di risparmio o speculativa. Tali variabili sono microeconomiche ed aiutano a spiegare la componente transazionale e di risparmio, quali il salario e la ricchezza finanziaria del cliente, il costo opportunità di muovere il deposito verso altre forme di investimento, il livello di competizione tra le banche o la presenza/assenza di una trattenuta per muovere la liquidità tra un conto corrente e un altro. In secondo luogo, le variabili macroeconomiche come l’andamento del PIL, dell’inflazione, dei salari e della disoccupazione sono utili a capire le componenti transazionali e di risparmio mentre l’andamento dei mercati finanziari (tassi di interesse, azionariato e obbligazionario) sono fondamentali per capire la componente speculativa. Non da ultimo, ci sono altre variabili che possono essere utili a prevedere quanti volumi saranno stabili ed insensibili ai tassi, e dipendono dalla banca ovvero la presenza di una strategia di business o di marketing che può incentivare/disincentivare l’utilizzo del deposito per fini transazionali o speculativi e rendendo più o meno appetibile il deposito su conto corrente. 

Una volta comprese che tutte queste variabili possono essere rilevanti, diventa fondamentale l’analisi economica di quali, tra queste, siano più utili a predire il comportamento del cliente. Per questo motivo, nel libro suggeriamo di scegliere  un modello semplice rispetto ad uno più complesso in funzione della qualità del database, ovvero della capacità di incrociare i dati con le variabili predittive. Un modello semplice utilizzerà, ad esempio, la serie storica dei volumi del conto corrente e ne prenderà un minimo o analizzerà qual è stata la variabilità minima-massima negli ultimi dieci anni assumendo che la stessa si potrà ripresentare nei prossimi dieci anni. Al contrario, un modello più complesso andrà ad integrare i depositi sul conto corrente dei clienti con il valore della ricchezza finanziaria e l’ammontare di investimenti (portafoglio titoli) cercando una relazione tra l’allocazione della ricchezza finanziaria tra il conto corrente ed il portafoglio titoli con l’andamento delle variabili finanziarie o del costo opportunità con altri prodotti di investimento.

Una volta ottenuto l’output, da un modello semplice o da uno più complesso, molti attori all’interno dei vari dipartimenti della banca ne faranno uso. E per questo motivo i modelli comportamentali sono importanti all’interno di tutto il processo bancario.
In primis, il dipartimento di tesoreria della banca, il quale utilizzerà l’ammontare di volumi stabili per la gestione del rischio di liquidità, il dipartimento di finanza e/o risk management per sapere quanta parte dei depositi potranno essere investiti in mutui a tasso fisso così da immunizzare la banca dal rischio tasso di interesse, o per stabilire il prezzo interno di trasferimento dei fondi ovvero la remunerazione dei depositi e dei mutui tra la tesoreria e le unità di business. Infine, il dipartimento di pianificazione per prospettare la redditività complessiva all’interno del piano industriale o il dipartimento che cura la relazioni con gli investitori i quali sono interessati a capire quale sia la redditività della banca. Per ultimo, questi modelli sono oggetto di attenzione da parte della vigilanza bancaria, ECB, e degli audit interni che, insieme al dipartimento di validazione dei modelli interni, si occuperà di verificare la corretta implementazione e stima dei modelli. 



[1] A Guide to Behavioural Modelling – Risk.Net

Set 122019
 

Last April the European Council and Parliament approved one amendment to the calculation of the Volatility Adjustment (VA): the trigger for the Country VA has been moved from 100 to 85bps. This change is now being reviewed and will be published on the Official Journal of the European Union after the summer break. Once published, the Member States will have 6 months to include it in the local regulation.

The VA is one of the LTG (Long Term Guarantee) measures under SII which aims to ensure the appropriate treatment of insurance products with long term guarantees by dampening irrational market movements that would result in unjustified credit spreads. Unfortunately, according to the Italian insurance Companies and the Italian Regulator (IVASS), its mechanism has never been as effective as hoped. The Companies feared that the change they have been requesting for long would have only been set in place in 2020, together with the revision of the SII framework but, luckily, it has been recently approved during the vote of the ESA’s review.

The SII directive requires that both Assets and Liabilities are valued at a “fair price” and these quantities are then used to calculate both the OF (Own Funds) and the SCR (Solvency Capital Requirement) of a given firm. The business model of Insurance Companies is usually long termed, being their liabilities characterized by quite high durations. To be matched and with the aim of getting proper yields, Insurance Companies tend to invest in long term assets that, in this framework, suffer an “artificial level of volatility” of the spreads, which is short termed. The “artificial volatility” comes from non-default related changes in market values of bonds, like for instance the liquidity changes. However, since Insurance Companies have long-term guarantees and aim to hold their assets accordingly, it is rational to think that their OF and SCR should not be affected by those temporary changes. The VA is meant to offset this improper effect: when the spreads rise (and the value of the Assets falls down), the VA, applied on top of the Risk Free yield curve, increases as well (reducing the value of the Liabilities).

The VA is published on a monthly base by EIOPA and is made up of two components:

  • the Currency VA
  • the Country VA

both are reduced by an application ratio of 65% and then summed up.

The Currency VA is based on the 65% of the risk-corrected spreads between the interest rate that could be earned from a reference portfolio of assets and the risk free interest rates without any adjustment. A Currency-specific reference portfolio is used to determine the portfolio yield spread over the relevant risk free rate less the portion related to default or credit risk; the result of the calculation is referred to as the risk corrected currency spread. The portion related to default or credit risk is referred to as the “risk correction” (or fundamental spread) and is based on a percentage of the Long Term Average Spreads (LTAS) observed in the past 30 years (it describes the portion of the spread that is attributable to a realistic assessment of expected losses, unexpected credit risk or any other risk). The VA could turn negative when observed spreads are lower than the historical spreads, however is limited to the level of the risk correction: in practice it is expected that bonds maintain a positive spread as investors can hold swaps as an alternative (which reduce credit risk).

In addition to the Currency VA, a Country VA can be applied under specific circumstances. The Country VA is aimed at capturing situations where a country suffers a credit downgrade, which would lead to significant drop in government bonds from that country. The Country VA only applies when the risk corrected country spread is greater than twice the risk-corrected currency spread and the risk correct country spread is greater than 85 (previously 100) bps.

The following chart shows a case study carried out by ANIA (the Italian National Association of Insurance Firms): the blue dots depict the currency VA value in the recent history and the red dots the corresponding total VA value when the country part is triggered; the red values in the filled squares show the times in history when the country VA would have been triggered if a threshold of 85 had been used in place of the former 100bps. It is clear that a lower threshold would have allowed for a more ongoing and coherent effect:

However, ANIA stated that this achievement is a short term solution and that the mechanism of the VA must be reviewed from the basis.

Lastly, as already recalled, the VA is calculated based on a pre-defined reference investment portfolio, representing an average European insurer. While the use of a generic representative asset portfolio and the resulting adjustment on the liability discounting curve are desirable ensuring convergence in the calculation of the Solvency II ratio, it may not really be appropriate for firms that show different durations or assets allocations.

Set 042019
 

Il 4° Report italiano sul CrowdInvesting realizzato dalla School of Management del Politecnico di Milano permette di delineare lo stato attuale dell’arte in Italia riguardante il fenomeno del lending crowdfunding, ovvero l’opportunità di ottenere un prestito attraverso una piattaforma Internet (finanziata dalla ‘folla’ diffusa ma anche da investitori istituzionali).

Aggiornato al 30 giugno 2019, il report documenta la presenza di 13 portali di lending crowdfunding (si veda la Tabella 1), di cui 6 destinati al finanziamento di persone fisiche (consumer) e 7 rivolti al finanziamento di imprese (business). A tal proposito, è interessante notare che in ambito business ben 3 piattaforme su 7 sono specializzate nel segmento real estate. Inoltre, tre piattaforme business in data 30 giugno erano sulla rampa di lancio pronte a partire.

In riferimento al modello di investimento adottato, aumenta nel business lending il numero di piattaforme che adottano il modello ‘diretto’ (cioè dando possibilità di scelta immediata al finanziatore su come allocare i prestiti) mentre si consolida l’utilizzo del modello ‘diffuso’ (cioè con la suddivisione del denaro investito su tanti crediti diversificati) in ambito consumer.

A tal fine vale la pena sottolineare che i prestiti erogati dalle piattaforme sono generalmente privi di garanzie. A tal proposito un elemento di differenziazione tra i portali è dato dalla presenza o meno di fondi di protezione, istituiti per far fronte a eventuali inadempienze dei soggetti finanziati. Tali fondi, insieme alla garanzia pubblica del Fondo statale per le PMI, agiscono da tutela per i prestatori, incentivando questi ultimi a effettuare più investimenti. Il fondo in questione viene creato depositando una fee addizionale che viene richiesta solitamente ai finanziati (agli investitori nel caso di BLender, MotusQuo e Soisy), rendendo pertanto più oneroso l’accesso al capitale per i richiedenti.

 TABELLA 1 – I portali di social lending attivi in Italia al 30/6/2019
(*) raccolta via web non attiva per investitori italiani

In Italia, i volumi cumulati raccolti tramite lending crowdfunding ammontano in totale a € 435 milioni, in particolare € 279 milioni per il segmento consumer (di cui € 122,5 milioni nell’ultimo anno) e € 156 milioni per la parte business (di cui € 84 milioni nell’ultimo anno). È rilevante osservare che entrambi i segmenti sono in crescita, con flussi rispettivamente in aumento del 40% (consumer) e 48% (business) rispetto all’anno precedente.

In ambito consumer, come la Figura 1 evidenzia, la piattaforma leader si conferma Younited Credit (che però non raccoglie dalla ‘folla’ di Internet), la quale ha complessivamente erogato prestiti per un valore superiore a € 220 milioni, di cui € 107 milioni solo negli ultimi 12 mesi. Tuttavia, se spostiamo l’attenzione sul numero di prestatori attivi, Smartika detiene il primato con ben 6541 finanziatori attivi.

FIGURA 1.  Ammontare dei prestiti erogati dalle piattaforme di lending crowdfunding italiane attive nell’ambito consumer, alla data del 30/6/2019: valori totali e flusso annuale in € milioni.

Per quanto invece concerne il business lending, la Figura 2 mostra che tre sono i principali potali in termini di valore del raccolto: Borsadelcredito.it, October e Prestacap. In particolare, il primo posto è occupato da Borsadelcredito.it con € 64,0 milioni mentre October si posiziona al secondo posto ma è il portale che ha raccolto di più negli ultimi 12 mesi.

FIGURA 2. Ammontare dei prestiti erogati dalle piattaforme di lending crowdfunding italiane attive nell’ambito business, alla data del 30/6/2019: valori totali e flusso annuale in milioni di euro.

Con lo sguardo rivolto al futuro, se da un lato è auspicabile aspettarsi che il business lending possa eguagliare i volumi del segmento consumer, dall’altro lato rimane più complesso, ma allo stesso tempo urgente, l’intervento sul quadro normativo del lending crowdfunding. Difatti, numerose questioni, tra cui la recente opportunità per i portali di equity crowdfunding di collocare debito, pongono l’intervento normativo come una delle priorità finalizzate a un’ulteriore crescita del fenomeno in linea con gli altri Paesi europei.

Ago 032019
 

Gli ultimi 12 mesi hanno confermato e rafforzato la forte crescita dell’industria dell’equity crowdfunding. Ciò è quanto emerge dal quarto Report italiano sul Crowdinvesting appena presentato e realizzato dal Politecnico di Milano (disponibile su www.osservatoriocrowdinvesting.it).

Alla data del 30 giugno 2019, il valore cumulativo raccolto ha superato la soglia di € 82 milioni. Considerando che il valore cumulato un anno fa era meno della metà, la raccolta nell’ultimo periodo è stato quindi pari a € 49 milioni.  I numeri risultano essere incoraggianti anche guardando al numero di campagne emesse: sono state finora 401, organizzate da 369 imprese diverse (vi sono diversi casi di round ulteriori organizzati dalle stesse aziende). Guardando alla distribuzione temporale si può notare un trend positivo nel numero di progetti rilasciati, come rappresentato in figura 1.


Figura 1 – Flusso temporale delle 401 campagne di equity crowdfunding in Italia

A conferma di ciò, il 2018 è stato un anno di grande crescita del mercato, con ben 143 collocamenti, quasi il doppio rispetto all’anno precedente. Il 2019 si avvia a battere il risultato, visto che nel solo primo semestre si sono già chiusi 88 collocamenti.

Per quanto riguarda il tasso di successo, esso continua a mantenersi elevato: nei primi 6 mesi del 2019 è pari al 75,0% (la media generale dell’intero campione dal 2014 è pari a 71,7%). Come illustrato in figura 2, fra tutte le campagne concluse finora, 261 risultano chiuse positivamente, 103 chiuse senza raggiungere il target minimo previsto (senza quindi alcuna raccolta) e 37 ancora in corso (molte delle quali hanno già raggiunto la soglia minima di successo).

Figura 2- Tasso di successo delle 401 campagne di equity crowdfunding pubblicate su portali autorizzati

Fra le emittenti, le PMI (innovative e non) guadagnano spazio, ma il mercato è ancora dominato dalle startup innovative (72% dei casi nell’ultimo anno). In particolare, come si vede dalla Figura 3, le 369 emittenti campionate si suddividono fra:  293 startup innovative (pari al 79,4% del campione); 37 PMI innovative (pari al 10,0% del campione); 31 PMI (pari all’8,4% del campione), che hanno approfittato dell’estensione alle piccole e medie imprese dell’opportunità dell’equity crowdfunding, attuata dalla Legge di Stabilità per il 2017; 8 veicoli di investimento in startup innovative, PMI innovative o altre PMI.

Figura 3- Tipologia societaria delle 369 imprese protagoniste di una campagna di equity crowdfunding su portali autorizzati da Consob fino al 30/6/2019

Per quanto riguarda i portali, alla data del 30 giugno 2019s ne risultano autorizzati in Italia 35, ma un buon numero di questi non ha ancora pubblicato una singola campagna ed inoltre il numero è decisamente elevato sia rispetto alla dimensione assoluta del mercato, sia rispetto alla situazione in altri paesi europei. Guardando al numero di cumulativo di campagne pubblicate troviamo al primo posto Crowdfundme (79 campagne), seguito da Mamacrowd (71) e Opstart con (51). Concentrandosi solo agli ultimi 12 mesi passati la classifica cambia e sul podio abbiamo Mamacrowd (33), Crowdfundme (32) e Backtowork24 (23). Guardando alla classifica per capitale raccolto, al primo posto troviamo sempre Mamacrowd (sfiora € 22 milioni effettivi al 30/6/2019) seguita da Crowdfundme (vicina a € 15 milioni) e da Walliance (con € 11,1 milioni).

Dopo la campagna di raccolta, alcune aziende riescono a crescere in termini di fatturato e marginalità, ma altre rimangono al palo. Poche diventano profittevoli nell’immediato, pochissime riescono a ‘battere’ i target previsti nel business plan. Una novità registrata negli ultimi 12 mesi sono le prime exit, attraverso IPO o acquisizioni, ma anche i primi write-off, oltre a diversi secondi (e terzi) round di raccolta. Su questa base l’Italian Equity Crowdfunding Index ideato dal nostro Osservatorio calcola un apprezzamento complessivo teorico del valore di portafoglio investito pari al 9,43% alla data del 30 giugno 2019.

Lug 262019
 

Last 21.05.2019 EIOPA (European Insurance and Occupational Pensions Authority) published the calculation of the Ultimate Forward Rate (UFR) applicable as of 2020.

The value to apply for the EUR currency is 3.75%.

Actually, the EUR calculated value would be 3.55%, but because of both the current value (3.90%) and the limit on the maximum annual change (15 bps), the applicable UFR for the EUR currency is floored to 3.75%. The EUR UFR has been previously equal to 4.20% (2017), 4.05% (2018) and 3.90% (2019).

The methodology to derive the UFR was decided by EIOPA at the end of March 2017. EIOPA calculates the UFRs on an annual basis, by the end of March, and, if they are sufficiently different from those in place, requires an update 9 months after the announcement, at the beginning of the following year.

The change in the UFR is limited in such a way that either it can increase/decrease by 15bps, or it remains unchanged:

As the UFR is a target for the long-term Nominal rates, it is defined as the sum of two components:

  • Expected Real rate

This is the same for all currencies.

It is updated yearly, being the simple average of the past real rates since 1961 to the year before the calculation of the UFR.

Each annual real rate is derived as the simple arithmetic mean of the annual real rates of Belgium, Germany, France, Italy, the Netherlands, the United Kingdom and the United States. For each of those years and each country the annual real rate is calculated as follows:

Real rate = (short-term Nominal rate – Inflation rate) / (1+Inflation rate).

  • The short-term Nominal rates are taken from the annual macro-economic database of the European Commission (AMECO database)
    • The inflation rates are taken from the Main Economic Indicators database of the OECD

The following chart shows the Real rates time series updated at 2019 (till 2018)

The time series is currently composed by 58 items, with the last observation, related to 2018, that enters the vector with a value of -1.68%.

The simple average gives a value of 1.51312%, rounded up to 1.55%.

Indeed, the expected real rate is rounded to full five basis points as follows:

  • when the unrounded rate is lower than the rounded rate of the previous year, the rate is rounded upwards
  • when the unrounded rate is higher than the rounded rate of the previous year, the rate is rounded downwards.
  • Expected Inflation rate

This is currency specific.

It remains unchanged over time and it is based on the inflation targets of the central banks, assuming the values of 1%, 2%, 3% or 4% (e.g. 2% when the target is higher than 1%, but lower than 3%).

Where a central bank is not targeting a specific inflation figure but tries to keep the inflation in a specified corridor, the midpoint of that corridor is relevant for the allocation to the four inflation rate buckets.

For currencies where the central bank has not announced an inflation target, the expected inflation rate is 2% by default. However, where past inflation experience and projection of inflations both clearly indicate that the inflation of a currency is expected in the long-term to be at least 1 percentage point higher or lower than 2%, the expected inflation rate will be chosen in accordance with those indications. The expected inflation rate will be rounded downwards to full percentage points. The past experience is assessed against the average of a 10 years time series and the projection is derived by the means of an ARMA model. The table below summarized the UFRs values for the major currencies.