Ago 032019
 

Gli ultimi 12 mesi hanno confermato e rafforzato la forte crescita dell’industria dell’equity crowdfunding. Ciò è quanto emerge dal quarto Report italiano sul Crowdinvesting appena presentato e realizzato dal Politecnico di Milano (disponibile su www.osservatoriocrowdinvesting.it).

Alla data del 30 giugno 2019, il valore cumulativo raccolto ha superato la soglia di € 82 milioni. Considerando che il valore cumulato un anno fa era meno della metà, la raccolta nell’ultimo periodo è stato quindi pari a € 49 milioni.  I numeri risultano essere incoraggianti anche guardando al numero di campagne emesse: sono state finora 401, organizzate da 369 imprese diverse (vi sono diversi casi di round ulteriori organizzati dalle stesse aziende). Guardando alla distribuzione temporale si può notare un trend positivo nel numero di progetti rilasciati, come rappresentato in figura 1.


Figura 1 – Flusso temporale delle 401 campagne di equity crowdfunding in Italia

A conferma di ciò, il 2018 è stato un anno di grande crescita del mercato, con ben 143 collocamenti, quasi il doppio rispetto all’anno precedente. Il 2019 si avvia a battere il risultato, visto che nel solo primo semestre si sono già chiusi 88 collocamenti.

Per quanto riguarda il tasso di successo, esso continua a mantenersi elevato: nei primi 6 mesi del 2019 è pari al 75,0% (la media generale dell’intero campione dal 2014 è pari a 71,7%). Come illustrato in figura 2, fra tutte le campagne concluse finora, 261 risultano chiuse positivamente, 103 chiuse senza raggiungere il target minimo previsto (senza quindi alcuna raccolta) e 37 ancora in corso (molte delle quali hanno già raggiunto la soglia minima di successo).

Figura 2- Tasso di successo delle 401 campagne di equity crowdfunding pubblicate su portali autorizzati

Fra le emittenti, le PMI (innovative e non) guadagnano spazio, ma il mercato è ancora dominato dalle startup innovative (72% dei casi nell’ultimo anno). In particolare, come si vede dalla Figura 3, le 369 emittenti campionate si suddividono fra:  293 startup innovative (pari al 79,4% del campione); 37 PMI innovative (pari al 10,0% del campione); 31 PMI (pari all’8,4% del campione), che hanno approfittato dell’estensione alle piccole e medie imprese dell’opportunità dell’equity crowdfunding, attuata dalla Legge di Stabilità per il 2017; 8 veicoli di investimento in startup innovative, PMI innovative o altre PMI.

Figura 3- Tipologia societaria delle 369 imprese protagoniste di una campagna di equity crowdfunding su portali autorizzati da Consob fino al 30/6/2019

Per quanto riguarda i portali, alla data del 30 giugno 2019s ne risultano autorizzati in Italia 35, ma un buon numero di questi non ha ancora pubblicato una singola campagna ed inoltre il numero è decisamente elevato sia rispetto alla dimensione assoluta del mercato, sia rispetto alla situazione in altri paesi europei. Guardando al numero di cumulativo di campagne pubblicate troviamo al primo posto Crowdfundme (79 campagne), seguito da Mamacrowd (71) e Opstart con (51). Concentrandosi solo agli ultimi 12 mesi passati la classifica cambia e sul podio abbiamo Mamacrowd (33), Crowdfundme (32) e Backtowork24 (23). Guardando alla classifica per capitale raccolto, al primo posto troviamo sempre Mamacrowd (sfiora € 22 milioni effettivi al 30/6/2019) seguita da Crowdfundme (vicina a € 15 milioni) e da Walliance (con € 11,1 milioni).

Dopo la campagna di raccolta, alcune aziende riescono a crescere in termini di fatturato e marginalità, ma altre rimangono al palo. Poche diventano profittevoli nell’immediato, pochissime riescono a ‘battere’ i target previsti nel business plan. Una novità registrata negli ultimi 12 mesi sono le prime exit, attraverso IPO o acquisizioni, ma anche i primi write-off, oltre a diversi secondi (e terzi) round di raccolta. Su questa base l’Italian Equity Crowdfunding Index ideato dal nostro Osservatorio calcola un apprezzamento complessivo teorico del valore di portafoglio investito pari al 9,43% alla data del 30 giugno 2019.

Lug 262019
 

Last 21.05.2019 EIOPA (European Insurance and Occupational Pensions Authority) published the calculation of the Ultimate Forward Rate (UFR) applicable as of 2020.

The value to apply for the EUR currency is 3.75%.

Actually, the EUR calculated value would be 3.55%, but because of both the current value (3.90%) and the limit on the maximum annual change (15 bps), the applicable UFR for the EUR currency is floored to 3.75%. The EUR UFR has been previously equal to 4.20% (2017), 4.05% (2018) and 3.90% (2019).

The methodology to derive the UFR was decided by EIOPA at the end of March 2017. EIOPA calculates the UFRs on an annual basis, by the end of March, and, if they are sufficiently different from those in place, requires an update 9 months after the announcement, at the beginning of the following year.

The change in the UFR is limited in such a way that either it can increase/decrease by 15bps, or it remains unchanged:

As the UFR is a target for the long-term Nominal rates, it is defined as the sum of two components:

  • Expected Real rate

This is the same for all currencies.

It is updated yearly, being the simple average of the past real rates since 1961 to the year before the calculation of the UFR.

Each annual real rate is derived as the simple arithmetic mean of the annual real rates of Belgium, Germany, France, Italy, the Netherlands, the United Kingdom and the United States. For each of those years and each country the annual real rate is calculated as follows:

Real rate = (short-term Nominal rate – Inflation rate) / (1+Inflation rate).

  • The short-term Nominal rates are taken from the annual macro-economic database of the European Commission (AMECO database)
    • The inflation rates are taken from the Main Economic Indicators database of the OECD

The following chart shows the Real rates time series updated at 2019 (till 2018)

The time series is currently composed by 58 items, with the last observation, related to 2018, that enters the vector with a value of -1.68%.

The simple average gives a value of 1.51312%, rounded up to 1.55%.

Indeed, the expected real rate is rounded to full five basis points as follows:

  • when the unrounded rate is lower than the rounded rate of the previous year, the rate is rounded upwards
  • when the unrounded rate is higher than the rounded rate of the previous year, the rate is rounded downwards.
  • Expected Inflation rate

This is currency specific.

It remains unchanged over time and it is based on the inflation targets of the central banks, assuming the values of 1%, 2%, 3% or 4% (e.g. 2% when the target is higher than 1%, but lower than 3%).

Where a central bank is not targeting a specific inflation figure but tries to keep the inflation in a specified corridor, the midpoint of that corridor is relevant for the allocation to the four inflation rate buckets.

For currencies where the central bank has not announced an inflation target, the expected inflation rate is 2% by default. However, where past inflation experience and projection of inflations both clearly indicate that the inflation of a currency is expected in the long-term to be at least 1 percentage point higher or lower than 2%, the expected inflation rate will be chosen in accordance with those indications. The expected inflation rate will be rounded downwards to full percentage points. The past experience is assessed against the average of a 10 years time series and the projection is derived by the means of an ARMA model. The table below summarized the UFRs values for the major currencies.

Lug 182019
 

1  Introduction

In the first part of this article, we sketched a general framework to calculate the bank’s value. In this second part of the article, we will show how to apply the framework to the evaluation of a contract that is inserted in the existing bank’s balance sheet and how to properly compute the xVAs quantities. Finally, we will see how to conciliate the apparently theoretical unsound market practices to evaluate derivative contracts, and the nowadays standard results of the modern financial theory, namely the Modigliani-Miller (MM) theorem (see Modigliani and Miller, [3]).

An extended version of this work, with the details of the analytical results, is available at www.iasonltd.com in the research section.

2  A Non-Trivial Set-Up to Evaluate Contracts

 We can specify the general framework sketched in the first part to evaluate the incremental contribution of a contingent claim in the balance sheet of the bank. First, we outline how to calculate the value of the bank; then, we will assess how the insertion of a new contract in the bank’s balance sheet impacts the value.

3  Incremental Valuation of a New Contract

4  Reconciliation with the Modigliani&Miller Theorem

 Elsewhere,[1] we had to opportunity to stress that the incremental valuation framework that we introduced above is not in contrast with the main tenet of the Modigliani&Miller (MM) theorem, expounded by the two authors in their article of 1958 (see [3]).[2] On the contrary, when evaluating an investment that is included within the balance sheet of a company (bank) that has already started its operations, then the only way to keep the total value of the assets of the company equal to the total value of the liabilities, is to apply the principles of the incremental valuation stated in Castagna [2] to the non trivial framework sketched above.

In the recent work by Andersen et al. [1], the Modigliani&Miller theorem is proved to be correct when calculating the incremental value of a contract with respect to the total firm value, which is equal to the total value of the assets. In this case, the authors prove that the correct incremental value is given by the “pure” value, deducted of the CVA  and incremented by the DVA, and it is independent from the way it is financed.

In our framework, we calculate the value of a contract only with respect to the value of the bank to the shareholders, because we think this is the only meaningful way the indifference to inclusion of the contract in the balance sheet to all stakeholders. When considering the total value of the firm, the evaluator allows for wealth transfers from shareholders to claimants of higher order, such as bondholders (see Andersen et al. [1], pag. 159). On the contrary, when considering the incremental value with respect to the shareholders’ bank value, no wealth transfer is allowed and the contract value is such that all claimants are indifferent to it. Sure, such a value entails additional costs that have to be paid by the counterparty, but here we enter in the market action, where the price of the contract is determined. The price can be set at a level that matches the internal incremental valuation of the bank, thus generating a nil net contribution to the bank value; or it can be different, with a net positive or negative contribution. In any case, the price setting is the result of the bargaining process where the strengths of the bank and of the counterparty clashes and, possibly, they eventually agree to close the deal.

We think that the approach that we have detailed above and that relies on the simpler, but in any case complete, setting in Castagna [2], is in line with Proposition III of Modigliani and Miller [3], where the the optimal investment rule is derived: basically, when the firm (i.e.: the manager) is acting in the shareholders’ best interest, it will undertake an investment only if its rate of return is at least equal, or above the rate of return required by the market for a class of risk corresponding to the riskiness of the firm. In our approach, we are internally setting the rate of return of a new contract by adding all the adjustments that make its rate of return equal to the appropriate rate of return. The latter is determined by the current composition of the assets and their related risks, and by the debt and equity capital financing it, whose costs mirror the leverage and the risk premium above the risk-free rate requested by the debt-holders and shareholders.

In our opinion, in Modigliani and Miller [3] it is Proposition III that has a normative value and that should be considered when designing a framework to evaluate new contracts. Proposition I and II, in the same article, have a positive value describing the equilibrium that can be retrieved ex post, equating the return of the assets to the average cost of capital, whichever mix the firm chooses to finance them. But both propositions are not including investments that produce a loss of wealth of one of the stakeholders in favour of another stakeholder: these investments are clearly excluded by Proposition III. Following the latter, we were able to derive the rules that determine the hurdle rate at which the actual contribution of contract to the (shareholders’ bank value) is nil. It is clear that accepting only the investments that comply with Proposition III, also Proposition I and II will be proved to be true, provided we are working in a frictionless, perfect financial market.

5  Conclusion

 In this work we have extended the approach of Castagna [2] to a non-trivial setting to calculate the incremental value of a contract that is included in the bank’s balance sheet. A similar approach has been recently developed by see Andersen et al. [1]. To our knowledge, our framework is richer than those appeared since now in literature, in that we include a firm structural framework within a classical general equilibrium framework.

The framework considers different financing policies and consistently derives all the adjustment to the “pure” value of a contract, including the CVA , the FVA and, implicitly, the LLVA . We are also able to derive, in a natural fashion, an adjustment that relates to the KVA. In our structural, general-equilibrium enhanced framework setting, we do not only flesh out the origin of the KVA, but we can also identify the cases in which its inclusion is admissible in the evaluation, which is the correct premium to consider and, moreover, we can spot potential double counting of the adjustment.

References

[1]  L Andersen, D. Duffie, and Y.. Song.  Funding value adjustmentss.   Journal of Finance, LXXIV(1):145–191, 2019.

[2]  A. Castagna.  Towards a theory of internal valuation and transfer pricing of products in a bank: Funding, credit risk and economic capital.   Iason research paper. Available at http://www.iasonltd.com, 2013.

[3]  F. Modigliani and M.H. Miller.  The cost of capital, corporation finance and the theory of investment.   The American Economic Review, 48(3):261–297, 1958.



[1] See Castagna [2].

[2] We would like to recall here the MM theorem proves that the value of a project is independent from the way it is financed, or from the capital structure of the company undertaking it.

Lug 122019
 

European banks are still experiencing a difficult situation, also dictated by the political-economic tone we are experiencing recently, the CER has focused on the problem in its Banking Report N.1 2018, based on 2014-2016 data, however in this article the analysis compared to the report it was also extended to 2017.

Analyzing a sample proposed by Mediobanca, consisting of about 20 larger European banks, we can see which are the business models that characterize the banks of the old continent and the composition of their assets in the portfolio. The analysis was carried out over the 2014-2017 four-year period. The total average assets of the sample amounted to 1,070 billion euros in 2017. The largest banking group is HSBC, with total assets of 2,192 billion euros. Overall, the 21 banking institutions hold assets of 1,900 trillion euros. The average ROE in the four-year period considered was 4.2%.

The German banks (25%), Nordea (24%) and Barclays (22%) are the ones that show the highest values ​​(chart 1). The heaviest incidences are observed for Unicredit, Groupe BPCE and ING Group. The two Italian groups considered in the number, namely Unicredit and Intesa-San Paolo, have taken an incidence of 6% and 7%.

Even more interesting and third level. These financial instruments are illiquid and opaque, having complex structures and prices that are difficult to recognize. These parameters are not compatible with the standards. To take account of these valuation uncertainties, the accounting rules impose greater provisions and deductions from capital (additional valuation adjustments, AVA) for these instruments. However, adjustments are not calculated at the individual instrument level. Furthermore, the L3 instruments are more disadvantaged than the L2 ones, it is an incentive to hold this second form of activity.


Chart 1. Incidence of active derivatives
Source: CER calculations on Mediobanca Data

Deutsche Bank is the bank with the greatest presence of L2 and L3 in its portfolio: in 2014, around 51% of total assets, to then decrease in 2017 to 44%, a level that is still on the increase compared to the previous year (chart2). Barclays and RBS follow. Italian banks are not particularly inclined to invest in L2 and L3 instruments. Both Unicredit and Intesa-San Paolo hold a percentage of the total assets among the lowest in the sample.

From the Mediobanca data relating to 2016 it appears that the L3 instruments consist almost 30% of derivative securities, 24.5% of equity securities and mutual funds, 20% of debt securities, 13.7% of loans and 12 .1% from other assets.

Chart 2. Incidence of 2nd and 3rd level assets
Source: CER calculations on Mediobanca Data
Chart 3. Incidence of Loans
Source: CER calculations on Mediobanca Data

Ultimately, analyzing the incidence of riskier assets shows a particularly heterogeneous situation. German and French banks have invested heavily in L2 and L3 instruments. Another group of banks, including the Italian ones, seems to suffer due to non-performing loans. Anglo-Saxon banks, on the other hand, operate in a framework in which both impaired loans and more complex financial assets are present in their financial statements. Finally, the remaining part of the institutions appears to have particularly prudent asset management, as evidenced by the low incidence of riskier assets.

Possible impacts of business choices on systemic risk

The economic and financial debate today is very focused on the possible systemic impacts, in this regard the Mediobanca database has been integrated with the information provided by the New York University Ster Volatility Lab. Specifically, the SRISK has been considered, indicator expresses the quantity of systemic risk connected with each listed company. The percentage share of SRISK with respect to the total of the sample was therefore calculated for each bank.

From the data of the NYU Stern Volatility Lab emerges as the banks with the greatest systemic impact, in 2017, are Bnp Paribas, with a share of systemic risk of 14%, and Deutsche Bank (13% chart.4).

This is followed by Barclays, Crédit Agricole and Société Generale. Unicredit and Intesa San Paolo account for 3.9% and 3% of the largest banks respectively.

Chart 4. Incidence of systemic risk in systemically important European banks
Source: CER calculations on Mediobanca Data

Overall, the systemic risk of European banks attributable to French banks is 39%, 19% for the British, 16% for the German, 8% for the Spanish 7% for the Italian, 5% for the Swiss.

The same percentage share of the total of the sample was calculated for the most risk activities that characterize the business model based on credit and finance, or NPL, on the one hand, and L2 and L3 instruments, on the other. By relating this information to that relating to systemic risk, for the period 2014-2017, there are important indications (chart 5).

Chart.5 Systemic risk, complex financial assets and NPL (data for the 2014-2017 period)
Notes: sample of the top 20 significant banks in Europe. RISK expressed in% of the total sample.
Source: CER calculations on Mediobanca Data

The relationship between the share of the L2 and L3 instruments and that of systemic risk is strictly positive, which confirms that the impact of an eventual collapse of an institution, caused by problems deriving from excessive financial risks assumed, can have a serious impact on the whole market, jeopardizing its stability.

On the other hand, the relationship between the share of NPLs and that of systemic risk is slightly negative, highlighting that credit risk has no significant impact on global financial stability.

The undervaluation of market risk could have significant effects on the financial system. In fact, there does not appear to be a relationship between the SRISK share and the CET 1 ratio, a sign that the greater systemic risk does not push bank managers to hold more capital for the purposes of complying with the Basel requirements (chart 6). The fact that systemic risk is not adequately computed among the risks managed by European banks can be observed by looking at the relationship with the ratio between CET1 and total assets (an improper leverage ratio). In this case the relationship is even negative: those with more systemic risk have a lower proportion of good quality capital than the total assets. This implies that if the financial markets slow down significantly, the banks most exposed to the L2 and L3 instruments would quickly exhaust their capital endowment.

Chart.6 Systemic risk and capital endowment (data for the period 2014-2017)
Notes: sample of the top 20 significant banks in Europe. RISK expressed in% of the total sample.
Source: CER calculations on Mediobanca Data

This theme is strongly in line with the modern economic debate and recently the hypothesis of a possible merger between Unicredit and Commerzbank was born (the first hypothesis that the merger between Deutsche Bank and Commerzbank was avoided), but the merger between high banks impact (in Italy for Unicredit and on a large scale for Commerzbank) and with different business models (Commerzbank has a strong presence on its balance sheet levels 2 and fully concentrates its business model on finance, Unicredit instead on credit) is a solution to be adopted?

However, the regulatory authorities do not seem to worry about this, taking advantage of the concept “too big to fail”

At 2017, for Commerzbank the percentage of derivatives on total assets stood at 20%, while for Unicredit the share was much lower (6%). For second and third level activities (highly opaque and with a very high degree of risk), the percentage of total assets at 2017 was 16% for Commerzbank and 8% for Unicredit. The dynamics is completely reversed, while if we consider the NPLs, on the total loans the Unicredit share at 2017 was 4% (down compared to 2014 8%), for the German group instead, the value barely touched the 1%.

Can be seen from the previous analysis, the 2 and 3 level activities have a very different systemic impact, compared to the NPL

Concluding:

The regulatory authorities should have a very strong role in the hypothetical merger between these two groups, and in particular to understand if the merger will have positive returns or if instead we only risk creating a “systemic giant”.

The following analysis shows how the potential stresses facing the banks should not be underestimated, in fact in this regard the EBA introduced the benchmark models for the 2018 stress test to verify the consistency of the results obtained by the institutes from their assessments internal. The EBA has not gone as the Federal Reserve to establish homogeneous parameters for all banks, but uses these models only to highlight anomalies. However, the benchmark models will be used to estimate credit risk, thus leaving open the possibility of manipulating market risk.

References:

  1. Banca d’Italia, Relazione annuale per il 2017, maggio 2018;
  • Banca d’Italia, “Risks and challenges of complex financial instruments: an analysis of SSM banks”;
  • Mediobanca R&S;
Lug 062019
 

The regulatory context is constantly changing: since 2012, over 50,000 regulations have been published throughout the G20.

In this regulatory landscape, compliance functions are facing some key challenges:

  • Managing Regulators: Respond to regulatory requirements with timeliness, protecting both the brand and reputation;
  • Compliance Strategy: Lead the strategic decision-making process from a regulatory compliance standpoint;
  • Compliance Operations: Reduce compliance costs by promoting transparency and managing inefficiencies in paper-driven processes;
  • Consumer Protection: Implement new solutions to enhance customers’ protection.

Current compliance tools used by financial institutions are gradually reducing the capability to meet regulatory demands. Therefore, in order to gather, analyze and compute all the required data, financial institutions are using a variety of IT systems and are increasing manual processes and the related operational risks.

A key issue is clearly arising: “how can a financial institution address compliance in a more efficient and less resource-consuming manner while improving the quality of data reported to regulatory supervisory authorities?” Within FinTech ecosystem there are a group of companies focused on meeting regulatory demands through innovative technologies: the RegTech Universe.

RegTech Universe

“RegTech (Regulatory Technology) is a subset of FinTech that focuses on technologies that may facilitate the delivery of regulatory requirements more efficiently and effectively than existing capabilities”.

Deloitte is constantly mapping the FinTech ecosystem and has created the RegTech Universe where we are compiling a list of RegTech companies along with the technologies and solutions they are offering: https://www2.deloitte.com/lu/en/pages/technology/articles/regtech-companies-compliance.html

Deloitte research on the RegTech Universe is an ongoing exercise where we classify the regTech solutions in 5 key areas:

  1. Regulatory Reporting: Enable automated data distribution and regulatory reporting through big data analysis, real time and cloud reports.
  2. Risk Management: Detect regulatory and compliance risks, assess exposure to risk and anticipate future threats.
  3. Identity Management & Control: Facilitate counterparty due diligence and Know Your Customer (KYC) procedures. AML and anti-fraud screening and detection. .
  4. Compliance: Real time monitoring and tracking of current state of compliance and upcoming regulations
  5. Transaction Monitoring:  Solutions for real time transaction monitoring and auditing.

Considering the 5 key areas of RegTech Universe, Deloitte has developed a RegTech platform, exploiting the knowledge and expertise on technological enablers, gained through the EMEA Deloitte’s Centers of Excellence:

  1. RPA: Application of programmed software to perform repetitive and rule-based tasks;
  2. Artificial Intelligence: Technology that reproduces logical thinking normally requiring human intelligence;
  3. Blockchain: Technologies used to track and speed up the transaction lifecycle;
  4. Big data & analytics: Tools and real time techniques that improve decision-making processes, starting from heterogeneous data;
  5. IoT: Technologies that allow the internet connection of different types of devices in order to monitor, control and transfer information, and then perform subsequent actions.

Through the abovementioned enablers, RegTech introduces for the first time the following elements:

  • Agility: Cluttered and intertwined data sets can be de-coupled and organized through ETL (Extract, Transfer, Load) technologies;
  • Speed: Reports can be configured and generated quickly;
  • Integration: Short timeframes to get solution up and running;
  • Analytics: RegTech uses analytic tools to intelligently mine existing “big data” data sets and unlock their true potential e.g. using the same data for multiple purposes.

Regtech: Niche solution

Regtech companies are therefore trying to exploit technological innovation to meet regulatory demands whilst complexity Financial Institutions have to manage is increasing:

 Digitalization

  • Complex IT Architecture
  • High integration costs
  • Long and uncertain maintenance times

Regulatory Pressures

  • Increasingly frequent inspections by Supervisory Authority
  • More sophisticated control techniques
  • Analytical tools capable of identifying compliance risks (including RegTech tools)

Confusing Vendor Landscape 

  • Too many vendors cause confusion
  • Financial institutions struggle to identify suitable partners

Data and Analytics

  • Inappropriate data management
  • Interpretation of increasingly complex data

Reporting

  • Localized reports, unsuccessful handling of centrally-managed reports

Manual Processes 

  • Complicated manual procedures increase the possibility of error
  • People are encouraged to ignore controls

The ability to cope with these issues is mandatory and RegTech companies may help Financial Institutions: the key success factor of RegTech versus “traditional solutions” is agility. The activities and processes covered by RegTech solutions go beyond regulatory reporting and is constantly increasing (e.g. see 5 RegTech Universe areas) and they all have one feature in common: the targeting of a very specific niche.

Digital onboarding for financial services

“Identity Management and control” is one of the categories in the “RegTech Universe” which horizontally contains all the issues considered.

Digital onboarding enables a new and personalized customer experience by simplifying the access to financial services while reducing processing time and cost for financial institutions due to optimized procedures:

  • Improved Customer Experience
    • Create faster and more flexible access to banking services
    • Be perceived as innovative and reinforce brand image
    • Reduce document loss
    • Reduce paper usage
  • Reduced Cost/Income Ratio
    • Reduce cost-to-serve
    • Improve sales effectiveness
    • Reduce failed client acquisitions
    • Automate and accelerate processes to enhance operational efficiency and to reduce operational costs

Three key reasons for Financial Institutions to invest on digital customer onboarding:

  1. Customer expectations in a mobile-first era. Consumers are increasingly mobile-first and have already set the bar high in terms of their expectations as regards speed, convenience, and security. To win in this competitive landscape Financial Institutions must offer top class UX combined with robust evidence that security and privacy are paramount.
  2. Meeting regulatory requirements. As fraud becomes more and more sophisticated Financial Institutions may leverage RegTech solutions such as Digital ID to meet D verification regulation.
  3. Benefits in ROI and Operational Cost Savings. Digitisation of KYC capabilities may generate tangible cost savings for financial institutions, due to a significant reduction in manual verification processes.

Curently there are several “niche solutions” in RegTech ecosystem that offer both complete solutions (covering the customer’s entire onboarding process) and partial solutions (specific to a part of the process, i.e. Mifid).

Key findings

RegTech providers/solutions may help Financial Institution in meeting compliance adherence in an “agile way”. These tech – enabled solutions will deliver transformation of Regulatory Operations but in order to reach the full potential    Financial Institutions must have the capabilities:

  • to scan the ecosystem and choose the solution that best fits with their specific needs;
  • to fully integrate the solution into the their organization (processes and IT systems).

Autori:

Piovan Diego– Partner Deloitte Risk Advisory

Pirondini David – Partner Deloitte Risk Advisory

Vidussi Alessandro – Partner Deloitte Consulting



Giu 302019
 

Last 13.06.2019 EIOPA (European Insurance and Occupational Pensions Authority) and ECB (European Central Bank) published the Common Minimum Standards for Data Revisions agreed between themselves, the NSAs (National Supervisory Authorities) and the NCBs (National Central Banks).

Because of the integrated reported approach, Data Quality (DQ) is crucial in any data management process: data reported by the insurance undertakings are used by both NSAs in the review process, whose outcome is then submitted to EIOPA, and by most NCBs to fill in the insurance corporation statistics, delivered to the ECB. This leads to a need of a common understanding of the minimum level of DQ required.

By agreeing on common minimum standards, all authorities have aligned their expectations for the minimum acceptable level of DQ for the purposes of the different uses of data. The common minimum standards specify:

  •  The request of revision
  •  The synchronization
  •  The timeliness
  •  The explanatory notes and notices
  •  The need for historical revision

[1] The common minimum standards should not prevent stricter practices from being applied at national level: the NSAs/NCBs still have the responsibility and the power to request that financial institutions revise data when necessary. As the XBRL validations cannot cover all DQ issues, it may happen that, after deeper controls carried out by the insurance undertakings themselves, data may be occasionally submitted a second time. Resubmissions are divided into (a) “revisions” (if data points have changed) and (b) “duplications” (if there are no changes in the data points, but duplications have been fixed).

[2] The synchronisation states that the same data have to be available at all levels (i.e. financial institutions, NSAs/NCBs, EIOPA, ECB) at all times: it is important to keep consistency between EIOPA’s Central Repository, the ECB’s statistical databases and NSA/NCB databases. Any revision of data should be carried out at all levels of the transmission chain so that all parties involved have the same data. Data should not be unilaterally modified at the NCB or NCA level, unless in exceptional cases (identification of wrong data and impossibility to fix them by the financial institution due to time restrictions).

[3] NSAs and NCBs shall send the revisions respectively to EIOPA and the ECB in a timely manner, reducing time pressure for business users who need high-quality and stable data on specific dates. Specifically:

  • NSAs shall send the data to EIOPA within 1 week from the receiving or according to established schedules, but at least once per month.
  • NCBs shall send the data to ECB as quickly as possible and at maximum before the closing of the next production period

[4] NSAs and NCBs shall send a note explaining what trigger the revision of aggregated data in case of all non-routine revisions and significant routine revisions. In case of DQ issues reported by individual entities, the NSAs shall either use the erroneous flag available in the XML metadata file of the EIOPA Central Repository Specification or email EIOPA to informing of the need for revision.

[5] Back data should be revised at least as far back as technically possible, given the operational limitations of the data collection infrastructure, where an issue is identified and supposed to lead to significant revisions, which could also affect the past. Ә%

Giu 222019
 

We extend the analysis we sketched in Castagna [4] and we provide an application of the framework we introduced to incrementally evaluate financial contracts within a financial institution’s balance sheet.

1  Introduction

 In Castagna [4] we sketched a framework to evaluate a contract inserted within the balance sheet of a financial institution. The main result of that work is the importance to assess the impact that the contract’s insertion in the bank’s books causes in terms of changes of the value of the bank. This is tantamount to saying that a contract has a value to the bank that equals its incremental (or marginal) contribution to the total net value of the bank.

The first consequence of this approach is that the (incremental) value to the bank is a subjective quantity that does not need to be that same as the price quoted and dealt in the market. The difference between price and value of a contract is a concept that we stressed in Castagna [3] and [2]: For an evaluator that is a hedger/replicator, the price of a (derivative) contract is just the payment terms that both parties agree upon when closing the deal; the value of the same (derivative) contract is the present value of the costs paid to replicate the intermediate and final pay-off until the expiry, which in turn is the incremental change in the total hedger/replicator’s net value.

The second consequence is that the valuation should be correctly operated by considering the existing balance sheet structure. The main result from the analysis in Castagna [3] is that, if the contract is sufficiently small so that it does not alter (for practical purposes) the probability of default of the evaluator (bank), then the approximated value can be fairly considered as the equivalent to the algebraic sum of the value of i) an otherwise identical risk-free contract (the “pure” value”), ii) the Credit Value Adjustment  CVA and iii) the Funding Value Adjustment FVA  referring to the same contract. If the contract has a large notional so that it changes the evaluator’s default probability, then the value has to be determined in a more precise fashion by algebraically adding to the sum above the term iv) Limited Liability Value Adjustment (LLVA). The latter quantity is somehow similar to the more common Debit Value Adjustment (DVA), in that it affects the value of the contract in the opposite direction than the CVA; nonetheless it cannot be considered as equivalent to the DVA for many reasons that we thoroughly discuss in Castagna [3].

Only the value of a contract can be incremental. The concept of incremental price is meaningless, because the price cannot include all the incremental valuations referring to the parties involved in the transaction, or two generic parties that would trade in that contract if the price is only a quote not yet dealt. Clearly we are not saying here that the two parties do not consider their own incremental value when bargaining before closing the deal at the agreed price: on the contrary, they will try to push the price as near as possible to the (likely diverging) values they assign to the contract. The effectiveness of this effort depends on the relative bargaining strength existing between the two parties.

The reference system, with respect to which the bank evaluates the incremental impact of the new contract it trades, should be the economic value of the bank to its shareholders. In fact, shareholders are the last claimants on the residual value of the assets, so that the value to them clashes with the ultimate value of the bank, after having considered the payment of all the other stakeholders that have a higher grade in the claimants’ order. The only way to compute this value is to jointly evaluate all the assets and liabilities (investments, securities, contracts, etc.), taking into account the limited liability that is granted to the shareholders, to come up with the net wealth of the bank. We would like to stress the fact that if the shareholders directly, or (as it is usually the case) the bank’s management indirectly, miximise the bank’s value, they are also acting in the best interest of all other senior claimants to the assets’ value (e.g.: bond holders, depositors, etc.). The present work is a two-part article. In the current first part, we will lay out a general framework to calculate the bank’s value. The framework allows to shed some light also on the economic meaning of the Capital Value Adjustment (KVA) of a contract.

In the second part of the article, we will show how to apply the framework to the evaluation of a contract that is inserted in the existing bank’s balance sheet and how to properly compute the xVAs quantities. Finally, we will see how to conciliate the apparently theoretical unsound market practices to evaluate derivative contracts, and the nowadays standard results of the modern financial theory, namely the Modigliani-Miller (MM) theorem (see Modigliani and Miller, [9]).

The analytical details of the results presented below can be found in an extended version of this work, available at www.iasonltd.com in the research section.

2  A Continuous-Time Setting for Incremental Valuation of Financial Contracts

 In order to generalise the discrete-time setting sketched in Castagna [3], we needto work in a general equilibrium framework, since it is not generally possible to determine a single equivalent probability measure based on a no-arbitrage argument that relies on a dynamic replication. We will refer to that one outlined in Cox, Ingersoll and Ross (CIR, [5]), although we relax some of its assumptions. Namely, we will work in an economy where a single good is produced by means of N production technologies whose transformation process is governed by a system of stochastic processes.

Each technology is affected by K state variables Yk  (with k= {1…..K} ), whose evolution too is governed by a system of stochastic variables.

There is a single interest rate  at which a fixed number of economic agents may borrow or lend but, differently from CIR [5], we allow for the default of the borrower, which means that the terminal pay-off of a loan includes the expected losses due to the borrowers’ default. Finally, another assumption of CIR [5] we relax is that all economic agents have an identical utility function à la Neumann-Morgenstern: we consider a specific utility function for each economic agent and a general utility function that can be seen as a sort of average of the single agents’ utility functions.

The possibility to have different utility functions allows the presence of different risk-premia over the risk free rate r  within the expected yield of the contingent claims possibly traded in the economy, whose pay-offs may depend on the  K state variable and the wealth of a single agent, or of the entire economy aggregate wealth. The relaxing of the assumptions of the CIR [5] setting are necessary to distinguish between the fair (objective) price of a contract (contingent claim) and its (subjective) value.

Let us consider the value of the bank to shareholders at time t, VB(t): assuming that in the banks’ balance sheet there are I assets Ai(t), cash B(t) and J liabilities (debt) Lj(t), the evolution of the value of the bank can be written as:

The dynamics of all three components is stochastic. As such, the dynamics of the bank value can be described by a general SDE: 

Assuming that any financial contract depend on the K risk factors and that the cash is invested at the risk-free rate r, which is a variable that depends on the stochastic factors as well, it can be shown[1] that 

Some comments are in order: the expectation in Equation (4) is taken under the real world measure P , which means that all the drifts of the risk factors Yk are those of the real world dynamics. It should be noted that the discounting is operated with the risk free rate r as it is typically the case when the expectation is taken under the risk neutral measure Q.

i.e.: when the dynamics of the risk factors are risk neutral. To account for the error made in discounting with the risk free rate pay-offs that depend on real world dynamics of the risk factors, we add an adjustment equal to the risk-premia for all risk factors, referring to each contingent claim in the assets and in the liabilities of the bank’s balance sheet.

We have now to examine two possible cases when the banks buys an assets, or issue debt.

The Bank is Price Taker

 Let us assume that the bank buys all assets in the market and it has no greater bargaining power than any other agent. In this case, the bank must accept the prices set by the market for all the assets it buys. The bank funds the purchase of the assets by issuing debt claims whose price is also set by the creditors, and it passively has to accept it since it has no bargaining power. This assumption implies that the drift of each asset is determined by the market with no possibility for the bank to affect it. The same reasoning can be applied also to debt claims in the liabilities.

In conclusion, when the bank has to issue debt claims whose price is set by the market, it will pay twice the risk-premium: the risk-premium embedded in the price required by the buyers (creditors of the bank), and the risk-premium that the bank has not been able to include in the price. While for the assets the market’s and bank’s risk-premia are affecting the total bank value only for the net difference, for the liabilities the difference is actually a sum of two risk-premia (since they must have opposite signs) and as such acting on an aggregated basis on the bank value.

The Bank is Price Maker

 Let us assume that the bank is able to set the price when buying assets and when issuing new debt. In this circumstances, the price should be such that it embed a risk-premium such that the bank value at least does not decline after the inclusion of the new asset, or new liability, in the bank’s balance sheet.

2.1  An Interpretation of the KVA

The Capital Value Adjustment (KVA) is the most recent item of the list of adjustments to the “pure” value of a contract, and it has been analysed by several authors: for an excellent review of the matter, and the regulatory and managerial concerns that originate the need for such adjustment, we refer to Prampolini and Morini [10] and the bibliography therein, which contains all the relevant literature at the time of writing.


 It is the adjustment in the evaluation formula (4) when the equity capital is set in such a way that it matches the Economic Capital as defined above. Some considerations are in order: 

    • the definition of Economic Capital given above can be applied both to risk-based measure (e.g.: simulation models applied to the bank’s balance sheet) and non-risk-based measures (e.g.: regulatory formulae): for a discussion of both types of measures, see Prampolini and Morini [10];

    • the KVA  is consistently computed only under the real-world measure P and it is discounted with the risk-free rate: these are not assumptions or choices arbitrarily made, but both are naturally derived from the framework sketched above (different discount factors can be found in Prampolini and Morini [10], Kjaer [8], Brigo et al.[1], Green et al. [7]: in some cases the discount factors include the intensity of default of the counterparty and of the bank, in any case they are not consistently derived within an equilibrium framework such as the one above). When one wants to compute the bank’s value under the risk-neutral measure, the inclusion of the  KVA is not consistent, unless the adjustment includes only the difference between the bank’s and the market’s risk-premia, in which case Equation (4) becomes: 

• the remuneration of the Economic Capital is given by only the risk-premia embedded in the assets, cash (bank account) and liabilities, either set by the market or by the bank depending on the bank’s bargaining power in each case. This result in in striking contrast with all the literature publicly available at the time of writing (see the point above), where the remuneration encompasses the entire return on the contracts in the balance sheet. This will produce a double counting of the risk-free rate within the calculation of the bank’s value, which will also imply a wrong adjustment if the bank is able to set a contract’s price. Our result descends from the general equilibrium framework and is valid in the case the value is computed under the real-world measure, otherwise the inclusion of the KVA adjustment is quite untenabale;

    • the risk-premium of the equity capital is a weighted average of the risk-premia of the different items of the balance-sheet: when the bank has pricing power, it can require a premium proportional to the risk of the contract and the incremental Economic Capital needed to preserve the same probability of default of the bank. Pricing based on RAROC criteria are common choices, lately suggested also in Prampolini and Morini [10] and Brigo et al.[1];

The framework that we have sketched above can be used in practice to evaluate the impact of a new contract inserted in the bank’s balance sheet, or: the incremental value of the contract to the bank. We will show how to do that in the second part of the article.

References

[1]  D. Brigo, M. Francischello, and A. Pallavicini.  An indifference approach to the cost of capital constraints: Kva and beyond.   available at arxiv.org, 2017.

[2]  A. Castagna.  On the dynamic replication of the DVA: Do banks hedge their debit value adjustment or their destroying value adjustment?   Iason research paper. Available at http://iasonltd.com/resources.php, 2012.

[3]  A. Castagna.  Pricing of derivatives contracts under collateral agreements: Liquidity and funding value adjustments.   Iason research paper. Available at http://iasonltd.com/resources.php, 2012.

[4]  A. Castagna.  Towards a theory of internal valuation and transfer pricing of products in a bank: Funding, credit risk and economic capital.   Iason research paper. Available at http://www.iasonltd.com, 2013.

[5]  J.C. Cox, J. E. Ingersoll, and S. A. Ross.  An intertemporal general equilibrium model of asset prices.   Econometrica, 53(2):363–384, 1985.

[6]  A. Friedman.   Stochastic Differential Equations and Applications, Volume 1.  Academic Press, 1975.

[7]  A. Green, C. Kenyon, and C Dennis.  Kva: Capital valuation adjustment.   available at arxiv.org, 2014.

[8]  M. Kjaer.  Kva from the beginning.   available at ssrn.com, 2017.

[9]  F. Modigliani and M.H. Miller.  The cost of capital, corporation finance and the theory of investment.   The American Economic Review, 48(3):261–297, 1958.

[10]  A. Prampolini and M. Morini.  Derivatives hedging, capital and leverage.   available at ssrn.com, 2018.


[1] See the extended version of the paper for the complete proof.

Giu 152019
 

Il Final Text del Comitato di Basilea 2016 [1] prevedeva come data di prima segnalazione regolamentare secondo il nuovo framework Market Risk – Fundamental Review del Trading Book – il 31 dicembre 2019. Sia le banche intenzionate a segnalare utilizzando il modello interno sia il Regulator dovrebbero essere quindi nel vivo di application, on-site inspection e validazioni delle metodologie adottate.

Da tale prima indicazione, invece, si sono susseguite innumerevoli evoluzioni normative sfociate in due aggiornamenti recenti: la revisione del Final Text tramite un nuovo documento BCBS di gennaio 2019 [2] e la proposta di modifiche alla Capital Requirements Regulation (CRR II) con un nuovo testo di febbraio 2019 [3], pubblicata nella Gazzetta Ufficiale dell’Unione Europea il 7 giugno 2019 [4][1].

Quest’ultima introduce una fase di reporting “come primo passo verso la completa implementazione della FRTB nell’Unione Europea” oltre ad un’ulteriore dilatazione delle tempistiche per l’entrata in vigore dei nuovi requisiti ai fini segnaletici, di cui non si menziona una data certa (non si esclude che essa possa essere contestuale al suddetto reporting IMA previsto potenzialmente per giugno/settembre 2023).

L’articolo si propone di effettuare alcune riflessioni sulle implicazioni derivanti dall’incertezza normativa dell’attuale timeline che porterà al definitivo go-live della FRTB ai fini segnaletici e di fornire una overview degli ultimi sviluppi metodologici con i relativi impatti sul capitale regolamentare che le banche dovranno detenere ai fini del Pillar I (FRTB Standard vs FRTB Modello Interno).

  1. Timeline: la fase di reporting prima della segnalazione regolamentare

Con la pubblicazione in Gazzetta Ufficiale della nuova CRR II partirà un ulteriore iter normativo per giungere al reporting delle nuove misure di rischio:

  • Entro dicembre 2019 la Commissione Europea dovrà adottare un atto delegato con l’obiettivo di rendere operativa la FRTB ai fini di reporting; trascorso non oltre un anno dall’adozione dell’atto delegato, le banche dovranno cominciare la fase di reporting secondo lo Standardised Approach (SA), a partire quindi dal 31 dicembre 2020;
  • Ai fini del reporting tramite Internal Model Approach (IMA) dovranno essere completati diversi passaggi normativi: entro il 28 marzo 2020 la European Banking Authority (EBA) dovrà emanare specifici Regulatory Technical Standards (RTS)[2] che permetteranno di completare quasi interamente il framework metodologico della FRTB; 3 anni dopo l’adozione dell’ultimo RTS da parte della Commissione Europea si potrà iniziare il reporting, purché vi sia stata l’approvazione del modello interno da parte dell’Autorità di Vigilanza. Salvo ulteriori posticipi il primo reporting è atteso per giugno/settembre 2023.

Grafico 1: iter normativo atteso per il completamento della normativa FRTB e inizio delle fasi di reporting.


Inoltre, il quadro legislativo è completato con le seguenti due indicazioni da attuare entro il 30 giugno 2020:

  • Tramite RTS EBA dovranno essere definite le modalità e la frequenza del reporting;
  • La Commissione Europea dovrà formalizzare al Consiglio e Parlamento Europeo una proposta legislativa per includere la FRTB nel package della regolamentazione CRR III. In tale circostanza sarà indicata la nuova data di entrata in vigore della FRTB ai fini di segnalazione regolamentare del Pillar I.

Il contesto normativo appena presentato si preannuncia di difficile interpretazione soprattutto per la parte di Industry interessata ad adottare i modelli interni FRTB e che, con costanza, perseveranza e notevoli investimenti, ha seguito ed adottato le indicazioni legislative e metodologiche sin dall’inizio della rivisitazione del Rischio di Mercato. Alcune implicazioni rilevanti sono di seguito descritte:

  • Impatti sulla struttura IT: le banche che già adottano i modelli advanced dovranno garantire per un periodo più lungo la produzione delle metriche secondo Basilea III (VaR, SVaR e IRC) e un monitoring, seppur meno frequente, per le misure FRTB; tale parallelismo dovrà essere garantito almeno fino a giugno/settembre 2023, rispetto alla precedente deadline di gennaio 2022, e fino a quando entrerà in vigore FRTB ai fini Pillar I (non si esclude possa essere posticipata a fine 2024);
  • Gli sviluppi progettuali non potranno ritenersi conclusi fino all’emanazione degli RTS EBA e ciò allungherà i tempi di presidio degli sviluppi e soprattutto dovranno essere monitorati attentamente gli impatti su Backtesting e Profit & Loss Attribution (cosiddetti Validation Tests) che incideranno sulla definizione delle serie storiche per desk per l’ammissione a modello interno (vedi par. 2.3);
  • Inoltre, se da un lato si rende vincolante l’inizio del reporting per lo Standardised Approach, dall’altro si lascia alla facoltà della banca di aderire al modello interno (cfr. art. 430b CRR II [4]); al momento, non sono ancora chiari con certezza quali possano essere i vantaggi di un reporting IMA e, di notevole rilevanza, non è escluso che ECB possa effettuare un’ulteriore validazione del modello interno (presumibilmente in forma ‘light’ rispetto a quella del reporting) prima della segnalazione per Pillar I con ulteriori impatti sui costi. Molto dipenderà anche dalla capacità di ECB di sostenere un alto afflusso di richieste di validazione da parte delle banche che vorranno adottare il modello IMA.

2. Metodologia: continui affinamenti

L’incertezza normativa della timeline è accompagnata anche da un continuo affinamento della metodologia, molto spesso a seguito di lunghi dialoghi, analisi ed evidenze tra le parti in gioco. In questo paragrafo cercheremo di effettuarne un breve sum-up con alcune implicazioni operative.

A marzo 2018 il Comitato di Basilea ha pubblicato un Documento Consultivo [5] per chiarire alcuni aspetti metodologici ancora aperti (es. Non-Modellable Risk Factor) e proporre delle revisioni alle disposizioni presentate nel documento di gennaio 2016 (es. P&L Attribution e Standardised Approach). Sulla base delle numerose contribuzioni dell’Industry, il nuovo paper BCBS di gennaio 2019 incorpora quasi tutte le proposte metodologiche presentate nel Consultative Document, modulate in base ai feedback recepiti.

2.1 Standardised Approach

Il paper BCBS di gennaio 2019 propone, fra le revisioni di maggior impatto, una riduzione rilevante dei risk weight per le asset class GIRR e FX, che portano ad una diminuzione del requisito di capitale. Secondo le stime fornite dalla Global Association of Risk Professionals (GARP) sulla base degli esiti dei Quantitative Impact Study semestrali, il rapporto fra modello SA e modello IMA è in continua diminuzione: le prime evidenze numeriche (QIS 1) stimavano un ratio x5, mentre il QIS 9 mostra un ratio x1.6. La riduzione dei risk weight si colloca nel trend di ulteriore contrazione del requisito di capitale standard, con un rapporto stimato verso la soglia x1.5 (da confermarsi sugli esiti del QIS 11).


Grafico 2: evoluzione ratio capital requirement FRTB SA/FRTB IMA.

Il documento propone altre revisioni (possibilità di considerare coppie FX liquide derivanti da triangolazione; scenari di correlazione; trattamento di strumenti finanziari non lineari, formula di curvatura, …) al fine di rendere il modello standard più rappresentativo del rischio effettivo del portafoglio (si rimanda a [6] per overview dell’approccio).

2.2 Standardised Approach semplificato

Nel 2017 è stato pubblicato dal Comitato di Basilea un Documento Consultivo [7] che propone l’applicazione di un modello standard semplificato, laddove siano soddisfatte alcune soglie di applicabilità, al fine di andare incontro alle banche medio-piccole (come descritto in sintesi in [8]). I paper BCBS di marzo 2018 e gennaio 2019 confermano la possibilità di usare l’approccio semplificato, consistente con la ricalibrazione dell’attuale requisito Basilea III tramite l’applicazione di un moltiplicatore al contributo di ogni risk class, ma non viene indicata la precedente proposta di poter utilizzare anche il Reduced Standardised Approach FRTB.

2.3 Profit and Loss Attribution (PLA)

Il Comitato ha monitorato le performance delle metriche dei test PLA, Mean e Variance Ratio, proposte nel BCBS di gennaio 2016 ed ha evidenziato preoccupazioni sulle loro capacità di discernere la vicinanza fra le PnL generate dal Risk Management (RTPL) e dal Front Office (HPL). A tal scopo il paper BCBS di gennaio 2019 introduce due nuovi test, proposti nel Consultative Document di marzo 2018, in sostituzione dei precedenti: Spearman Correlation, come test di correlazione, e Kolmogorov-Smirnov, come test di somiglianza statistica, entrambi calcolati su un anno di serie storica di RTPL e HPL. In base agli esiti dei test, tramite la definizione di soglie, i desk sono categorizzati in tre fasce distinte (Traffic Light Approach)[3]: green (desk eligible: IMA), amber (desk eligible con penalizzazione: IMA + surcharge) e red (desk ineligible: SA). Il Comitato recepisce nel documento di gennaio 2019 le evidenze presentate dall’Industry sulla difficoltà di passare i test e ne ha ammorbidito le soglie a vantaggio della green e amber zone.


Grafico 3: rappresentazione del Traffic Light Approach.


Emergono tre punti critici relativamente alla P&L Attribution. In primo luogo, la problematica della potenziale presenza di cliff-effect più volte sollevata dall’Industry non è stata totalmente superata dal documento normativo: infatti il verificarsi di questa situazione non è esclusa dalla nuova formula di aggregazione proposta. In particolare:

  • Laddove non vi sia un desk in amber zone, la metodologia di aggregazione non varia rispetto alla formulazione originaria ed il requisito di capitale è dato dalla somma dell’aggregato a modello interno dei desk in green zone e dell’aggregato a standard per quelli in red zone. In questa circostanza, la rottura degli hedge esistenti tra desk nelle differenti PLA zone, potrebbe portare ad un requisito più alto rispetto a quello standard su tutti i desk;

Grafico 4: esempio di cliff-effect.
  • La presenza di un solo desk in amber zone fa sì che si modifichi la formula di aggregazione con l’attivazione di un surcharge che, se positivo, annulla la possibilità di osservare un cliff effect (imposto un cap al requisito standard). Tuttavia se il suddetto surcharge, con probabilità residuali assuma valore nullo, si attiva un ulteriore add-on che, ancora una volta, non esclude il verificarsi di un cliff effect.

Grafico 5: possibili casistiche di capitalizzazione in base agli esiti dei test della PLA. L’entità del surcharge e dell’add-on non dipendono dal numero di desk in amber zone ma dalla differenza fra il capital charge a SA ed a IMA aggregato sui desk in green e amber zone.

In entrambe le casistiche, come logico, la presenza di cliff effect finirebbe per vanificare gli incentivi all’utilizzo del modello interno.

Un secondo elemento di criticità riguarda la frequenza di applicazione dei Validation Test ed i relativi effetti ai fini Pillar I: infatti, differentemente da Basilea III, gli esiti della P&L Attribution e del Backtesting per desk dovranno essere applicati non solo nella fase di validazione iniziale ma con cadenza trimestrale[4]. Questo implica che un generico desk può cambiare zona in base al Traffic Light Approach generando potenzialmente una certa variabilità nel requisito di capitale complessivo. Di conseguenza, anche qualora il cliff effect non si verifichi al momento della validazione iniziale, potrebbe presentarsi nel corso delle segnalazioni successive.

Infine, un terzo elemento critico risiede nella difficoltà strutturale per alcuni desk nel superare la P&L Attribution: si osserva infatti che se un generico desk, per mandato, assume rischi relativamente bassi, l’allineamento dei sistemi Risk e Front dovrà essere maggiormente garantito per non incidere, data la vicinanza dei valori di P&L, sui test Spearman e Kolmogorov.

2.4 Non-Modellable Risk Factor

Una delle maggiori innovazioni del mondo FRTB rispetto al contesto di Basilea III riguarda la componente di Non-Modellable Risk Factors (NMRF), che da sempre rappresenta uno dei key point di maggiore dibattito all’interno dell’Industry. Nato con l’esigenza di modellizzare quei fattori di rischio che non soddisfano uno specifico modellability assessment e perciò non eligible ad essere capitalizzati con un modello di Expected Shortfall, quello dei NMRF è un framework in continua (e costante…) evoluzione.

Nella sua formulazione originaria presentata nel Final Text del Comitato di Basilea 2016, tanto il Risk Factor Eligibility Test (RFET) quanto la metodologia di aggregazione proposta per il calcolo dello Stressed Expected Shortfall (SES) erano eccessivamente stringenti, portando a misure di Capital Charge difficilmente sostenibili ed abbattendo gli incentivi all’utilizzo del modello interno. In particolare, data la complessità e la natura dinamica dei portafogli di trading delle maggiori istituzioni finanziarie, nell’Industry sono state individuate sostanzialmente tre problematiche:

  1. Esistenza di uno squilibrio tra i due criteri di modellabilità, infatti il periodo massimo ammesso tra due osservazioni consecutive (30-days gap rule) predomina sul numero minimo di osservazioni in un anno (24-observations rule); quanto detto non si sposa con il fatto che il volume di transazioni complessivo si contrae sensibilmente in corrispondenza di specifici periodi dell’anno e ciò porta al fallimento del RFET. Analisi dell’Industry raccolte da ISDA [9] hanno dimostrato che su un campione di circa 20.000 Risk Factor, circa il 13% degli stessi soffre del problema della stagionalità: rilassando la 30-days gap rule imponendo un vincolo meno stringente di 3 osservazioni in 90 giorni, questi verranno trattati alla stregua di fattori di rischio modellabili con un risparmio di Capital Requirement stimato in circa 10-20%;
  2. Metodologia di aggregazione eccessivamente punitiva, che riconosce solo parzialmente benefici di diversificazione;
  3. Trattamento di ciascun term/nodo di curve/superfici come Risk Factor stand-alone con un conseguente impatto negativo sia in termini di Capital Requirement e sia di modellability assessment outcome.

Tanto con il Consultative Document di Marzo 2018 quanto con il documento BCBS di gennaio 2019, il Regulator ha parzialmente accolto le issue metodologicheavanzate dall’Industry, in particolare:

  1. Allo scopo di alleggerire gli esiti del RFET è stato posto in essere un intervento volto a rendere meno punitivo il vincolo della stagionalità richiedendo una più flessibile 4-in-90 rules oltre a garantire la facoltà di utilizzare le proprie Committed Quote nel contesto dell’assessment di modellabilità;
  2. Si ammette la possibilità di bucketizzare i Risk Factor con un duplice vantaggio sia in termini di RFET (è sufficiente che un solo term sia modellabile per estendere questa caratteristica all’intero bucket) e sia a livello di netting delle sensitivity calcolate intra-cluster;
  3. Riconoscimento di un effetto di diversificazione anche tra NMRF tra loro correlati, che si è tradotto in una metrica di capitale SES sicuramente più sostenibile, seppur essa continua ad occupare una percentuale molto alta sul requisito a modello interno.

Ciò nonostante, sono ancora numerosi i punti di incertezza legati al mondo dei Non-Modellable Risk Factor:

  • Poiché per costruzione i NMRF vengono capitalizzati separatamente e non rientrano nella metrica di IMCC (a differenza di eventuali coperture modellabili), le istituzioni sarebbero meno motivate a coprire e diversificare i loro portafogli. Di conseguenza sotto FRTB le strategie di copertura potrebbero essere scoraggiate a causa di un trattamento potenzialmente punitivo in cui un hedged portfolio implica un requisito di capitale più punitivo rispetto ad uno aperto;
  • Non è stata ancora tracciata univocamente una modalità di determinazione degli scenari di shock estremi oltre alla relativa applicazione al perimetro di NMRF: a tal proposito, come meglio dettagliato nella CRR II all’articolo 325bk, entro il 28 settembre 2020 l’EBA dovrà pubblicare una bozza di Regulatory Technical Standard da sottoporre alla Commissione in merito al topic in oggetto. Ciò nonostante, la stessa European Banking Authority, nel Discussion Paper di dicembre 2017 [10] introduce una procedura armonizzata per il calcolo della componente di NMFR capital requirement, oggetto di esercizi QIS per marzo 2019. Tuttavia, l’approccio proposto è stato oggetto di dibattito nell’Industry, soprattutto a causa della complessità operativa e del significativo effort computazionale richiesto.

In sintesi, resta ancora ampio margine di manovra e ci si attendono ancora parecchi interventi in questo senso, con la speranza che il quadro normativo possa chiarirsi una volta per tutte.

A conclusione di questo paragrafo, emerge che nonostante gli approfondimenti metodologici presentati nel BCBS di gennaio 2019 sono ancora molti i punti aperti che dovranno essere chiariti tramite EBA RTS (Liquidity Horizons, Non-Modellable Risk Factor, Backtesting e P&L Attribution) e, come detto, la pubblicazione di tali documenti è vincolante per il completamento degli sviluppi da parte degli istituti bancari nonché – limitatamente ad alcuni essi – per l’inizio dell’iter di validazione del reporting IMA.

3. Conclusioni

La normativa FRTB è giunta ad una fase fondamentale del suo percorso: dal punto di vista metodologico non sono attesi cambiamenti sostanziali del framework anche se non è da escludere qualche ripercussione sulle metriche (esiti Validation Test e capitale regolamentare); dall’altro, l’ennesimo slittamento dell’entrata in vigore potrebbe compromettere il commitment dell’Industry nell’adozione dei modelli interni in quanto:

1) le banche in fase progettuale embrionale potrebbero posticipare ulteriormente le attività fino a quando non vi sarà certezza del go-live ai fini Pillar I. In questo caso potrebbe materializzarsi il rischio che, nonostante una successiva e buona programmazione delle progettualità della banca, l’Autorità di Vigilanza non riesca a garantire la validazione dei modelli interni in tempi utili per la prima segnalazione regolamentare;

2) le banche in fase avanzata di implementazione si trovano a rischio stand-by degli sviluppi: se il reporting IMA a giugno/settembre 2023 dipenderà dal rispetto dell’iter normativo indicato nel primo paragrafo, è altrettanto vero che risultano mancanti alcuni elementi fondamentali per la completa programmazione delle attività, tra tutti: modalità e tempistiche di richiesta ad ECB della validazione del modello interno (dalle quali dipenderanno la collezione delle serie storiche per Validation Test e la stesura di notevole documentazione); la possibilità di una duplice validation phase; mancanza del go-live regolamentare a fini segnaletici. Tali elementi si traducono in un aumento non trascurabile dei costi e degli investimenti.

Inoltre, indipendentemente dalle modalità con cui le banche porteranno a termini gli sviluppi progettuali, si è enfatizzato come l’adozione dei modelli interni sia sfidante in quanto bisognerà tener conto dei seguenti elementi:

  • Elevati costi iniziali e di mantenimento del nuovo framework FRTB;
  • La divergenza tra i requisiti patrimoniali del modello standard e interno è esigua (ratio stimato 1,5);
  • Il superamento trimestrale dei Validation Test da parte dei trading desk risulta potenzialmente molto impattante nella determinazione del capitale regolamentare.

Le puntate sulla FRTB si sono susseguite con scadenze più o meno lunghe, gli attori che ne fanno parte saranno alle prese con numerosi altri episodi e i colpi di scena potrebbero essere non finiti, ma per questo si rimanda alle prossime puntate…

Contatti

Paolo Gianturco, Senior Partner, Deloitte Consulting, pgianturco@deloitte.it

Michael Zottarel, Manager, Deloitte Consulting, mzottarel@deloitte.it

Andrea Rodonò, Consultant, Deloitte Consulting, arodono@deloitte.it

Elisa Bollato, Consultant, Deloitte Consulting, ebollato@deloitte.it

Ringraziamenti  

Un ringraziamento speciale a Silvia Manera e Antonella Botte per il contributo di valore apportato nella scrittura dell’articolo.

Riferimenti

[1] Basel Committee on Banking Supervision – “Minimum capital requirements for market risk”, gennaio 2016, paper 352

[2] Basel Committee on Banking Supervision – “Minimum capital requirements for market risk”, gennaio 2019, paper 457

[3] European Union ambassadors – Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL amending Regulation (EU) No 575/2013, febbraio 2019, paper 6288/19

[4] Regulation (EU) 2019/876 of the European Parliament and of the Council of 20 May 2019 amending Regulation (EU) No 575/2013 – Pubblicazione in Gazzetta Ufficiale, giugno 2019

[5] Basel Committee on Banking Supervision – “Consultative Document – Revisions to the minimum capital requirements for market risk”, marzo 2018, paper 426

[6] Capizzano, Toto, Boscolo Berto, Sandrone – “Fundamental Review of the Trading Book II – Analisi d’impatto sul nuovo metodo standard”, aprile 2015, www.finriskalert.it

[7] Basel Committee on Banking Supervision – “Consultative Document – Simplified alternative to the standardised approach to market risk capital requirements”, giugno 2017, paper 408

[8] Bonollo M. – “ Il nuovo paper di consultazione su FRTB. Fine tuning normativo o schizofrenia del Comitato di Basilea? Alcune riflessioni”, luglio 2017, www.finriskalert.it

[9] Market Risk Group Meeting, June 2018, link

[10] European Banking Authority – Discussion paper: implementation in the European Union of the revised market risk and counterparty credit risk frameworks, dicembre 2017



[1] L’entrata in vigore è prevista 20 giorni dopo tale pubblicazione.

[2] La CRR II rimanda agli RTS su numerose aree di interesse ma quelli vincolanti per permettere la fase di reporting IMA sono: Liquidity Horizons, Non-Modellable Risk Factor, Backtesting e P&L Attribution.

[3] Il superamento del Backtesting (VaR 99/97.5 vs Hypothetical/Actual P&L) a livello di desk rimane condizione necessaria per il superamento dei Validation Test e quindi per la segnalazione a modello interno.

[4] Rimane confermato anche il Backtesting a livello di Banca che inciderà su eventuali add-on di capitale.

Giu 082019
 

Executive summary

A seguito di inchieste condotte dalla magistratura, nei mesi scorsi gli organi di informazione hanno dato ampio risalto al tema dell’antiriciclaggio. Tali inchieste hanno evidenziato aspetti di mala gestio, negligenza nei processi di controllo, inefficienza e, nei casi più gravi, anche la presenza di elementi di dolo nella condotta di alcuni intermediari. Senza entrare nel merito di tali vicende, in questo breve commento si cerca di esaminare come, ancora oggi, l´applicazione concreta di alcuni aspetti della normativa antiriciclaggio non sia affatto semplice, sebbene siano trascorsi diversi anni dalla sua entrata in vigore.

Gli eventi recenti

Come anticipato in premessa, denunce, inchieste della magistratura e sanzioni irrogate dall´Autorità di Vigilanza in merito alla non adeguatezza dei controlli in materia di antiriciclaggio nei confronti di alcuni intermediari hanno avuto vasta rilevanza negli organi d´informazione sia tradizionali che via web. Si pensi ad esempio (i) al risalto mediatico subito dalla succursale italiana di ING Bank[1], successivo alle verifiche ispettive condotte dall´Autorità di Vigilanza e (ii) alle “significative carenze in tutti i comparti rilevanti a fini antiriciclaggio” ed alle “falle nel sistema informatico Gianos[2]” riferibili a Ubi Banca, che sarebbero emerse a seguito di indagini ispettive mirate da parte dell´Autorità di Vigilanza di settore.

Va detto altresì che, negli ultimi anni, generali carenze nell´applicazione della normativa antiriciclaggio e nell´adeguatezza dei controlli in materia di antiriciclaggio hanno dato luogo a sanzioni erogate dalla Banca d´Italia nei confronti di numerosi intermediari, anche di piccole e medie dimensioni.

Appare quindi spontaneo chiedersi come mai vi sia una così frequente e generalizzata non ottemperanza alla normativa antiriciclaggio da parte degli intermediari e se sia veramente cosi, considerata la crescente attenzione posta dalle banche sui temi di compliance che peraltro hanno generato e generano importanti costi. Si tratterebbe dunque di carenze soggettive da trattare caso per caso? O potrebbero ravvisarsi anche difficoltà sistemiche oggettive? Sarebbero quindi possibili margini di miglioramento?

Le operazioni c.d. anomale e la difficoltà della loro individuazione.

Senza alcuna pretesa di riuscire a rispondere esaustivamente a domande così complesse, cerchiamo di partire da alcuni dati statistici pubblicati dalla stessa Autorità di Vigilanza e relativi alle segnalazioni di operazioni sospette (S.o.s.), pervenute dal sistema bancario italiano e non, all´Unità di informazione finanziaria (UIF). Si comprenderà sin da subito che, a livello sistemico, i numeri in questione sono rilevantissimi.

Alcuni dati essenziali. Nel corso del 2017 sono pervenute alla UIF n. 93.217 segnalazioni di operazioni sospette (numeriche che hanno rappresentato un forte trend di crescita rispetto al passato. Si pensi ad esempio che nel 2013 la UIF aveva registrato circa 64.000 segnalazioni). Di queste oltre 93.000 segnalazioni, la UIF ha trasmesso agli Organi investigativi oltre 47.000 evidenze, pari quindi al 51% di quelle ricevute.  Di seguito un cartogramma con la densità di segnalazioni, tratto dai quaderni di antiriciclaggio riferiti al 2017 pubblicati da Banca d’Italia.

Proprio di recente, anche con riferimento a queste tematiche, è stato pubblicato un documento dalla Uif intitolato “l’impatto delle ispezioni antiriciclaggio sull’attività di segnalazione di operazioni sospette da parte delle banche: un’analisi empirica del caso italiano”[3] da cui è possibile dedurre alcune considerazioni. Un documento che se da un lato ha rappresentato fatti già noti al sistema bancario, dall´altro ha avuto il pregio di consolidare tali considerazioni estendendone la portata ad un pubblico più vasto. In questa valutazione empirica si rappresenta infatti che (i) le ispezioni inducono un aumento delle segnalazioni di operazioni sospette inviate dalle banche nel trimestre successivo all´ispezione e che (ii) l´impianto normativo antiriciclaggio (principalmente con riferimento alla fonte legislativa di livello primario) porta con sé un´asimmetria del sistema sanzionatorio riferibile al fatto che le sanzioni possono colpire l´eventuale omissione di segnalazione di operazione sospetta ma non l´invio eccessivo di report infondati. Tale circostanza potrebbe favorire, almeno in astratto, una interpretazione da parte delle banche (e dei soggetti obbligati in generale) che porterebbe a sovra segnalare a scopo cautelativo (generando così il c.d. effetto “al lupo al lupo”). Ciò rappresenta chiaramente una minaccia all´efficacia del sistema.

In questa ottica, se da un lato va considerato che la segnalazione di operazione sospetta è di per sé affetta da un margine di discrezionalità del segnalante (che cerca di essere minimizzato anche grazie all´emanazione dei puntuali indicatori e schemi di anomalia dalle Autorità di Vigilanza), dall´altro la questione della segnalazione c.d. a scopo cautelativo ha a che fare con tematiche di alto livello come principi etici, costi aziendali e sociali, insomma le logiche di trade off.  

Sempre in tale ambito vanno considerati anche i sistemi di detection delle operazioni anomale di cui deve dotarsi ogni intermediario. Si tratta, in estrema sintesi, di processi strutturati che iniziano con la raccolta e la messa in evidenza di tutte quelle operazioni della clientela che per importo, caratteristiche del cliente, frequenza, controparte, paese della controparte (etc…) possono, almeno in astratto, determinare un rischio potenziale di riciclaggio più elevato[4].

Di fronte a tali evidenze, la Banca (o l´intermediario in generale) è costretta a domandarsi se l´operazione rilevata[5] debba confluire o meno in una segnalazione di operazione sospetta. Ne deriva che anche tali sistemi di detection, a seconda di come essi vengono tarati, possono far parte delle cause per cui il numero delle segnalazioni di operazioni sospette (cautelative o meno) continua a crescere.

Nei processi delle banche e/o nei software da queste utilizzate, sembra riscontrarsi una mera replica della lista degli indicatori di anomalia tradotti in algoritmi statici, senza uno sforzo per un framework globale e robusto.

Ma allora, come fare a generare meno evidenze (siano esse interne all´intermediario e al suo sistema di detection o che sfocino in vere e proprie segnalazioni di operazioni sospette indirizzate alla Uif) e di maggiore qualità?

Per affrontare il problema cerchiamo di fare un parallelismo con quello che ancora oggi é il core business del settore bancario tradizionale: la concessione del credito.

In particolare, se la banca ha un sistema di rating su scala 1 a 10 (con 1 la classe di rating migliore) a quale livello di rating va rifiutata la richiesta di nuova erogazione?Se un cliente ha rating non buono, supponiamo 7, si gestisce il tutto nel pricing (o aumentando le richieste di garanzia), cioè applicando un tasso elevato al prestito, o meglio rifiutare, con il rischio di perdere buoni margini? Certamente, in questo ambito, le risposte dipendono dal risk profile, ma nell´antiriciclaggio, al di là degli aspetti di compliance normativa, c’è un problema in più che appare insormontabile e cioè la difficoltà (o forse l´impossibilità) di condurre un backtesting. Ci spieghiamo meglio:

  • Nell’ambito del rischio di credito, ad esempio, il backtesting consiste nel confrontare i rating (e le PD) a 1 anno con i tassi di ingresso in default o in sofferenza dei clienti dopo 1 anno dalla misura del rating. Così facendo si ottiene una verifica ex-post della qualità dei modelli, ed ex-ante i modelli vengono calibrati per la migliore predittività possibile;
  • Nell´ambito del rischio di mercato, quando si calcola il VaR di un portafoglio con orizzonte 1 giorno, lo si confronta con le perdite e i profitti di giornata, cioè se le perdite superano la massima perdita espressa dal VaR supponiamo al livello 99%. Ci si aspetta quindi che su una opportuna lunga finestra temporale le perdite siano superiori al VaR con frequenza non troppo lontana da 1%. Come utile esempio, la normativa di Basilea sui rischi di mercato e i modelli interni di misurazione, considera ottimo un modello che su 250 giornate abbia, al più, 4 eventi di perdita maggiore del VaR.

In antiriciclaggio, queste fasi ci sembrano di difficile applicazione. Non c’è né un evento ex-post contro cui effettuare il backtesting, né la possibilità di calibrazione dei modelli. Molto spesso, infatti, l´avvio di indagini da parte della magistratura, l´esecuzione di sequestri o provvedimenti di altro genere, divengono noti all´intermediario solo dopo diverso tempo (senza considerare che si tratta di eventi non così frequenti per cui risulta ancor più difficile affidare alla statistica la costruzione di robusti modelli). Ad esempio, con riferimento ai dati richiamati dalla stessa UIF si riscontrano 661 acquisizioni di SOS su 47.000 nel II semestre 2017 da parte della magistratura. Ciò equivale ad un tasso di circa 1.25% che rappresenta un evento raro, paragonabile al tasso di default. Il problema è che a differenza dell’ambito del credito per ovvie ragioni la banca stessa che dovrebbe calibrare i modelli innestati nei sistemi informatici non sa quali siano questi eventi, se non appunto in casi conclamati pubblici, per cui ogni backtesting, appare, in sostanza, precluso.

Ed allora cosa fanno quindi la maggior parte degli intermediari nelle prassi riscontrate dalla Uif? Un po’ per i rischi sanzionatori e reputazionali a carico degli organi aziendali, dei delegati alla segnalazione di operazioni sospette e dei responsabili di primo livello, si attengono ai talvolta rigidi processi interni, alla mera applicazione dei vari schemi di anomalia, e con una buona dose di prudenza sommergono la Uif di segnalazioni, anche quando palesemente riscontrano un rischio bassissimo o nullo.

Qualità dei software in uso agli intermediari. Big Data & Analytics

Riprendiamo il tema delle “falle” nei sistemi informativi descritti in premessa. Un primo punto da ricordare è che le proprietà che un software dovrebbe soddisfare son ormai ben note, e sono per esempio declinate in modo organico anche in alcuni framework normativi, quali il cosiddetto RDARR, risk data aggregation and risk reporting.

Tra tali auspicate proprietà, si ricorda:

  • profilazione, cioè assegnazione di grants ben diversificate agli utenti, in modo che non sia facile, grazie a un meccanismo di contrapposizione di interessi, che via siano “super utenti” fuori controllo;
  • auditability, cioè la tracciatura di tutte le attività effettuate sui dati (ad esempio: inserimento, modifica, cancellazione). Questo si ottiene se il sistema consente di gestire i “log” e anche impostarne il livello di dettaglio, (cosiddetta verbosity). Così facendo si può per esempio “versionare” gli stati del dato, cioè memorizzarne tutti i valori assunti (chi lo ha modificato e quando lo ha fatto);
  • roll back, cioè potere ripristinare i sistemi a una data passata per potere rieseguire i processi in quella stessa data;
  • providing e deproviding, un processo di assegnazione delle utenze e dei profili efficace, e la cessazione delle utenze o modifica a seguito, ad esempio, di cambio di ruolo o di ufficio dell´utente;
  • intermediazione nell’accesso ai dati. Si tratta cioè di porre tra l’utente e i dati (tabelle del database) le opportune interfacce e maschere grafiche (dette GUI), così da impedire che si possa con strumenti informatici quali le query accedere direttamente alle tabelle per effettuare modifiche e cancellazioni.

Riguardo agli eventi richiamati nel primo paragrafo, non si può certo dire in questa sede cosa sia avvenuto. Di certo sembra che i sistemi software utilizzati non avessero all’epoca tutte le necessarie proprietà ed è altrettanto vero che in caso di collusioni di un numero alto di soggetti con logiche fraudolente il sistema informatico non può essere resiliente a qualunque manipolazione.

Ma il vero problema è a nostro parere un altro, se pensiamo alle sfide poste dalle attività di antiriciclaggio nell’intercettare potenziali operazioni sospette. All’avvio degli obblighi normativi, il sistema bancario italiano si è adagiato in modo forse eccessivamente rigido su pochi o forse su un solo sistema software quando, al contrario, una più aperta concorrenza avrebbe stimolato una più rapida ed efficace evoluzione degli strumenti. Basti pensare che anche in altri elementi vitali del sistema informativo delle banche italiane, come a puro titolo di esempio i sistemi di position keeping della finanza o i sistemi di predisposizione dei flussi di vigilanza, vi sono almeno 3-4 soluzioni di mercato in forte competizione che determinano miglioramenti continui[6].

Invece un po’ per questo motivo e anche per le ragioni illustrate nella sezione precedente ci si è adagiati sulla mera ripetizione degli schemi di anomalia, trasformati in “warning” del sistema informatico.

A pensarci bene l´AUI (archivio unico informatico), database core dell´antiriciclaggio, è un archivio multidimensionale che contempla numerosissimi dati riferibili alle operazioni, al cliente ed alla sua controparte, al settore di attività della clientela e a quello geografico. Visti nel tempo, si tratta di serie storiche caratterizzate da intensità, frequenza, ecc. per un totale di molte decine di variabili (“campi”). Il flusso AUI di una banca, in pratica, costituisce da solo un esempio di big data nella sua moltiplicazione di casi (operazioni) e variabili.

Ecco, senza mettere in gioco termini abusati quali machine learning e artificial intelligence, riteniamo che la strada corretta possa essere quella di investire in logiche e strumenti di data mining e discovery, cioè strumenti con efficaci funzioni algoritmiche e di visualizzazione che consentono una rapida e più efficace esplorazione dei dati stessi, una costruzione più dinamica e meno spoglia di semafori di warning, nonché una maggiore aggregazione di dati in modo da consentire analisi e ricerca di potenziali fenomeni “nascosti” nei dati.

Sembra che, negli ultimi 3-4 anni, alcune realtà di grandi dimensioni si siano finalmente mosse in questa direzione. Certo serve anche una evoluzione di prospettiva e/o di skills anche nelle funzioni di compliance e antiriciclaggio, spesso abituate a un approccio istruttorio sui singoli casi e meno ad un´analisi massiva dei dati. Questa prospettiva potrebbe, anzi, dovrebbe, coesistere con un approccio orientato all´analisi dei singoli casi. Se ciò mancasse del tutto probabilmente si perderebbe quella parte della visione logico/giuridica dei fenomeni sottostanti e delle finalità a cui tende la normativa.

Si auspica, insomma, che queste due anime analitiche possano coesistere e lavorare sempre più a stretto contatto, poiché ad oggi a giudicare dai numeri pubblicati dalla Uif, il sistema delle segnalazioni sembra migliorabile.

Riferimenti

i) Banca d’Italia (2017), Quaderni dell’antiriciclaggio dell’Unità di Informazione Finanziaria;

ii) Banca d’Italia (2019), Provvedimento sanzionatorio n.144 7.3.2019;

iii) Borzi N. (2019), “Il software Gianos e le falle nel sistema antiriciclaggio UBI”;

iv) BCBS (2013), “risk data aggregation and reporting”, paper 239;

v) Pierpaolo Fratangelo, Maria Pia Peluso, Banca d´Italia, Le nuove norme antiriciclaggio: i presidi aziendali alla prova del rischio di riciclaggio. Bancaria Editrice 3-2019;

vi) Marco Stellin, La nuova sfida della funzione antiriciclaggio: il collegamento fra rischio di riciclaggio e Risk Appetite Framework;

vii) Luciano Murtas, Intermediari assicurativi di fronte a nuovi adempimenti antiriciclaggio (Diritto24.it);

Siti web consultati:

https://valori.it/il-softaaware-gianos-e-le-falle-nel-sistema-antiriciclaggio-ubi/

http://www.ilgiornale.it/news/ecco-funziona-gianos-sentinella-dell-antiriciclaggio.html

https://www.repubblica.it/economia/2019/03/16/news/ing_stop_operazioni_bankitalia-221756978/

https://www.ilsole24ore.com/art/norme-e-tributi/2017-08-21/vincolo-segnalazione-se-c-e-sproporzione-il-reddito-e-flussi–211135.shtml?uuid=AEazmfFC

https://www.diritto24.ilsole24ore.com/art/dirittoCivile/2019-05-15/intermediari-assicurativi-fronte-nuovi-adempimenti-antiriciclaggio-094634.php



[1] Cfr. per tutti: https://www.repubblica.it/economia/2019/03/16/news/ing_stop_operazioni_bankitalia-221756978/

[2] Cfr. Per tutti: https://valori.it/il-software-gianos-e-le-falle-nel-sistema-antiriciclaggio-ubi/

[3] Lo studio della UIF pubblicato sulla pagina web: http://uif.bancaditalia.it/pubblicazioni/quaderni/2019/quaderno-12-2019/Effetto_ispezioni_estratto_in_italiano_web.pdf utilizza i dati delle ispezioni antiriciclaggio svolte dalla Vigilanza e dalla UIF nel biennio 2012-2013, incrociati con i flussi di segnalazioni di operazioni sospette trasmessi dalle singole banche (ispezionate e non) e con le statistiche sull’attività operativa degli intermediari fornite dai dati antiriciclaggio ‘aggregati’ (SARA).

[4] I fattori che vengono presi in considerazione per la determinazione di una c.d. operazione anomala (che dovrà poi essere evidenziata alla banca) fanno riferimento, tra le altre cose, ai comportamenti enucleati all´interno dei singoli schemi di anomalia pubblicati tempo per tempo dalla UIF nonché al Provvedimento n. 616 del 24 agosto 2010 emanato dalla Banca d`Italia.  

[5] Che certamente deve essere corroborata da un ragionamento complesso e deve dar luogo ad un´analisi approfondita che unisca tutti i necessari elementi soggettivi e oggettivi.

[6]Le nuove tecnologie possono rendere più efficienti ed efficaci i controlli tanto nella fase di acquisizione del cliente che in quella di monitoraggio. Strumenti di controllo biometrico, tecniche di elaborazione massiva dei dati o sistemi di intelligenza artificiale possono, infatti, garantire una piú estesa capacità di captazione delle informazioni rilevanti, ma anche una migliore reattività agli stimoli che possono derivare dalla valutazione di queste attività” (cfr. Pierpaolo Fratangelo, Maria Pia Peluso in Le nuove norme antiriciclaggio: i presidi aziendali alla prova del rischio di riciclaggio. Bancaria editrice 3/2019)

Mag 292019
 

During the last few years, many of our daily activities went through drastic changes due to the growing digitalisation.  Nowadays, the way we interact with each other, perform errands, participate to civil society, and, of course, the way we do business is very different compared to ten or even five years ago.

If one has to pick the most impacted sectors, retail and finance (especially in relation to digital payments) are probably the ones to look at. Think, for instance, to the online shopping business. A decade ago, consumers considered buying online a futuristic and, most likely, not reliable feat[i]. Today, many people will happily ditch their local store in favour of online shopping platforms (or online enabled shopping experiences) when confronted with a better offer[ii].

The current environment originated from a number of factors. First, we have to consider the change in the cultural background of the people. The new generations (like Millennials and Generation Z) are well versed in technology and most of their daily living revolves around it[iii]. Second, the massive and widespread penetration of mobile devices enabled seamless and user-friendly experiences. A growing number of people is now used to this kind of user experience, and they do expect it from the services they buy. Third, there is a mounting regulatory pressure in the financial sector, with particular regard to the Eurozone. Regulatory evolution and the subsequent requirements arising from the new Payment Services Directive (also known as PSD2) are pushing for a more open digital financial market. In particular, when looked in the context of other norms, such as eIDAS, the General Data Protection Regulation (GDPR) and the Network and Information System Directive (NIS Directive), it appears clearly that the European regulators are accelerating toward a Single Digital Market, which will bring many changes to the financial sector as well[iv].

As already said, in the context of the wider financial sector the area that registers the highest degree of change is that of payment. Some non-financial players have indeed entered this market with a number of Fintech solutions that seem to be widely appreciated by the public. International brands like Apple and Samsung introduced their smart payment services[v], along with local start-ups (like the Italian Satispay), which are enjoying a roaring growth as well[vi]. This indicates that the users are not only ready, but also eager to adopt smart payment solutions and drop traditional payment methods like credit cards and money transfers[vii]. In this scenario, traditional players such as banks and insurance companies are still relatively lagging behind. One of the solutions to bridge the gap between expectations and service offering might be to foster the adoption of digital identity solutions and to leverage their full potential.

The concept of digital identity carries a number of benefits for both users and companies. In 2018, the International Telecommunication Union published a document that contains a non-exhaustive list of the most prominent ones such as improving the convenience of users, improving service delivery, lowering the cost of service delivery, creating new revenues opportunities, and enhancing security[viii].

Even though the topic of digital identity is now prominent in many debates about future technologies and digitalisation, it is a relatively dated concept. The idea of digitising identities is old as the internet, if not as old as the concept of computer itself. Throughout the years, this concept grew steadily, following the evolution of the technological environment. The boom of social media drastically moved forward the notion that users online should be somehow identified, although the real pioneer in this field was the Estonian Government, which in 2002 established the first national digital identity scheme in the world[ix].

But what are, precisely, the benefits for the financial sector, and why is digital identity so important? To answer this question, we have to consider what lies at the heart of every financial transaction (not involving cash), which is trust. Users literally entrust financial institutions with their money and to intermediate for them in interacting with other users. Users feel confident in doing so because financial institutions built a solid reputation around their capabilities to prove the validity of financial transactions[x]. Financial institutions are, in the end, providers of trust and some major players in the financial arena, like Mastercard, decided to use this concept to spearhead their entrance in the digital identity arena[xi].

In the day-to-day context of cash-transactions, users do not necessarily need an intermediary to guarantee the validity of the transaction. Everything is performed face-to-face. However, following the significant increase in non-cash payments and non-cash transactions[xii] due to the introduction of digital channels, the landscape has changed. Merchants, in particular, need to verify the identity of person buying their goods with a high level of confidence. This is exactly where financial institutions can play a prominent role.

Compared to other players in the field of identity, financial institutions have clear advantages. As their traditional business already require them to verify the identity of their customer with a high level of assurance, they have the means to translate such a level of assurance into a “commodified trust”. This is something that other companies such as the Fintech companies described above, or social media juggernauts like Facebook and Google, cannot (yet) do. Consider the following example. John Doe wants to buy a bottle of wine from the website of his local liquor store. The shop needs to verify the age of John before performing the payment. Now, both the identity provided by a bank and that provided by other companies indicate the age of John. However, it is more likely that the identity issued by the bank will have a higher level of assurance, since the identity enrolment procedures for banks are stricter and usually involve the verification of nationally-issued IDs. Hence, the shop can have more confidence that John has reached the legal age for drinking alcohol and sell him the desired goods.

Financial institutions, though, are not the only players capable of providing high level of assurance for identities. There is at least one other category, this being national authorities. Most likely, a national authority will have the means to provide for the highest level of assurance an identity can have. However, even when compared to these national actors, financial institutions still have the upper hand. Indeed, even though national digital identity schemes might be extremely reliable (in terms of level of assurance), they are very often limited to a specific country. Cross border digital identity systems are rare and complex to be implemented. On top of the already intricate technical issues, national authorities willing to make their systems interoperable have to face legal and political obstacles. Some supranational authorities are trying to work out the problem, such as the EU with the eIDAS regulation[xiii] and the STORK project[xiv]. However, a real global digital identity initiative is still far from becoming a reality. These constraints apply to financial institutions as well. However, it will be relatively easier for them to establish international identity schemes trough global partnerships with other actors. The flexibility granted by the B2B model enables them to build real international networks their customers can rely upon.

Lastly, an additional yet crucial element makes financial institutions a potential candidate to implement digital identity schemes. One of the key success factor for digital identity is to reach critical mass in a two-sided market. End-users will enrol in the digital identity scheme only if there is a clear value in doing it. The value comes from the participation of service providers to the digital identity schemes. However, service providers will not invest resources if there is no certainty about the share of users they can target (i.e. the name of end-users in the digital identity scheme). Since financial institutions are already well positioned in this two-sided market, they can act as intermediaries. By offering digital identity services to both of the sides, they can ease the matching of demand and supply.

As described, digital identity is becoming pivotal in the context of digital payments and transactions and financial institutions have all the characteristics to become the go-to solutions. In some countries, such as Canada[xv] and Sweden[xvi], financial institutions already play the role of main digital identity provider. However, this should be seen as a starting point. Providing digital identities with a high level of assurance can become the bedrock for new services and new offerings to the clients. For instance, financial institutions can collaborate with operators in other fields (such as e-mobility, e-health, e-government, etc.) to create a really integrated and seamless holistic experience, and promoting the advantages of digital identity beyond the mere financial sector.

AUTHORS

Andrea Rigoni – Partner Deloitte Risk Advisory

Alessandro Ortalda – Senior Consultant Deloitte Risk Advisory


[i]  Data shows that it was not until 2017 that the e-commerce share of total global retail sales surpassed the 10%. https://www.statista.com/statistics/534123/e-commerce-share-of-retail-sales-worldwide/

[ii]  See, for instance, a comparison of purchases from online and physical stores on Black Friday in Australia in 2017 and 2018. https://www.statista.com/statistics/943803/black-friday-purchases-online-physical-stores-australia/

[iii] https://www.inc.com/ryan-jenkins/how-to-secure-millennial-spending-with-mobile-payments.html

[iv] https://ec.europa.eu/transparency/regdoc/rep/1/2018/EN/COM-2018-772-F1-EN-MAIN-PART-1.PDF

[v] https://www.auriemma.group/apple-pay-makes-up-77-of-mobile-payments-among-debit-card-users/

[vi] https://www.ilsole24ore.com/art/finanza-e-mercati/2018-08-10/pagamenti-digitali-satispay-si-allea-cse-ed-entra-30mila-pos-173750.shtml?uuid=AE4SduZF

[vii] https://ricerca.repubblica.it/repubblica/archivio/repubblica/2019/01/14/satispay-arriva-a-quota-mezzo-milione-di-clientiAffari_e_Finanza22.html

[viii] https://www.itu.int/en/ITU-D/ICT-Applications/Documents/Guides/ITU_eID4D_DIGITAL%20IDENTITY_ROAD_MAP_GUIDE_FINAL_Under%20Review_Until-05-10-2018.pdf

[ix] https://e-estonia.com/

[x] https://www.linkedin.com/pulse/why-financial-institutions-fis-drive-digital-id-rob-galaski/

[xi] https://www.mastercard.us/content/dam/mccom/en-us/issuers/digital-identity/digital-identity-restoring-trust-in-a-digital-world-final-share-corrected.pdf

[xii] https://cashessentials.org/app/uploads/2018/07/2018-world-cash-report.pdf

[xiii] https://ec.europa.eu/digital-single-market/en/trust-services-and-eid

[xiv] https://ec.europa.eu/digital-single-market/en/content/stork-take-your-e-identity-you-everywhere-eu

[xv] https://securekeyconcierge.com/

[xvi] https://www.bankid.com/en/om-bankid/detta-ar-bankid lock