L’ESMA ha pubblicato una dichiarazione per migliorare la qualità delle divulgazioni nelle dichiarazioni finanziarie.
L’EBA ha aperto una consultazione sulla raccolta di informazioni confidenziali nell’ambito della BRRD: gli obiettivi sono garantire un’informazione simmetrica e la convergenza delle pratiche.
Il termine ultimo per partecipare è il 27 gennaio 2016.
L’EBA ha reso noti istruzioni e modelli per partecipare al Quantitative Impact Study (QIS) sulla definizione di default. Le istituzioni partecipanti a tale studio dovranno completare i documenti entro il 10 dicembre.
L’EBA ha aggiornato la lista degli strumenti rientranti nel CET 1, aggiornando il documento dopo le ultime modifiche di dicembre 2014.
La Commissione europea sta attuando i passaggi necessari per rafforzare l’Unione Economica e Monetaria (UEM), attraverso l’applicazione del ‘Report dei cinque Presidenti’.
Report dei cinque Presidenti
Comunicato stampa
FAQ
Comunicazione sui passaggi necessari per il completamento dell’UEM
Decisione sull’istituzione di un European Fiscal Board indipendente e consultivo
Raccomandazione (Consiglio europeo) per la creazione di un consiglio per la competitività nazionale nell’area euro
Comunicazione sui passaggi necessari per una più coerente rappresentazione dell’area euro nei forum internazionali
Proposta per stabilire in modo progressivo una rappresentanza unificato dell’area euro nel FMI

1. Regulatory context
In January 2013, the Basel Committee on Banking Supervision (BCBS) issued 11 principles for effective risk data aggregation and risk reporting (hereafter also called BCBS #239) and it outlined the path to compliance for G-SIB and D-SIB[1]. The Regulators drown-up the following deadlines for achieving the full compliance of BCBS #239: January 2016 for G-SIB, 2019 for D-SIB[2].
This principles-based document is intended to address what Supervisors consider as a major weakness that banks carried into the crisis: the inability to understand quickly and accurately their overall exposure and other risk measures that influence their key risk decisions. The principles-based approach used by BCBS has the aim to leave to financial institutions the capability to interpret and conceive a tailored approach for coping with BCBS 239 standards.
These principles-based rules can be a great opportunity for banks in order to transform these requirements in value added points. Therefore, Banks should assess with strategic perception this new regulatory body for driving and steering the activity avoiding a mere “checking-the-list” activity for the compliance.
2. Challenges for Banking Sector
The scenario in which BCBS #239 has to be applied is quite complicated because Banks has complex and structured organizations and they have set-up a risk monitoring view that has always been considered (even by Regulators themselves) as “silos-based” instead of cross risk as outlined by the new ECB rules (i.e. Comprehensive Assessment).. BCBS #239 aims at breakdown the old “silos” view where the risk is monitored for each type without having a common aggregated view of the counterparty. BCBS #239 is crucial to avoid in the future lack of risk monitoring processes that cannot timely control the exposure impacting the going concern of the financial institution. The new regulatory view is forcing the banking sector to find a value added solution for each of the following challenges:
- Data Governance: BCBS #239 aims to improve the governance of data elaborated by IT systems in order to ensure the best data quality. First of all the normative highlights that a clear process for validating the data is crucial to increase the control over them and data quality. The second point outlined in the BIS document deals with the definition of the measure that is crucial for a correct data aggregation process through a data taxonomy. The normative remarks also the need to have a clear documentation in which banks can control and steer the running process with a proper exception or escalation action, if needed.
The monitoring and the creation of these processes should be performed at a group-wide level with an “orchestra leader” that steers all the activities. - Infrastructure & Data Quality: In the financial breakdown several banks show that data capture and aggregation processes are unwieldy and relatively unsophisticated. This needs data cleansing and manual reconciliation before the production of aggregated management reports. In addition, the different risk types require data with varying degrees of granularity, reducing the consistency and quality of data. These activities also increase the attention span of validator on the creation of manual patches for the data squaring instead of assessing the figures and steering the business. Therefore, banks also need the ability to generate aggregated risk data across all critical risk types in all the situations, i.e. normal run or specific “ad-hoc” regulatory request. The BCBC #239 embeds the request to improve the data automation in order to improve data accuracy and timeliness without losing a certain degree of flexibility. In the current days, a new comprehensive risk view is stressing the silos IT systems in order to produce aggregated data with manual corrections at group level. This approach sometimes is affecting the local validation process because the corrections cannot display or recreate in a proper way the local figures validated at facility/product by local validator, as faced during the Asset Quality Review exercise.[3]
- Reporting: Banks have more requirements today when it comes to meet reporting demands. Both National Controlling Authorities and European Central Bank are asking for more information aim at increasing transparency and a clear accountability. Therefore, top management is looking for more information to cope with this requirement and use these additional information sets for a new strategy plan. This scenario is growing the pressure on both Finance & Risk Departments and IT infrastructure as well.
If Banks will identify the correct business mix for winning these three main challenges, they can manage both business activities and capital charge in a more punctual way:
Therefore, due to this wide range of opportunities that banks can envisage, banks should conceive a proper implementation path of the 11 principles of BCBS #239. A clear action plan before starting any activity is crucial for orientating effort and financial resources.
3. G-SIBs approach for compliance
As mentioned in the last status from BCBS and also in the last Deloitte’s assessment, G-SIBs are finalizing the BCBS #239 plan following three main drivers that sometimes display a not forward looking and value creation orientated view:
- Fix or build: Several G-SIBs are focused on the simple filling-in the gaps in order to comply with regulatory requirement and avoid Regulatory fines on January 2016 in case of missing compliance.
- Tactical approach against a Target Solution: The wide range of activities required by BCBS #239 and the short timeframe for applying there are forcing G-SIB to identify alternative path for the compliance. Indeed, Broad strategic transformation of data and technology that achieve the full IT and governance compliance is difficult to finalize in few years. Therefore, each bank is tailoring its tactical solution for achieving the best results. The main drivers that G-SIBs are using in Europe are the following:
- Risk Type: it identifies the risk typology (i.e. Credit risk) and operations that are managing huge exposure in bank portfolio
- Reports: relevant report deliveries to Regulator (i.e. RWA) or Top management
- Audience: final users of the report (i.e. Regulator, Top management, Business Analysts)
- Measures & Attributes: they identify the most critical risk measures/attributes cross risk generated by the banks (i.e. Exposure at Default)
- Business Unit: it identifies the relevant business units in the bank business mix
- Legal entity: it identifies the relevant legal entities in the bank business mix
Based on the possible drivers the definition of a strategy is leveraging on the following mix of approaches:
- Subset of risk reports, data and measures: Top management identifies the relevant risk reporting processes that has to cope with BCBS #239 requirements (i.e. RWA).
- All the risk reports, data and measure for the relevant areas of the banks such as business unit or legal entity: This approach defines the perimeter considering the relevant business area of the bank identified by business volume and risk taken.
- Compliance against Business model modification: G-SIBs banks seem focused to the compliance without taking the opportunity to review their business model in order to catch the business opportunity of the normative.
For all the approaches mentioned in the first paragraph, G-SIBs have considered three relevant points in accordance with its on-going activities in order to take the highest level of synergy. Their action for their action plan will be depicted in next subparagraphs.
3.1 Data Governance
BCBS #239 aims to define a new approach for managing the data governance within the financial institution. Indeed, two main actions are required: Definition of a clear monitoring process and data ownership, data dictionary for the same level playing field of each measure/attribute.
Regarding the first point, a new unit has been considered in several banks for monitoring and developing the new BCBS #239 paradigm: the Chief Data Officer unit (hereafter also CDO). This new unit will play a relevant role in the following areas[4]:
- Voice of the data: providing stewardship, champion and implementing data management strategies and data quality management standards.
- Measure and manage data risk: Developing capability to measure and predict risk and influence enterprise risk appetite at executive tables.
- Influence corporate strategy: enabling a better analytics for decision making, helping refining corporate strategy using the insights gained from effective analysis of data
- Improve the top line: increasing revenues, customer approval rating, and market goodwill through the effective governance and use data.
- Improve the bottom line: concerning low cost of quality and cost compliance, improving productivity through availability of timely correct data.
The prevision of the Chief Data Office will be the corner stone of the entire BCBS #239 due to her/his capability of monitoring the data aggregation process in all its features from policy to aggregation key logic. CDO is going to lead the bank to a long term solution that will cope with both optimization of the available resources and BCBS #239 principles.
3.2 Infrastructure & Data Quality
Secondly, each bank has to carefully evaluate and improve is its IT infrastructure. Before BCBS #239, each bank considered a risk stand-alone without an aggregated view. This view has led to an IT infrastructure that has developed one system for each specific risk, tailored to the business unit that is using it. This approach can produce several misalignments in term of taxonomy and aggregation keys to enable actual communication among different silos. Therefore, a deep review of the IT architecture is needed in terms of:
- Authoritative source: Identifying the source that is the right data recognized by business owner
- Granularity: Identifying the useful level of information available in the system for the business needs
- Aggregation process: defining the rule of aggregation of the inputs received for each risk type
In addition to the points listed above, banks should also consider the data quality tools to be applied in the IT infrastructure in order to provide the most complete and accurate data to business owners.
3.3 Reporting
The third point that banks should carefully consider for the full compliance with BCBS #239 is the design of a reporting process. The new reporting will have a well-known distribution process of the reports that have been considered useful and clear for risk monitoring purposes. Therefore, each bank should define the rules for distributing the report and also the design of each report. Banks should also take care particularly of the designing phase in order to develop a new culture in top management about reporting. Top management should start to rely on standard reports that are automatically generated and use specific drill-down functionalities only for specific “ad-hoc” analysis. This new approach will reduce time and effort on business side to create presentations or templates for specific reports among units that can cost time and effort on user side that now can be reallocated from data crunching to data analysis.
Nowadays, G-SIBs are close to finalize their BCBS #239 plan and the experience and the challenge faced by them should be a good starting point for D-SIBs in order to immediately start a consistent and reliable action plan.
4. How banking sector should cope with BCBS #239 and take economical advantage
The best approach can rely on two relevant cornerstones that are mandatory to cope with BCBS #239 and to achieve the best results with the lower effort.
Before starting any activity, top managers have to evaluate the current status of the capability to aggregate of the bank through a detailed assessment. The goal of the assessment is to understand the capability to define:
- Governance and Responsibility for monitoring cross risk aggregation processes identifying the right owner of each data.
- Clear definitions of measures/Attributes understanding the grade of sharing of the definition of each risk measure/attributes.
- IT architecture to automatically aggregate cross risk data considering the technology already available in the bank.
- Accuracy and clarity for the cross reporting
The final outcome of this assessment is to highlight the areas in with the top management will invest or start recovery actions for the best compliance, avoiding and waste of money and time. During the assessment, managers have to consider all the on-going initiatives to identify which of them can cope with BCBS #239 compliance. This additional task reduces the allocation of budget optimizing the bank’s assets. Leveraging on the on-going projects, top management is going to anticipate the BCBS #239 compliance but also start the sharing of the new governance approach with middle management for a common understanding of the view.
Finalized the assessment, the action plan is needed for filling the BCBS #239 gaps not covered by on-going initiatives already started. In this phase, top managers have not to look through the simple BCBS #239 compliance but they have to consider the opportunities for creating value in the long term. In this respect, a multi-year plan have to be set up (if needed above the regulatory deadline) in order to have a clear definition of the final target and strategic benefits to achieve. Each plan has to address:
- Target operating model to carry over the monitoring and the assessment of the activities in the next years
- Scope and target capabilities to conceive a value-oriented view of scope, in terms of measures and reports and in terms of level at which apply the regulation (i.e. group, legal entity or division). At the same level of granularity, defining individual target aspirations that again are oriented towards generating value will exploit better the potentiality of this regulation
- Quality and controls for all the measures affected by BCBS #239. Define a set of quality aspects that allow measurement and control improving quality performance. It would also be valuable to define evidence that will be collected to prove compliance to regulator. The earlier these goalposts are established and regularly measured, the greater the accuracy and acceleration will be provided to the plan
- Implementation of the IT solution for having the required risk data aggregation level considering all the panel of technology available for improve the aggregation processes
Considering these drivers and the elapsed for the target solution, top management has to define the milestones for both minimal regulatory compliant and finish line for the best economical advantage. This clear definition of the roadmap can properly clarify the path for each of these points maximising the results with the lowest level of expenses but with highest business benefit.
Bibliography
[1] Principle for an effective risk data aggregation and risk reporting, Basel committee for Banking Supervision, Publication #239, BIS, January 2013
[2] G-SIB: Global Significant Important bank. G-SIB is a bank that has global implications in case of its default; D-SIB: Domestic Significant important bank, D-SIB is a bank that affects this home country in case of its default. Ref – http://www.bis.org/publ/bcbs224.pdf
[3] Progress in adopting the principles for effective risk data aggregating and risk reporting, Basel committee for Banking Supervision, Publication #239, BIS, January 2015
[4] Deloitte White paper, Deloitte Consulting, 2013.

In the previous article [RAF15] we stressed the necessity of developing specific measures of the Operational Risk (OpRisk) for the Risk Appetite Framework (RAF) in the financial services’ industry.
Although we recommended considering a performance measure (based on a ratio of the losses over the revenues) rather than a pure risk one (based only on the losses), in this article we will focus our efforts on the estimation of the losses, considering that the revenues are usually provided by the CFO with already well developed and established models.
In particular we suggest to develop two different models: one to cover the Operational Losses (OpLosses) from the Event Types (ETs) 4 and 7, “clients, products & business practices” and “execution, delivery & process management” [BCBS04], related to the Compliance and Organizational Risks. The other one to cover the OpLosses from the ET6, “business disruption and system failures” [BCBS04], related to the Information and Communication Technology Risk (ICT Risk).
The outcomes of both models are useful to measure the OpRisk of the financial institution under examination, but the necessity of distinguishing their results arises from the nature of these OpLosses. As a matter of fact, the ICTRisk’s main effects (the indirect ones) are not usually registered in the datasets, so these models need not be based mainly on the registered losses. On the other hand the Compliance and Organizational Risks (at least in case they intersect the OpRisk, that it is their perimeter that we consider here) are well described by the data collected in the standard OpRisk datasets (considering the OpLosses from the ETs 4 and 7 respectively).
In this article we present a model of the OpLosses from the ETs 4 and 7 and, at the end, we briefly explain how to use the OpLosses’ forecasts to obtain an Operational RAF measure that considers also the related revenues and some Key Risk Indicators (KRIs). Note that, once a model considering also the indirect losses is developed, this procedure could be straightforwardly extended to the second typology of models, obviously choosing proper revenues and KRIs.
1. The model
The idea is to model the cumulative OpLosses from the ETs 4 and 7 of a specific division of a financial institution over a fixed period of time – that goes from one month to one year.
First of all, we consider the specific characteristics of the OpLosses time series, where there is usually a standard quantity of losses per day with few huge peaks – usually clusters of out-of-range amounts in specific periods of the year, e.g., near the closure of the quarters, especially at the end of the year and at end of the 1st Semester.
We divide the cumulative OpLosses (OpL) into two components, the Body (B) and the Jump (J), that respectively represent the most common and small losses’ contribution and the extraordinary (in size) ones’ contribution. Therefore, it holds
with
We assume that the change in a quantity (ΔX for a given quantity X) is the one happening over one day (Δt >= 1).
Note that, if we consider long periods of time, the cumulative OpLosses can be approximated by continuous time stochastic processes. Therefore, regarding the Body component B, we choose to represent it as a scaled Wiener process with drift of the following type:
where µ(t) is the deterministic instantaneous mean of the Body component OpLosses at instant t and σ (assumed constant through time) is the deterministic instantaneous standard deviation of the Body component OpLosses. Finally W is a Wiener process.
Regarding the Jump component, we have to represent not only the severity of the OpLosses, but also the frequency, particularly important for our purposes. So we choose to represent the Jump component J as an inhomogeneous compound Poisson process with lognormal distribution of the following type:
where the frequency of the jumps is described by the stochastic process N (independent from the Wiener process W), an inhomogeneous Poisson process with intensity λ(t), a given deterministic function of time.
This intensity function (λ(t)), necessary to represent the seasonality of the OpLosses, is defined by the scaled maximum of three periodic functions:
where
- θ is a positive constant representing the maximum expected number of jumps per unit of time;
- s(t) is a periodic function representing the normalized jump intensity shape;
- the parameters of s(t) are the following: the period of the function
is represented by the positive value
, i.e. the jump occurrence exhibits peaking levels at multiples of years (usually
annual,
biannual,
quarterly). The first peak of the function
is at time
in [0,k]. Finally, the positive exponent
allows us to adjust the dispersion of jumps around peaking times and to create a wider shape the lower the value is; moreover, it has a stronger effect (i.e. wider shape) the longer the period is.
Note that the form of the function is the one used in the model of Geman and Roncoroni (see [GR06]) for representing the seasonality of the electricity prices. We choose this typology of functions because it fits also the intensity of the OpLosses’ jumps, that usually appear in short (referring to the time) clusters at the end of accounting periods.
On the other hand the severity of the Jump component J is described by the random variables , that are independent and identically distributed (iid) with normal distribution, independent from the Wiener process W and the counting process N.
Summarising we assume the OpLosses happen continuously (as a random walk) through time with sudden independent jumps lognormally distributed (as an inhomogeneous compound Poisson process with lognormal distribution). Thus the distribution of losses at the end of any finite interval of time is the sum of a normal with known mean and constant variance and (eventually) of lognormal(s).
2. The RAF measure
The proposed model (or an equivalent one in the ICTRisk), opportunely evaluated, could be directly considered as a RAF measure (even if we do not suggest that). In fact, we could obtain an empirical distribution of the loss via a Montecarlo simulation procedure. Once the simulations from the current distribution have been performed, we obtain the forecasts (for example quarterly through the year) selecting the quantile we are interested in to represent the Profile of the bank, calling it “Position”. For example we could choose 50%, i.e. we use a VaR(50%). Moreover, at the beginning of the year, we could conventionally choose the VaR(40%) and the VaR(70%) (called “Target” and “Trigger”) to fix for the year under examination the Appetite and the Tolerance values of the division respectively.
Note that the choice of the quantiles should depend on the history and the strategic choices of the company. For example, if we are satisfied with the recent results and there are not relevant changes in the business, we can fix for the Position 50%. On the other hand, if we want to reduce risk since in the last years the business has suffered risks that we eliminated, we would choose a threshold such as 40%. On the contrary, if we have just added a product riskier than the others we offer (because of its related earnings), we would accept a 60% threshold.
In any case we think the Appetite should usually be represented by a quantile lower than the Position one and the Trigger higher because, regarding the former context, the top management usually challenges the business management to perform better and, regarding the latter context, the top management sets a warning value that, if it have been already breached, it would have triggered actions to reduce the risk at an acceptable level.
However, this framework could perform in a better way using a performance measure, rather than a pure risk one. As a matter of fact, we think that it is better to judge the losses’ results (the “consequences” of the risks taken by the financial institution) valuating them in comparison to the ones of the revenues (the “sources” of the risks), rather than valuating them as a pure stand-alone measure. Note that this reasoning is especially correct for the OpRisk, where the losses are strictly related to the volume of the business and so to the earnings.
So we suggest to consider a ratio of the losses over the revenues, obtaining as results new values of the Position, the Target and the Trigger (we keep the same names previously used, but now we consider the revenues as also inserted in the measure). Furthermore, we propose a couple of adjustments to the value of the losses used in the Profile of the measure (i.e. the Position).
The first correction allows us to insert a view on the actual business based on the current year’s estimated revenues, that are easier than the losses to predict (because they are less volatile) and, as said before, have a direct influence on the losses, especially in the OpRisk. Therefore, we introduce what we call “Business Adjustment”: to modify the results of the losses we could use a function of the growth rate of the revenues.
The second correction, called “Indicator Adjustment”, would insert a forward looking perspective focusing, among the others, on the emerging risks that the bank faces and will face, weighting this effect on the strategic choices of the Board/CEO. It would focus on the Compliance and the Organizational Risks (or on the ICTRisk), seen as main drivers, respectively, of the future OpLosses of the ET4 and ET7 (or of the ET6).
The main idea behind the Indicator Adjustment is to insert the “tomorrow” in the forecasts and in the actual losses used in the measure. In that case, we would choose a proper set of KRIs with two drivers in mind: they should give a forward-looking view (with an accent on the emerging risks) and they should be not too many, focusing only on the highest impact risks. Therefore, to insert the second correction we advise choosing a proper corrective capped function whose outcomes depend on the performance of the KRIs chosen.
Note that while the Business Adjustment would only apply to the Forecasts of the OpLosses, the Indicator Adjustment would apply to both the Forecasts and the Actual OpLosses.
Indeed in the former case we would be “refining” the Forecasts, whereas in the latter we would be only partially “refining” the Forecasts. In reality the main goal of the Indicator Adjustment is to highlight the effects of the risks that will happen in the future.
The reason is that the Indicator Adjustment could allow the measure to consider not only the effects that will be seen in the results of the year under examination, but also the ones that will be seen in the following few years. As a matter of fact, it is important to highlight that most of the OpLosses have a time gap, measurable in years, between the date of the Event that originates the Economic Manifestations and their booking dates.
Finally, note that the insertion of the Indicator Adjustment in the measure could also be seen as a way the Board/CEO chooses to discount (or increment) the effective OpLosses of a percentage (linked to the cap of the function) related in reality to the quantity of incentives (or disincentives) adopted by the top management to reduce the future risks that the bank will face because of the choices of the current year.
Bibliography
[BCBS04] Basel Committee on Banking Supervision, “International convergence of capital measurement and capital standards” (Basel II), Bank of International Settlements, June 2004. A revised framework comprehensive version, June 2006.
[BankIt13] Banca d’Italia, “Nuove disposizioni di vigilanza prudenziale per le banche”, Circolare n. 263, December 2006. 15th Review, July 2013, partial version.
[CS14] Credit Suisse AG, “Litigation – more risk, less return”, Ideas engine series – Equity research Europe multinational banks, June 2014.
[FSB10] Financial Stability Board, “Intensity and effectiveness of SIFI supervision”, November 2010.
[FSB13] Financial Stability Board, “Principles for an effective risk appetite framework”, November 2013.
[GR06] H. Geman and A. Roncoroni, “Understanding the fine structure of electricity prices”, Journal of Business, Vol. 79, No. 3, May 2006.
[RAF15] F. Sacchi, “Risk Appetite Framework: considerations on Operational Risk measures – Part I”, FinRiskAlert.com.
[SSG09] Senior Supervisors Group, “Risk management lessons from the global banking crisis of 2008”, October 2009.
[SSG10] Senior Supervisors Group, “Observations on developments in risk appetite frameworks and it infrastructure”, December 2010.

Grazie, presidente, dell’invito a partecipare ai lavori di questa Commissione per questa indagine conoscitiva. Ho già distribuito il testo della mia relazione. Vi farò ampiamente riferimento e cercherò di portare qualche considerazione attorno a due temi: in primo luogo, la lezione che possiamo apprendere dalla crisi finanziaria sui derivati e i rimedi proposti e, in secondo luogo, l’utilizzo dei derivati da parte del settore pubblico.
La mia traccia verte su quattro ambiti. In primo luogo, svolgo una breve premessa sui motivi dell’utilizzo degli strumenti derivati in finanza. In secondo luogo, vorrei cercare di spiegare il ruolo che i derivati hanno avuto all’interno della crisi finanziaria e i rimedi proposti. Infine, mi concentrerò sui derivati nella pubblica amministrazione, sulle evidenze che sono sorte, sui problemi che ci possono essere e su qualche soluzione.
Vorrei innanzitutto soffermarmi sulla necessità che il Parlamento e la Commissione valutino con attenzione il problema regolamentare legato all’utilizzo dei derivati. Siamo in un momento molto importante in termini di direttive e di regolamentazione, ragion per cui è bene che questa Commissione e il Parlamento siano ben addentro a questa vicenda.
Io vorrei trasmettere due messaggi principali. Il primo è che il ruolo degli strumenti finanziari nella crisi finanziaria è stato molto importante, ma che, come cercherò di dimostrarvi e come ho spiegato nella mia relazione, anche la risposta sul piano normativo è stata molto significativa. C’è, quindi, una regolazione più forte su questo tema. Il secondo punto riguarda l’utilizzo dei derivati nella pubblica amministrazione. Penso che, dalla nostra esperienza, siano emersi sostanzialmente tre o quattro punti essenziali. In primo luogo, vi è la necessità che, all’interno del MEF, si distingua in modo chiaro tra la competenza e l’obiettivo di collocare il debito pubblico e il tema della gestione dei rischi connessi, questioni che devono essere tenute distinte. Da questo punto di vista, credo sia importante l’accountability nei confronti di un soggetto terzo, che individuo nell’Ufficio parlamentare di bilancio. In terzo luogo, c’è l’esigenza di tracciare i rischi nel bilancio pubblico.
Partendo dal primo punto, perché gli strumenti derivati?
L’idea è che gli strumenti finanziari, e i derivati in particolare, svolgano un ruolo importante per far funzionare bene i mercati finanziari. Questa è quella che noi economisti chiamiamo la teoria dei mercati efficienti. L’idea è che gli individui, utilizzando i derivati per coprirsi dai rischi, siano in grado, tramite questi strumenti, di allocare al meglio le loro risorse e di coprirsi dai rischi nel miglior modo possibile. Questo approccio, però, come cercherò di dimostrare, ha sottovalutato il problema dei rischi sistemici, in merito al quale dirò qualche parola. Il problema è particolarmente rilevante a seguito della crisi finanziaria.
Sulla crisi finanziaria, come probabilmente saprete, ci sono due interpretazioni. C’è chi sostiene che la crisi sia dovuta a un aumento delle disuguaglianze negli Stati Uniti, tesi in cui c’è del vero, ma che, a mio avviso, non è centrale per quello che vogliamo discutere oggi. C’è poi chi parla di un cattivo funzionamento dei mercati a causa della cattiva vigilanza e regolamentazione. Questo tema impatta su quello dei derivati, in quanto essi sono entrati nella crisi con riguardo a due aspetti: le cartolarizzazioni e l’utilizzo che di essi è stato fatto da parte degli intermediari.
Sulle cartolarizzazioni non entro molto nel merito, mi limito a sottolineare come attraverso la costruzione di quelli che si chiamano bond strutturati, che presentano caratteristiche particolarmente complicate, si è creato quello che in finanza si chiama un «arbitraggio regolamentare». In sostanza, nelle pieghe della regolamentazione ci sono stati vantaggi per tutti: per i risparmiatori americani – i quali, grazie ai derivati, vivevano al di sopra delle loro disponibilità – per le banche che generavano i mutui e guadagnavano elevati profitti, e per le altre banche, che realizzavano quelle che si chiamano operazioni di carry trading, ottenendo profitti significativi.
Questo sistema ha funzionato grazie ad alcuni aspetti: l’opacità delle cartolarizzazioni, il mercato dei bond strutturati, il quale era soprattutto Over-The-Counter e, quindi, difficile da tracciare, nonché i limiti da un punto di vista normativo riguardo ai requisiti di capitale delle banche. Sostanzialmente, si trattava di un favor verso trading book rispetto al banking book, una questione tecnica molto importante. Quello che noi economisti sosteniamo è che, a causa di una regolamentazione inefficace, si è creato un mercato fittizio di queste cartolarizzazioni, in cui il prezzo non aveva alcun valore segnaletico.
C’è un secondo punto importante da non dimenticare: molte banche, negli ultimi dieci anni – in particolare cito il caso delle banche regionali tedesche – hanno smesso di svolgere l’attività creditizia tradizionale, preferendo operare in derivati per realizzare margini elevati. Il modo in cui sono stati utilizzati gli strumenti derivati è stato, a mio avviso, decisivo per ciò che è successo. Cito un dato molto significativo: il 50 per cento delle cartolarizzazioni oggetto dei mutui subprime era negli stessi bilanci delle banche. Se questo non fosse successo, non avremmo avuto la crisi finanziaria che abbiamo conosciuto.
L’esperienza italiana arricchisce il quadro con due episodi: il problema dei derivati nei bilanci degli enti pubblici locali e, in secondo luogo, l’affaire Monte dei Paschi. L’affaire Monte dei Paschi è molto complesso, ragion per cui non entro nel merito. Tuttavia, esso mostra i limiti strutturali che erano presenti all’interno della banca, la presenza di bilanci opachi e la difficoltà per l’Autorità di vigilanza a leggere i bilanci. Mostra, quindi, come i meccanismi di controllo che erano stati posti non funzionassero adeguatamente.
Passo subito a illustrare i rimedi proposti, perché, a mio avviso, questo è un tema importante. Si sostiene spesso che la crisi finanziaria non abbia avuto un impatto significativo sul mondo della finanza. A mio avviso, questa affermazione è falsa, nel senso che il mondo della finanza è capace di reinventare business e attività, ma ci sono persone che hanno perso il proprio lavoro. Che questo sia successo per giusta causa è un altro discorso, ma si tratta di un punto importante.
I rimedi proposti sono stati sostanzialmente due. Da un lato, si è proseguito nella direzione di considerare i mercati come un affare privato e, quindi, con l’European Banking Union tramite il bail-in di una banca si è giunti a dire «Se una banca fallisce, sono affari suoi. Lo Stato non deve più intervenire». La logica sottostante alla gestione delle crisi bancarie in futuro è divenuta sempre di più privatistica. In secondo luogo, si è intervenuti in modo significativo sui derivati, che sono l’oggetto della nostra discussione, almeno in cinque ambiti. Reputo importante che la Commissione sia a conoscenza di ciò, posto che il Parlamento sarà chiamato in futuro a prendere posizione su questo tema.
In primo luogo si è intervenuti con la regolamentazione bancaria. Mi riferisco a tutte le innovazioni proposte in Basilea 2,5 e Basilea 3. Sottolineo semplicemente che si è posto un limite ai vantaggi regolamentari, attraverso, tra l’altro, il CVA (Credit value adjustment). Come secondo punto importante, a mio avviso, c’è stata un’azione, tramite una direttiva in via di attuazione in Italia e con decisioni autonome di autoregolamentazione da parte dell’industria, al fine di migliorare la chiarezza dei bilanci delle società sul fronte dell’utilizzo dei derivati. Ciò avviene tramite l’adozione dei princìpi contabili dell’IFRS 9. Inoltre, non dobbiamo dimenticare – su questo sapete già tutto, perché avete già avuto piena delucidazione al riguardo – che nell’ambito degli enti locali i vincoli in merito all’utilizzo dei derivati adesso sono divenuti fortissimi e che c’è grande chiarezza verso l’amministrazione centrale in merito al loro utilizzo.
Vorrei mettere in evidenza che ci sono anche presìdi sulle cartolarizzazioni e sui mercati Over-The-Counter. Sottolineo un’ultima considerazione riguardo ai presìdi a tutela del risparmiatore. Al riguardo la direttiva MiFID porterà un impatto significativo.
Passo all’aspetto oggetto di discussione all’interno di questa indagine, che è quello dell’utilizzo dei derivati della pubblica amministrazione. Non mi occuperò dei derivati degli enti locali in quanto il danno ormai è stato fatto, il vuoto normativo era evidente ma, a seguito di misure molto forti, per le quali i vincoli all’utilizzo dei derivati sono molto significativi, le possibilità di utilizzarli oggi al fine di abbellire i bilanci degli enti locali sono molto limitate. Ciò vale, in parte, anche per gli enti pubblici. Avete già svolto una discussione sul passaggio al SEC 2010 e sulla decisione di Eurostat 2008. Penso, però, che ci siano ancora delle criticità e su queste mi soffermo.
Vorrei porre in evidenza quattro elementi di criticità su cui credo questa Commissione debba fare una valutazione. Il primo riguarda gli obiettivi e la governance sull’utilizzo dei derivati da parte dell’amministrazione centrale. In secondo luogo, mi porrò la domanda se sia necessario o meno per lo Stato utilizzare i derivati. In terzo luogo, farò qualche riflessione sul mark to market e, infine, mi occuperò del tema della trasparenza. Sono quattro temi su cui sicuramente voi avete già raccolto delle osservazioni e su cui cercherò di dire qualcosa.
Non ho elementi per entrare nel merito della questione se all’interno del MEF ci siano le competenze per gestire i derivati. L’unica cosa che posso dire è che, riguardo al collocamento del debito, il comportamento e l’efficacia del MEF sono sicuramente assodati. Il MEF è stato in grado, anche in situazioni molto difficili, di collocare bene i titoli del debito pubblico, cosa per nulla scontata. Questo aspetto spesso si sottostima. Ho letto le relazioni che vi sono state consegnate in occasione delle precedenti audizioni e vorrei soffermarmi su un punto importante: bisogna eliminare la commistione tra obiettivi, competenze, funzioni e responsabilità di coloro che si occupano di collocare il debito pubblico e di coloro che debbono gestirne i rischi. Si tratta di due ambiti distinti. Ad oggi, in base a ciò che emerge, queste due funzioni e obiettivi fanno entrambi capo alla Direzione II del MEF. Penso che maggiori presìdi di indipendenza su questo fronte siano importanti.
Dico questo perché altrimenti si rischia di confondere i due aspetti. I benefici che traggo tramite i derivati collocando titoli del debito pubblico in asta sono costituiti da un’eventuale riduzione dell’onere del debito pubblico, questo comporta un costo (relativo all’utilizzo del derivato) e il beneficio complessivo non è sempre chiaro. Ex post non si può sapere facilmente se era più conveniente emettere titoli di stato senza l’utilizzo dei derivati. Si finisce per confondere l’obiettivo di coloro che collocano il debito, i quali mirano a minimizzare il costo del debito stesso, e l’obiettivo di coloro che ne gestiscono il rischio. Sono due cose diverse. Vedremo tra un attimo che in qualunque impresa tali ambiti sono separati. Propongo, quindi, di istituire due funzioni diverse, l’una relativa al collocamento del debito e l’altra al risk management, dotando la seconda dell’indipendenza necessaria. L’argomento che il valore di mercato negativo di un derivato non può essere valutato di per sé, in quanto ha prodotto a suo tempo un beneficio in termini di minori oneri del debito pubblico, ha un suo valore ma, per appurare quest’affermazione in modo proprio, l’unico sistema è attribuire i due ruoli a funzioni e uffici diversi.
Cito due esempi. Nelle audizioni che avete svolto sono emerse due situazioni con qualche criticità: l’utilizzo dell’Interest Rate Swap di duration e delle swaption. Con riferimento alla prima questione, in primo luogo, tra i docenti e tra coloro che si occupano di queste tematiche, sappiamo bene che entrare in un Interest Rate Swap in cui si paga il tasso fisso equivale ad aumentare la duration. In base a ciò che è emerso, però, è stata compiuta un’operazione un po’ più complessa: sembra che si sia entrati in uno swap in cui si riceve il tasso variabile e si paga il tasso fisso per coprirsi dal rischio di tasso legato a future emissioni di BOT. Questa è stata l’operazione che è stata fatta dal 1995 in avanti. Questo può avere una sua logica, tuttavia ci sono due limiti importanti: di non coprirsi effettivamente dal rischio di tasso e di assumere – questo è il punto un po’ delicato – un rischio quantità e un rischio collocamento. Questo perché non sono sicuro di poter emettere oggi tutto quello che avevo previsto al momento della stipula del derivato. Questo fa sì, per esempio, che su questo tipo di strumenti non tutte le perdite siano derivate dal calo dei tassi dopo il 2007. Ci potrebbe essere un altro motivo: il tasso fisso del 4,40 per cento che pago oggi in media è probabilmente superiore ai tassi di mercato in quanto tiene conto di un rischio di controparte.
Il secondo elemento «critico», oggetto di discussione nelle precedenti audizioni, riguarda l’utilizzo delle swaption. L’aspetto posto in evidenza in modo chiaro è che le swaption sono state utilizzate per allentare la pressione di alcune controparti sul fronte del rischio sovrano e per facilitarne la partecipazione in asta. In linea di principio, ciò non è negativo, ma deve essere fatto in modo appropriato e l’unico modo è che il loro utilizzo sia valutato da un soggetto indipendente all’interno del MEF o eventualmente da un soggetto terzo.
Vorrei chiarire un punto. Non si tratta di stabilire se il MEF abbia speculato su possibili evoluzioni della curva dei tassi. Si tratta di capire se queste due operazioni siano state fatte in senso proprio, valutandone correttamente i rischi. Che tipo di controlli si possono istituire ? Di qui in avanti farò il paragone con un’impresa privata. So benissimo che il MEF non è un’azienda privata. Gli stakeholder in un’azienda privata sono gli azionisti e gli obbligazionisti, mentre qui sono i cittadini. Cerchiamo di trarre qualche indicazione. In un’azienda privata la funzione di controllo è attribuita a una funzione di risk management che è completamente indipendente da chi realizza e struttura un’operazione di emissione/trading. Il risk manager in un’azienda (compagnia di assicurazione o banca) è indipendente, non può essere cacciato da un amministratore delegato e fa riferimento esclusivamente al Consiglio di amministrazione. Inoltre – attenzione – risponde in solido, sotto determinate condizioni, nei confronti dell’Autorità di vigilanza da un punto di vista pecuniario. La mia proposta è di istituire una funzione di risk management autonoma all’interno del MEF che dipenda dal Ministro o dal Direttore generale. Come secondo punto, occorre definire, come si fa in qualunque impresa privata, le risk policy ex ante, le quali devono chiarire in che modo, di anno in anno, ci si intende coprire dai rischi di tasso, di controparte e via elencando. Proporrei inoltre di istituire – ma non so se ciò sia possibile in un bilancio pubblico – un fondo rischi riguardo a un eventuale mark to market negativo. Comunque occorrerebbe assicurare la tracciabilità di questo eventuale mark to market sulla futura spesa per interessi.
Passo alla seconda domanda: l’utilizzo di derivati è necessario? A mio avviso, lo è in misura molto limitata. Voi avete già ascoltato alcune considerazioni sul fatto che uno Stato che decide di coprirsi rispetto a un possibile innalzamento dei tassi d’interesse compie un’operazione legittima. Concordo. Tuttavia, faccio una riflessione che può sembrare un po’ teorica. Non dobbiamo considerare soltanto il costo del debito, bensì anche le entrate. Una situazione di elevati tassi di interesse normalmente si verifica quando l’economia di uno Stato va bene, il che vuol dire che esso ha entrate fiscali molto elevate. Ciò significa che è già coperto, anche se in modo non del tutto completo, da un rialzo dei tassi d’interesse. Facendo un Interest Rate Swap e non un Cap, che cosa faccio ? Ovviamente, mi tutelo perché non pagherò molto quando le cose vanno bene, ma, quando le cose vanno male, come ora, con bassi tassi d’interesse, non beneficio assolutamente di questo vantaggio. Ci siamo trovati, quindi, in una situazione in cui, facendo un’operazione corretta, che tutti i manuali consigliano a un’impresa privata per tutelarsi dal rialzo dei tassi (minimizzare il costo del debito), in realtà, guardando il bilancio pubblico nel suo complesso, ci troviamo esposti nel caso in cui l’economia non vada bene.
Il secondo punto, a mio avviso, importante è che la crisi finanziaria ha cambiato il mondo. Non sarà più possibile, da qui in avanti, sostenere che uso un Interest Rate Swap per coprirmi dal rischio di tasso in senso stretto. Perché c’è quello che si chiama il basis risk, che è emerso dal 2007 in avanti, ossia il rischio di debito sovrano. Ricordo che lo swap è agganciato all’Euribor, ma che c’è solo una piccola quantità di titoli di Stato legati all’Euribor, i CCTEu, che sono pari a 90 miliardi di euro e costituiscono il 5 per cento del totale. Tutti gli altri titoli sono BOT e CCT, i quali non sono agganciati all’Euribor, sono agganciati al tasso di mercato sui titoli di Stato italiani ed incorporano quindi uno spread, che è legato al rischio del debito sovrano.
Questo è un punto importante, una lezione da apprendere. Certo, prima del 2007 non si poteva apprezzare, ma l’utilizzo degli swap permette di coprirsi rispetto alle variazioni della curva dei tassi per decisione della BCE, ma non rispetto allo spread di mercato sui titoli di Stato italiani. Questo tipo di strumento non è, quindi, necessariamente adeguato per coprirsi dai rischi. Accolgo con favore il fatto che il Ministero attualmente utilizzi strumenti di copertura quasi esclusivamente per le emissioni in dollari, in relazione alle quali, a mio avviso, c’è un’importante esigenza di copertura.
Passo agli ultimi due aspetti che voglio sottolineare. Il primo riguarda il mark to market. In molte discussioni ci si è chiesti se esso sia una perdita effettiva o meno. Non c’è alcun dubbio sul fatto che il mark to market costituisca una perdita effettiva se c’è una clausola di estinzione anticipata. In assenza di una clausola di estinzione anticipata, i 42 miliardi di euro rappresentano comunque il valore atteso dei flussi che il MEF dovrà pagare di qui in avanti. Una cifra così significativa comporta che, a spanne, nei prossimi anni il MEF dovrà pagare tra i 2 e i 3 miliardi all’anno per questi contratti. Del resto, ne ha pagati circa 12,7 dal 2011 al 2014. Il mark to market è quindi un valore prospettico che – attenzione – nel settore privato sarebbe il prezzo di una eventuale transazione e va ad impattare direttamente sul bilancio, attraverso la rettifica delle poste in essere. Non mi interessa sapere se sia effettivamente una perdita. È un valore che definisce una perdita futura, non dico certa, ma assai probabile, che occorre tener presente. In che modo ? Un fondo rischi a copertura dei derivati, a mio avviso, potrebbe essere una soluzione da valutare. Non so come possa essere contabilizzato nell’ambito del bilancio pubblico. Occorre comunque rendere trasparente il mark to market ex post.
Io farei anche molta attenzione all’idea di chiudere queste transazioni con mark to market negativo. Questo farebbe emergere oggi un valore negativo nel bilancio dello Stato. Qui si pone un trade-off importante: pago subito una cifra significativa o aspetto un rialzo dei tassi ? Facciamo attenzione, perché lo scenario giapponese di bassi tassi di interesse è qualcosa che non è del tutto fuori dai nostri orizzonti. Sottolineo un punto importante. Con i Credit Support Annex, che ora il MEF può stipulare, di fatto si va a riconoscere il mark to market seduta stante. Il Credit Support Annex è una forma di collateralizzazione che è in funzione del mark to market. Se io stipulo dei contratti con mark to market negativo, questo viene subito postato sotto forma di liquidità presso un conto terzo e, quindi, comportano un’uscita secca in termini di contabilità dello Stato italiano.
Vengo all’ultimo punto. Quale livello di trasparenza è opportuno ? Proseguo il mio confronto con l’impresa privata: ci sono almeno tre livelli di controllo interno: chi fa l’operazione, il risk management e l’audit. Sono tre funzioni che in una banca sono indipendenti e sanzionati se non svolgono bene il loro lavoro. Inoltre, ci sono almeno altri due o tre soggetti terzi, tra cui il Collegio sindacale, la società di revisione e l’Autorità di vigilanza. Sottolineo un punto. Nessuna impresa rende pubblici, nel dettaglio, i propri conti e le proprie posizioni in derivati, perché questo la esporrebbe a svantaggi competitivi significativi.
Cosa si può fare nel settore pubblico ? A mio avviso, si deve promuovere un controllo terzo rispetto al MEF, che può essere svolto dall’Ufficio parlamentare di bilancio, piuttosto che dalla Corte dei conti. Esso dovrebbe fare una valutazione ex post analitica sui singoli contratti. Questa valutazione dovrebbe concentrarsi sul rispetto delle risk policy e sulla valutazione di come l’impatto di queste misure di risk management abbia comportato, eventualmente, una riduzione del debito, così da fare chiarezza ed evitare che si dica che i derivati hanno portato un vantaggio nella riduzione del costo del debito pubblico, ma che non si è in grado di valutarlo. Questa sarebbe una soluzione Pag. 17del tutto rispettosa delle competenze del MEF, permette di fare un utilizzo dei derivati molto trasparente e credo eviti molti equivoci.
Vengo infine alle informazioni che potrebbero essere rese pubbliche. Credo che l’informazione che attualmente viene resa pubblica sotto forma di dati aggregati, con un maggior dettaglio per tipologia di contratti, sia ciò che si potrebbe rilasciare. Semestralmente il MEF potrebbe rilasciare i singoli contratti e fornire il dettaglio delle operazioni a un’Autorità terza, quale l’Ufficio parlamentare di bilancio, il quale, a sua volta, potrebbe svolgere le verifiche rispetto al fatto che le risk policy siano soddisfatte, che si sia valutato correttamente un derivato e via elencando. Annualmente il MEF dovrebbe stabilire ex ante delle risk policy per verificare i livelli di copertura e, infine, nei documenti programmatici del MEF si dovrebbe trovare traccia della valutazione degli effetti che i derivati avranno sulla spesa pubblica futura. Ritengo che l’esigenza di una più ampia disclosure vada qualificata. C’è bisogno di un soggetto indipendente che possa valutare queste informazioni: Corte dei Conti e Ufficio parlamentare di bilancio possono essere due buoni esempi. Trovo, per esempio, non fattibile l’idea di delegare la gestione del rischio a un soggetto terzo, quale un’Autorità indipendente. La gestione del rischio deve essere vicina a chi fa le operazioni, ma in modo indipendente.
Passo alle conclusioni. In primo luogo, come ho detto prima, è bene che il Parlamento su queste cose sia presente, soprattutto in fase ex ante, di definizione della regolamentazione e di attuazione di alcune direttive. Il progetto Capital Markets Union, per esempio, è molto impegnativo e porterà, nei prossimi tre o quattro anni, a lavorare intensamente in Europa su questo fronte. Credo che il Parlamento svolga un ruolo importante su questi aspetti. Sul fronte dei derivati della pubblica amministrazione, come ho già detto, penso debba essere opportunamente migliorata la governance, andando verso una maggiore distinzione tra le due funzioni. Credo anche, però, che, almeno per il futuro – non so se questa sia una nota lieta – i vincoli che sono stati posti all’utilizzo dei derivati siano molto significativi anche sul fronte dell’amministrazione pubblica.

1. Introduzione
L’Autorità Bancaria Europea (EBA) ha pubblicato il 25 luglio 2013 il documento EBA «Final draft Implementing Technical Standards On Supervisory reporting on forbearance and non-performing exposures», riportante standard tecnici in materia di esposizioni non performing ed esposizioni soggette a misure di “forbearance”, con la finalità di ridurre i margini di discrezionalità esistenti nelle definizioni contabili e prudenziali applicate nei diversi Paesi e agevolare la confrontabilità dei dati a livello UE.
Tali standard (recepiti in ultimo tramite il Regolamento di Esecuzione 227/2015), sono richiamati nella circ. 272 di Banca d’Italia. Le principali novità riguardano:
- l’eliminazione dello status “incaglio” (compresi i c.d. “incagli oggettivi”), sostituito dallo status di “Inadempienze probabili”;
- eliminazione dello status “Ristrutturati”;
- introduzione di un attributo di rapporto, ossia le forborne exposures, trasversale sia agli status non performing che ai crediti in bonis.
La ratio delle nuove norme è quella di individuare in modo puntuale esposizioni che sono state oggetto di rinegoziazione / rifinanziamento a causa di una difficoltà del debitore; tali prassi, approfittando anche dell’eterogeneità delle regole emanate dai diversi regulators, non avevano trattamento omogeneo. Nel particolare caso dell’Italia, ad esempio, se è vero che le esposizioni non performing con misure di forbearance venivano già individuate attraverso la categoria dei “Ristrutturati”, non vi era alcuna regola per identificare le esposizioni con misure di forbearance concesse a esposizioni in bonis. Ciò faceva sì che alcuni istituti potessero “anticipare” il deterioramento concedendo misure di forbearance a posizioni in bonis (ma vicine al deterioramento, o perché sconfinanti sopra soglia da molti giorni o perché vicine ad uno stato di default).
Il seguente articolo ha l’obiettivo di rappresentare:
i. i potenziali effetti del concetto di forborne sul provisioning dei crediti
ii. le complessità operative e i potenziali sviluppi applicativi per la gestione e la segnalazione di tale tipologie di esposizioni;
iii. ulteriori impatti gestionali derivanti dall’introduzione delle forborne exposures.
2. Forborne Exposures: potenziali effetti sul provisioning
Il concetto di forborne exposures si applica alle esposizioni creditizie per le quali siano state concesse modifiche delle condizioni contrattuali o un rifinanziamento, totale o parziale, a causa di difficoltà finanziarie del debitore, che potrebbero determinare una perdita per il finanziatore. Pertanto, ai fini del forborne, non è necessario che il debitore si sia già rivelato inadempiente.
Ai fini del provisioning, gli effetti dell’introduzione del concetto di forborne exposures possono essere diversi a seconda che si considerino posizioni in bonis ovvero posizioni deteriorate.
Provisioning su posizioni in bonis
L’identificazione di posizioni cui sono state concesse misure di forbearance dovrebbe comportare in generale un aumento del provisioning. Il motivo è legato alle modalità operative con cui viene determinato l’ammontare di rettifiche legato all’impairment collettivo. Infatti, sebbene il principio contabile IAS 39 preveda di evidenziare rettifiche per le sole “incurred loss” (ossia perdite che si sono verificate ma che non sono state ancora registrate dalla Banca), nella prassi quasi tutti gli Istituti Bancari partono da un concetto di Expected Loss (perdita attesa), basato sull’utilizzo di PD (probability of default) ed LGD (loss given default), opportunamente corretto per calcolare l’incurred loss (viene utilizzato di solito un fattore chiamato “Loss Confirmation Period” per passare dall’expected loss all’incurred loss).
Al fine di valutare il potenziale effetto peggiorativo sul provisioning per posizioni in bonis, vale la pena distinguere tra Banche che utilizzano i modelli interni ai fini di calcolo dell’Expected Loss ai fini di Basilea III e Banche che non utilizzano i modelli interni:
a) Banche che usano i modelli interni: in questo caso l’effetto dovuto all’individuazione delle forborne exposures dovrebbe essere più limitato, dal momento che la Banca calcola già il provisioning basandosi su PD individuali della controparte, che quindi dovrebbe risentire dello stato di difficoltà del debitore indipendentemente dalla concessione di misure di forbearance. Tuttavia va evidenziato che:
- In alcuni casi (in particolare per esposizioni verso clientela retail) le PD sono stimate a livello di pool o di prodotto. In tal caso, presumibilmente, occorrerà stimare delle PD apposite di pool o prodotto da applicare alle sole esposizioni targate forborne;
- Potrebbero verificarsi delle casistiche in cui la concessione di misure di forbearance, e la conseguente targatura dell’esposizione, anticipino in qualche misura il deterioramento della PD associata alla controparte. In tal caso occorrerà prevedibilmente prevedere alcuni automatismi / calibrazioni del modello che facciano sì che la PD assegnata ad una posizione targata forborne sia coerente con l’accertato status di difficoltà del debitore;
b) Banche che non usano i modelli interni: in tali casi vengono di norma utilizzate, ai fini del provisioning, PD ed LGD medie (di segmento, di tipologia di prodotto etc.). Per tali istituti occorrerà stimare delle PD che, all’interno dei pool individuati, riflettano il deterioramento dello status della controparte.
Provisioning su posizioni deteriorate
Per quanto riguarda il provisioning su posizioni deteriorate, non si rilevano particolari effetti sulle posizioni valutate analiticamente (per le quali, pertanto, è il giudizio del gestore che porta alla definizione dell’ammontare della perdita). Naturalmente una posizione cui si concede una misura di forbearance identifica una posizione per cui la Banca crede nella ripresa, pertanto si può ipotizzare comunque un accantonamento in qualche modo inferiore rispetto alle altre tipologie di deteriorato.
Relativamente alle posizioni valutate “forfettariamente” (ossia posizioni al di sotto di una determinata soglia per cui la Banca determina il provisioning utilizzando metodologie statistiche, sebbene rientrino comunque nell’ambito delle posizioni valutate analiticamente), è possibile invece ipotizzare l’uso di un provisioning “più leggero” per le posizioni targate a forborne. La ratio è esattamente la stessa espressa per le posizioni valutate analiticamente dal gestore: una posizione cui è stata concessa una misura di forbearance è una posizione che, sebbene in difficoltà, viene ritenuta dalla Banca ancora in condizioni di ripresa (con una probabilità alta, visto che la concessione di misure di forbearance comporta un ulteriore costo per la Banca che la concede). Pertanto è ragionevole ipotizzare la definizione di griglie di valutazione più leggere per le posizioni che, sebbene deteriorate, siano state oggetto di concessione di misure di forbearance.
Va rilevato comunque che l’effetto complessivo del provisioning legato all’introduzione del concetto di forbearance non è univoco, anche se presumibilmente nel complesso aumenterà. Infatti, se da un lato è vero che per le posizioni non performing cui vengono concesse misure di forbearance è presumibile ipotizzare un provisioning migliore rispetto alle altre posizioni non performing, è altresì vero che le regole di classificazione introdotte per le posizioni targate forborne comportano una serie di passaggi automatici da bonis a non performing (cfr paragrafo 3), che di per se si rifletterà in un sicuro aumento delle rettifiche. Inoltre l’identificazione della categoria delle forborne exposures nell’ambito dei crediti in bonis comporterà anch’esso un probabile aumento delle rettifiche legate all’impairment collettivo.
3. Complessità operative e potenziali sviluppi applicativi per la gestione e segnalazione delle forborne exposures
La rilevazione di un credito forborne comporta l’avvio di una attività di monitoraggio che prevede la possibilità di uscita da tale stato nel caso in cui siano soddisfatte una serie di condizioni previste dalla normativa EBA. In particolare è necessario prevedere:
I. il conteggio dei giorni di permanenza nello stato di forborne per un periodo di osservazione pari ad almeno due anni per le esposizioni performing (c.d. probation period) ed un anno di osservazione per quelle non performing;
II. la cancellazione dello stato di forborne qualora:
- siano trascorsi almeno 24 mesi da quando l’esposizione forborne risulta performing;
- al termine del probation period non sono presenti esposizioni scadute da oltre 30 giorni;
- per almeno la metà del probation period il debitore ha pagato un ammontare non insignificante (more than insignificant) di capitale e interessi. Per quest’ultimo criterio, l’EBA lascia piena autonomia alle Banche di stabilire la quota di pagamento da ritenersi non insignificante. Alcuni istituti hanno considerato una soglia di rilevanza pari al 5% dell’intera esposizione, sulla base di quanto attualmente avviene per la classificazione delle posizioni a Past Due. Da sottolineare che diverse soglie possono essere definite in base alle diverse tipologie di esposizione, per esempio, è possibile prevedere una differenziazione tra le esposizioni di medio/lungo termine e quelle di breve.
Il monitoraggio delle esposizioni forborne è fondamentale non solo per verificarne le condizioni di uscita: determinati eventi possono comportare anche un cambio automatico dello stato amministrativo della controparte. Di seguito si riportano alcuni esempi pratici dell’effetto della targatura forborne di un’esposizione:
- se un’esposizione forborne performing in probation period, ove provenga dalla categoria non performing, è oggetto di addizionali misure di forbearance o ha uno scaduto maggiore di 30 giorni, il complesso delle esposizioni del debitore deve essere nuovamente classificato come non performing;
- nel caso di una ulteriore rinegoziazione o modifica delle condizioni contrattuali effettuata su un’esposizione forborne perfoming in probation period che non è mai transitata in uno stato deteriorato, la posizione non è da classificare automaticamente a non performing, ma l’evento comporta l’azzeramento dei giorni di probation period (per cui è necessario attendere nuovamente 24 mesi prima di consentire l’uscita dal forborne dell’esposizione);
- nel caso in cui una posizione classificata a Past Due, con almeno un rapporto targato a forborne da meno di 12 mesi, venga regolarizzata, non sussistono più i criteri di classificazione a Past Due (sconfino superiore a 90 giorni, per un importo superiore al 5% dell’intera esposizione). Tuttavia, considerando che la posizione non può essere classificata in Bonis in quanto, se così fosse, non verrebbe rispettato il criterio di permanenza obbligatoria di un anno nel non performing per le posizioni targate forborne, questa deve perciò essere classificata ad Inadempienza Probabile (per un periodo sufficiente affinché il vincolo di permanenza di 12 mesi a deteriorato venga rispettato).
I tre esempi sopra riportati rappresentano soltanto alcune delle casistiche che possono verificarsi a seguito della targatura a forborne di una esposizione. Pertanto, risulta evidente che l’attività di monitoraggio richiesta dalla normativa EBA può essere effettuata solo tramite l’implementazione di soluzioni software che evidenzino:
a) il verificarsi delle condizioni legate al trascorrere del tempo;
b) il verificarsi delle altre condizioni definite per il cambio di stato amministrativo;
c) il raggiungimento di soglie di materialità dei rimborsi.
Vale comunque la pena evidenziare che, per quanto riguarda l’uscita dalla classificazione di un credito forborne dal non performing, è da ritenersi indispensabile la conferma delle condizioni di uscita da parte di un gestore dei crediti problematici.
4. Ulteriori impatti gestionali derivanti dall’introduzione delle forborne exposures
Oltre al monitoraggio dei tempi legati al probation period ed alla permanenza nello stato di deteriorato dei crediti targati forborne, che come evidenziato nel paragrafo precedente richiedono lo sviluppo di soluzioni applicative dedicate, risulta fondamentale prevedere adeguamenti ai processi di monitoraggio gestionale delle esposizioni forborne volti ad identificare tempestivamente tutte le posizioni che, ad esempio, rischiano un peggioramento dello stato amministrativo o l’impossibilità di uscita dal forborne in quanto prive dei requisiti necessari.
A titolo esemplificativo, risulta fondamentale porre all’attenzione del Gestore tutte le pratiche forborne performing, che provengono da un precedente stato di non performing, che presentano uno sconfino prossimo ai 30 giorni. Il riconoscimento di queste esposizioni consente infatti al Gestore di adottare tutte le misure necessarie volte ad evitare il deterioramento automatico della posizione e le relative ripercussioni negative a livello di provisioning (Cfr. paragrafo 2). Solo un presidio continuo e parzialmente automatizzato può assicurare l’individuazione di tali fenomeni in modo efficiente ed efficace.
Ne consegue che il monitoraggio dei crediti forborne non può dunque limitarsi ad una verifica trimestrale delle condizioni di uscita (come imposto dalla normativa EBA), me deve garantire un controllo costante, presumibilmente giornaliero, delle esposizioni.
Un ulteriore impatto gestionale concerne l’individuazione delle esposizioni che devono essere classificate come forborne. Infatti potrebbe essere prevista un’automatizzazione, per alcune casistiche ben definite, di tale attività.
Ad esempio, potrebbe essere opportuno definire una serie di automatismi che attribuiscano la targatura a forborne a tutte quelle esposizioni aderenti ad accordi collettivi che presuppongono la difficoltà finanzia della controparte, come ad esempio potrebbero essere alcune tipologie di Moratorie ABI/MEF. Tuttavia è da evidenziare come l’attribuzione automatica della targatura forborne comporta una serie di complessità operative e di processo: infatti sarebbe necessario comprendere come una tale targatura automatica possa interagire con la necessità di deliberare la targatura stessa, oltre a prevedere la ricezione della targatura nei sistemi di front utilizzati dai gestori (es. PEF). Ad ogni modo l’automatismo consente di ridurre sensibilmente errori dovuti alla mancata targatura a forborne di un rapporto e garantisce, di conseguenza, una maggiore qualità delle segnalazioni.
5. Conclusioni
L’introduzione da parte del regulator della categoria di crediti “forborne”, trasversale sia agli stati di rischio dei crediti deteriorati che ai crediti in bonis, comporta una serie di effetti rilevanti in termini di:
- variazioni in aumento del provisioning su crediti (sia analitico che collettivo);
- impatti applicativi derivanti dalla segnalazione delle informazioni relative alle esposizioni forborne, nonché alle regole ed agli automatismi di classificazione derivanti;
- impatti gestionali derivanti dalla necessità di un presidio stringente onde ridurre il più possibile impatti indesiderati sul conto economico degli istituti.
Il sistema bancario italiano si sta adeguando a tali variazioni modo non omogeneo, “a macchia di leopardo”, con alcuni istituti che stanno ragionando su tutti i possibili impatti ed altri istituti che stanno limitando le proprie analisi agli aspetti più segnaletici e di bilancio.
L’EBA ha aperto una discussione sulla definizione di default, per analizzare diversi aspetti, quali la improbabilità di pagamento e il numero di giorni dopo i quali la definizione è appropriata.
La consultazione terminerà il 22 gennaio 2016.