Feb 192018
 

La notizia non è una sorpresa nel mondo delle criptovalute: un furto di ben 17 milioni di Nano monete, del valore di circa 160 milioni di euro. Il furto (via rete) sarebbe avvenuto presso la società di exchange BitGrail. Gli investitori coinvolti dovrebbero essere circa centomila.

Nano moneta è una criptovaluta, una valuta virtuale sorta sulla scia del successo di bitcoin. BitGrail è un cambia valute moderno che fornisce un servizio di cambio tra le valute correnti (dollari o euro) e le criptovalute. L’unica differenza con quelli che troviamo per strada è che questi exchange svolgono il loro servizio su internet e che le criptovalute possono essere lasciate su un loro conto.

Le criptovalute possono essere utilizzate come mezzo di pagamento con trasferimenti effettuati su una piattaforma digitale. Nel caso più famoso, bitcoin, la piattaforma è blockchain. Per avere accesso a questo circuito occorre cambiare gli euro in criptovalute. Le transazioni di criptovaluta vengono confermate (validate) dai nodi della piattaforma che, risolvendo un complicato problema matematico, certificano la loro validità registrando il trasferimento sulla blockchain. Così facendo il trasferimento di criptovaluta ‘‘entra nella storia’’ e non può essere modificato se non riscrivendo, con l’accordo di una larga fetta di nodi della rete, il registro delle transazioni a partire da quella che si vuole modificare. Tutto avviene sotto condizione di anonimato dei soggetti coinvolti che vengono identificati con un codice.

I furti di moneta, così come la scoperta di bugs nei protocolli utilizzati, rappresentano il punto debole delle criptovalute in quanto la loro credibilità, e il loro successo, dipendono dall’integrità della piattaforma e dalla sicurezza che le transazioni effettuate non possano essere colpite da parte di un hacker. Il problema è che porre rimedio ad un furto è molto difficile (occorre riscrivere il libro mastro della piattaforma) e rintracciare l’autore del furto rischia di essere impresa ancora più ardua. L’unica raccomandazione che può essere fatta a chi vuole avventurarsi in questo mondo è di non lasciare le criptovalute su un exchange ma di trasferirle su un wallet protetto crittograficamente.

E’ un po’ curioso che mentre si discute delle ‘‘sole’’ rifilate dalle banche ai risparmiatori, la vicenda delle criptovalute venga vista con indulgenza. Il fenomeno in realtà è serio. Basta pensare che i possessori di obbligazioni delle banche popolari erano solo 10.000 e che le obbligazioni valevano 330 milioni. L’amministratore di BitGrail ha detto ‘‘Un exchange non è una banca, non è un luogo sicuro. Non c’è lo Stato o l’Europa che rimborsa o risarcisce chi opera nelle criptovalute…” ha ragione mi auguro soltanto che gli investitori fossero stati adeguatamente informati di ciò. Il problema è che siamo in mondo grigio e che il livello di protezione dei risparmiatori è purtroppo molto basso.

 

(pubblicato su Repubblica edizione di Firenze, 15.2.2018)

Feb 192018
 

Institutional investors play a key role in financial markets’ development. They represent the world’s largest source of equity capital and contribute to both efficiency and modernization of the allocative mechanisms of a financial system. Moreover, active institutional investors may foster an improvement in corporate governance practices by monitoring firm management.

The policy debate has recently highlighted increasing concerns about the role of institutional passive investors. Among the others, the IMF has warned about the potentially destabilizing effects of their asset allocation strategies, given that herding behavior may contribute to assets bubbles.

According to the OECD, at the end of 2015 investment funds’ assets under management represented about 104% of GDP in the US, up from nearly 72% at the end of 2008. Over the same period, they reached 56% from 34% in Germany, around 71% from 68% in France, while lagging behind in Italy, where they accounted for slightly more than 17% of GDP (from 13%).

Given the size and the role of institutional investors, understanding the drivers of asset managers’ allocation decisions, and in particular of equity allocation in listed firms, is fundamental on policy grounds, in order for regulators to provide the proper incentives towards virtuous behavior and to address the potential risks posed by the aggregate dynamics of these players in financial markets.

Consob Working paper n. 86 contributes to the literature on the determinants of institutional investors’ equity holdings with respect to 500 large non-financial listed companies in five major European countries (France, Germany, Italy, Spain and the United Kingdom) over the period 2010-2015 (http://www.consob.it/web/area-pubblica/quaderni-di-finanza).

Applying a fixed effect panel and a fractional regression model to actively managed funds referable to three categories of institutional investors, i.e., mutual funds, sovereign funds and hedge funds, the study finds evidence that both country-specific and firm-level characteristics play a relevant role in active institutional investors’ decisions.

 

The data

Our data set includes the end-of-year aggregate shareholdings of active institutional investors (i.e., mutual funds, sovereign funds and hedge funds) in each sample firm, as drawn from Thomson Reuters. For each country, the major 100 listed non-financial companies are considered. Direct shareholdings of financial institutions such as banks and insurance companies were excluded, since their asset allocation choices might be driven by different factors from those influencing ‘pure’ asset managers’ investment strategies. Moreover, passive institutional investors were excluded, given that they replicate some index or benchmark return and therefore assign less relevance than active investors do to macro or company-level characteristics.

Over 2010-2015, institutional investors’ holdings represent on average about 26% of shareholders’ equity. Mutual funds are the largest category among all active institutional investors (with an average of nearly 20.5% equity holdings), while sovereign and hedge funds are marginal. The presence of institutional investors, however, vary a lot across countries, ranging from an average of 13.5% in Italy to nearly 50% in the UK. This evidence mirrors the well-known differences across European financial systems in terms of role of institutional investors and stock market development. Over time, institutional ownership has remained fairly stable in Italy and France, while rising in Spain, in the UK and to a lesser extent in Germany (Fig. 1).

 

Fig. 1: Institutional investors’ shareholdings across the main European countries (2010-2015; data refer to mutual funds, sovereign funds and hedge funds; percentage values)

 Source: elaboration on Thomson Reuters data

 

In order to analyse the determinants of institutional equity holdings, both country-level variables and firm-level variables were included. Country-level variables comprise GDP growth, as an indicator of economic development, and debt to GDP ratio, as a proxy of country risk. Stock market development is captured by total exchange capitalization to GDP, whose values range over the sample period from a minimum of 20.2% in Italy to a maximum of 112.6% in the UK. Finally, the efficiency of the legal and judiciary system is taken into account by including among the explicative country-level variables the insolvency recovery rate and the number of days required to enforce a contract. These indicators also show a striking variability across jurisdictions, as the recovery rate is equal to about 57% in France, followed by Italy at 62%, and to about 89% in the UK, whereas the judiciary enforcement of a contract records Italy as the worst, with 1,183 days, and France as the best, with about 393 days.

As for company-level variables, both market and profitability and financial indicators are included, i.e., market capitalization, free float, share of the first shareholder (as a proxy of corporate control contestability), price-to-book value, dividend yield, return on equity (Roe), sales growth, leverage. Also several indicators accounting for the quality of corporate governance are incorporated, such as CEO duality (i.e., the CEO acting also as a chairman), board size, board members’ attendance rate, percentage of independent directors on board, presence of the compensation and nomination committees, percentage of independent directors sitting in board committees, and a synthetic corporate governance score provided by Bloomberg.

 

Results

In order to analyze the determinants of institutional shareholdings, first a standard panel fixed effect model is estimated. As a robustness check, a fractional regression model was run too, after normalizing institutional holdings within the [0,1] interval, in order to account for possible censoring of the dependent variable.

For each model, several specifications are tested, including either a subset of regressors, or a mix of country-level and company-level indicators. Some specifications include also time dummies in order to control for aggregate fluctuations of institutional ownership over time, due to market turmoil, changes in European regulation, technological progress, etc.. Each specification is reiterated for each class of institutional investors (i.e., mutual, hedge and sovereign funds), in order to control for differences in their business model.

The results of the fixed effect regression for the institutional investors as a whole are in line with previous empirical evidence, as investors are found to prefer listed companies in countries with higher GDP growth, lower debt-to-GDP ratio and more efficient legal systems.

As for firm-level variables, common indicators such as liquidity (proxied by free float), profitability and financial leverage are statistically significant, at least in some specifications.

The evidence for corporate governance variables is less conclusive (possibly due to missing data), except for board size, recording a negative impact, and the percentage of independent directors, which is estimated to have a positive impact. Overall, less cumbersome and more independent boards seem to be appreciated by institutional investors.  Further corporate governance variables (e.g., CEO duality, a synthetic governance quality score) turn out to be statistically significant when the fractional regression is run. With respect to the impact of corporate governance, however, further investigation might be needed in order to test whether good governance is endogenous to institutional holdings, i.e., whether it is the presence of active asset managers in a listed company to raise governance quality rather than the other way round.

Finally, some specifications concerning sovereign and hedge funds equity holdings seem to defy conventional wisdom (e.g., the GDP growth is estimated to have   a negative impact). However, this evidence might be consistent with the contrarian investment policy followed by many hedge funds, whose raison d’etre often consists in betting (and hence, taking positions) against mainstream market views.

Feb 122018
 

Lo scorso 31 gennaio l’EBA ha reso noto le caratteristiche dello stress test che verrà condotto nel 2018.

Non molte sono le novità rispetto all’esercizio condotto nel 2016. Anche nell’anno in corso infatti non verranno definite delle soglie sulla base delle quali individuare, in modo oggettivo, le banche che hanno superato o meno il test, come invece era avvenuto nel 2014 in occasione del lancio del primo pilastro della Banking Union. Nell’ambito del Supervisory Review and Evaluation Process (SREP) si valuterà l’opportunità e l’esigenza di richiedere ai singoli istituti interventi alla luce delle evidenze degli esami. Ci sarà comunque ampia trasparenza sui risultati dei test, che verranno diffusi il 2 novembre prossimo.

Anche da un punto di vista tecnico non si ravvisano grandi cambiamenti. L’ipotesi sottostante sarà infatti quella della valutazione statica dei bilanci. In altri termini, si prenderà a riferimento gli ultimi dati di bilancio disponibili, relativi al 2017, e ipotizzando che il management non intervenga variando il business mix della banca si valuteranno gli effetti fino al 2020 di uno scenario macroeconomico e finanziario avverso.

Anche il perimetro di banche considerato sarà tendenzialmente lo stesso del 2016. Saranno infatti 48 (51 nella precedente tornata di stress test) le banche esaminate, di cui 33 operanti nell’ambito della Banking Union, che complessivamente rappresentano circa il 70% degli asset complessivi dell’industria bancaria europea. Per l’Italia saranno esaminate Unicredit, Intesa-SanPaolo, Banco BPM e UBI.

Unico cambiamento di rilievo, che potrà impattare in modo significativo sugli esiti dei test, sarà l’incorporazione degli effetti derivanti dall’introduzione dell’IFRS 9. Le banche che, a partire dall’anno in corso, sono tenute a rispettare il nuovo standard contabile dovranno quindi stimare gli accantonamenti richiesti a seguito del deterioramento dei crediti, per effetto dello scenario avverso, non solo in una prospettiva di 12 mesi ma per tutta la vita residua del finanziamento.

Le caratteristiche dello scenario avverso

Come di consueto l’European Systemic Risk Board (ESRB) e la BCE hanno definito le specifiche dello scenario avverso, che si affianca alla previsione dello scenario di base stabilito dalla BCE.

Sono quattro le fondamentali ipotesi sottostanti lo scenario avverso:

  • brusca e intensa revisione del premio per il rischio sui mercati finanziari globali, legata fondamentalmente a shock sulle politiche condotte al di fuori dell’Unione Europea, che restringeranno in modo consistente le condizioni finanziarie. La reazione sui mercati azionari e obbligazionari sarebbe quella di una forte repricing rispetto alle alte quotazioni osservate negli ultimi mesi;
  • aumento dell’incertezza circa la sostenibilità dei debiti pubblici e privati, a fronte dell’aumento del premio per il rischio, con conseguente impatto anche sulla stabilità politica di alcuni paesi;
  • incremento del rischio di liquidità nel settore finanziario extra-bancario, con potenziale contagio all’intero mercato finanziario;
  • circolo vizioso tra bassa crescita nominale e redditività bancaria in un contesto in cui diversi sistemi bancari europei sono ancora caratterizzati da punti deboli (ad esempio l’eccessiva incidenza degli NPL, la concorrenza degli operatori extra-bancari, gli alti costi operativi) che necessitano cambiamenti strutturali.

A fronte di questo quadro particolarmente negativo si osserverebbe, per l’intera Unione Europea:

  • una deviazione (cumulata) del Pil, rispetto al baseline scenario, dell’8,3% nel 2020;
  • un aumento della disoccupazione di 3,3 punti percentuali nel 2020;
  • una caduta cumulata dei prezzi al consumo di 3,5 punti percentuali;
  • una riduzione dei prezzi degli immobili residenziali (commerciali) del 27,7% (19%) al di sotto dello scenario di base nel 2020.

Rispetto al passato lo scenario avverso risulta essere caratterizzato da una maggiore severità, sia se paragonato agli stress test condotti nel 2014 che nel 2016 (grafico 1).

 

Grafico 1. Scarti rispetto alla baseline del tasso di crescita del Pil dell’Unione Europea


                                                                                                  Fonte: EBA.

 

Osservando i dettagli relativi ai principali paesi dell’Unione Europea, si nota che la Svezia sarebbe quella più colpita dallo scenario avverso secondo le valutazioni di ESRB e BCE (grafico 2). Nello specifico il Pil svedese perderebbe circa 16 punti, rispetto allo scenario di base, nel 2020. Rilevante sarebbe anche l’impatto per Irlanda e Lussemburgo. Per la Germania l’effetto dello scenario avverso sarebbe quello di una perdita di Pil pari a 8,6 punti, superiore a quella della media dell’Area euro (-7,8). Meno colpite sarebbero invece Spagna (-7), Italia (-6,5) e Francia (-6,4).

Il differente impatto tra i paesi europei sarebbe essenzialmente legato al diverso grado di apertura al commercio con l’estero e alle vulnerabilità presenti nel mercato immobiliare, in particolare per effetto di sopravalutazioni nelle quotazioni delle abitazioni/uffici.

 

Grafico 2. Impatto cumulato sul Pil dello scenario avverso rispetto alla baseline nel 2020


Fonte: elaborazioni BEM Research su dati EBA.

 

Conclusioni

La nuova tornata degli stress test che l’EBA si accinge ad avviare non ha introdotto forti innovazioni metodologiche, probabilmente auspicabili visti i risultati non sempre soddisfacenti dei passati esami (si veda Barucci, Baviera e Milani, 2018). Sebbene i level 2/3 asset, titoli il cui valore può essere desunto solo attraverso stime definite da modelli sviluppati internamente dalla banca, saranno sottoposti allo stress test per valutare dunque la robustezza dei modelli di pricing interni, il focus sembra essere ancora fortemente rivolto al rischio di credito. La maggiore severità dello scenario avverso, unita all’applicazione dell’IFRS 9, determinerà presumibilmente una forte penalizzazione per le banche tradizionali, ovvero quelle prevalentemente concentrate nell’erogazione del credito come le banche italiane.

 

Bibliografia

Barucci E., R. Baviera, C. Milani, The Comprehensive Assessment: What lessons can be learned?,  The European Journal of Finance, 2018.

Feb 012018
 

EIOPA has recently published the risk dashboard (RDB) update at January 2018. The RDB is published on a quarterly basis, showing the level of risk for 8 (=7+1) risk categories. This is the outcome at January 2018:

 

Some comments

  1. Macro risks [high, stable]

This is an overarching category affecting the whole economy, which considers economic growth, monetary policies, consumer price indices and fiscal balances.

The data show an economic environment that remains fragile because of the enduring low-yields. The GDP forecast continues to increase (it should approach 2.3% over the next year) and the unemployment rate to decrease (6.7%), but the fiscal deficit confirms the persistence of structural imbalances (-2.2% of the GDP)

  1. Credit risks [medium, stable]

This category measures the vulnerability to the credit risk by looking at the relevant credit asset classes exposures combined with the associated metrics (e.g. government securities and credit spread on sovereigns). The credit risk is still not to be properly reflected in the market prices, it remains stable while the observed spreads continue to decline: corporate bond spreads continue to be negatively related to non-financial corporates’ debt service, pointing to a potential risk mispricing.

  1. Market risks [medium, stable]

This vulnerability of the insurance sector to adverse developments is evaluated based on the investment exposures, while the current level of riskiness is evaluated based on the volatility of the yields together with the difference between the investment returns and the guaranteed interest rates. Market risks remain stable, despite a reduction of the volatility of prices (but the book value of European stocks, that moves in the direction of risk increase)

  1. Liquidity and funding risk [medium, stable]

The vulnerability to liquidity shocked is monitored measuring the lapse rate, the holding in cash and the issuance of catastrophe bonds (low volumes or high spreads correspond to a reduction in the demand which could forma a risk). The overall assessment shows that liquidity is not a major issue for the insurance industry, moreover the CAT bond issuance significantly decrease when compared to the record high registered during the previous quarter: the low volume of issued bonds makes the indicator less relevant.

  1. Profitability and solvency [medium, stable]

The solvency level is measured via SCR and quality of OF, while the profitability via return on investments / combined ratio for the life / non-life sectors. The SCR ratios generally improve thanks to an increase in the OF: (199%, +6%) for the groups, (190%, +10%) for the life solo undertakings, (224%, +5%) for non-life solo. The net combined ratio deteriorates in the tail (90 percentile) of its distribution, though the median value is still below 100%.

  1. Interlinkages and imbalances [medium, stable]

Interlinkages are assessed between primary insurers and reinsurers, insurance and banking sector and among the derivative holdings. The exposure towards domestic sovereign debt is considered as well. Data show a slight increase in investment exposures to the different financial services (banks and other insurers). The median value of the reinsurance part of premium remains stable, as the insurers’ derivative holdings.

  1. Insurance (underwriting) risk [medium, increasing]

Indicators for insurance risks are gross written premia, claims and losses due to natural catastrophes. The risk increases to a medium level, driven by the significant increase in the loss ratio (average value from 60% to 65%, 3rd quartile from 71% to 81%) resulting from the impact of the catastrophic events observed in Q3 (mainly on reinsurers’ technical results). The impacts of hurricanes Harvey, Irma and Maria was already foreseen in the previous RDB. Other indicators, such as the growth rate of gross written premiums for life and non-life, still point to a stable risk exposure.

  1. Market perception [medium, stable]

The market perception remains constant. The quantities assessed are relative stock market performances (insurance stock performed slightly better than the Stoxx 600: +1.5% life, +0.5% non-life), price to earnings ratio (increased from the previous released: average from 11 to 13, 3rd quartile from 15 to 18), CDS spreads (average value decreased from 60 to 50) and external rating outlooks (marginally improved).

Gen 252018
 

Blockchain holds great promise to become a new standard for financial transactions. It is designed to record and check the validity of transactions using a consensus-based mechanism, without third parties guarantees.  It began as a validating technology for Bitcoin digital currency, but its applications are spreading across many different types of contracts. This rapid diffusion brings along a completely new set of technological challenges, demanding equally fast solutions.

Introduction to Blockchain Technology

 

Gen 232018
 

With discussion of systematic strategies becoming more prominent among fund selectors, do people actually know what they are buying into?

In this exclusive piece, financial professional and quantitative investment specialist Elisabetta Basilico looks into the ‘algorithm aversion’ which could be holding back greater investor uptake.

 

As a quant by training, I often need to explain the big difference between someone like me and a more traditional discretionary investment manager. To me, it comes down to emotions.

Both I and a systematic manager make investment decisions based on rules, evidence and algorithms, whereas the discretionary manager includes his/her opinions and personal judgement – or those of others – into the process.

Despite their recent growth, the reality is that discretionary managers win the battle over investors’ assets. For instance, in the hedge fund space only 31% of the managers are systematic and they manage 26% of the total AuM (Harvey et al., 2017).

Numbers are not much different in the US equity mutual fund space. According to Abis (2017), quantitative equity funds manage 14% of the total US equity mutual fund assets.

Are these numbers justified by risk adjusted performance? An article published in the Journal of Portfolio Management this summer attempts to answer this question.

Campbell Harvey from Duke University and two colleagues analyse “selection and survivorship” bias-free data on 9,000 hedge funds over the period from 1996 to 2014.

By using an algorithm text analysis, they classify the funds into discretionary and systematic and start crunching performance statistics (below is the summary table taken from the article).

Systematic Macro Discretionary Macro Systematic Equity Discretionary Equity
Return average 5.01% 2.86% 2.88% 4.09%
Return attributed to factors 0.15% 1.28% 1.77% 2.86%
Traditional 2.08% 1.58% 1.47% 2.19%
Dynamic 1.28% 0.98% 0.23% 1.08%
Volatility -3.21% -1.28% 0.07% -0.41%
Adjusted return average (alpha) 4.85% 1.57% 1.11% 1.22%
Adjusted return volatility 10.93% 5.10% 3.18% 4.79%
Adjusted return appraisal ratio 0.44 0.31 0.35 0.25

 

The risk and factor adjusted performance results (summarised by the appraisal ratio) show that, at minimum – and we are trying to be conservative here – systematic macro and equity funds performed at least as well as the discretionary funds.

Another recent working paper by Simona Abis, a Columbia University researcher, investigates the universe of US equity mutual funds.

She finds, while discretionary managers have greater risk-adjusted performance in recessions, quantitative managers display better portfolio diversification and risk management throughout the business cycle.

Additionally, the author finds that quantitative managers, analysed in her sample, charge 10% lower expense ratios and 9% lower management fees.

Inside aversion

So why aren’t investors buying more “systematic” investment styles? In a recent paper, a trio of scholars from the University of Pennsylvania, talks about a phenomenon called “algorithm aversion”.

The authors performed a series of experiments. They asked participants to predict real outcomes from real data by giving them the possibility to bet on human forecasters or on a statistical model.

The statistical model outperformed the humans in the forecast but nonetheless it is not a perfect tool, meaning it did make some mistakes.

In the different experiments, the participants were first allowed to observe the human forecasts but not the model and vice versa as well as they observed both.

The authors found that, while seeing a model make relatively small mistakes consistently decreased the participants’ confidence in the model, seeing a human make relatively large mistakes did not consistently decrease their confidence in the human.

In general, people are more likely to abandon an algorithm than a human judge for making the same mistake. We tolerate human errors at a higher rate compared to machine errors.

Scientific evidence on the superiority of algorithms and models to make forecasts in many aspects of life is plentiful and it goes back a long way (Meehl, 1954; Dawes, 1979; Silver, 2012)). However, people prefer humans over algorithms.

With our biases, we are precluding superior approaches in tackling many tasks, not just investing. This is a problem for society.

Gen 162018
 

Le ‘Initial Coin Offering’ (comunemente denominate ICOs) sono uno strumento di finanziamento innovativo che ha visto una straordinaria crescita di popolarità negli ultimi mesi e in particolare nella seconda metà del 2017. Numerosi progetti imprenditoriali in fase di startup hanno approfittato di questo nuovo meccanismo di raccolta di fondi per finanziarsi attraverso le criptovalute. Nella pratica, una ICO consiste in un appello rivolto a tutti i navigatori di Internet per contribuire a finanziare un progetto versando Bitcoin o altre criptovalute in cambio di ‘token’ che serviranno per avere accesso a diritti esclusivi quali la partecipazione ad una community, l’acquisto o l’utilizzo di servizi, o anche la compartecipazione agli utili del progetto stesso. I token sono generati attraverso una piattaforma blockchain (la più usata finora è stata Ethereum per la sua flessibilità). Le ICOs, a differenza del crowdfunding tradizionale, consentono di bypassare i portali di intermediazione e i circuiti tradizionali di pagamento come le banche e le carte di credito, con tutti i vantaggi (rispetto ai costi) e svantaggi (rispetto alle garanzie per i contributori) del caso.

Secondo il portale Tokendata.io, ad oggi le ICOs hanno consentito di raccogliere oltre $ 5.3 miliardi a livello mondiale: si tratta di una cifra importante, che è destinata a crescere ulteriormente nel 2018, nonostante i dubbi e lo scetticismo verso questa nuova opportunità, se non a volte l’aperta ostilità (Cina e Corea del Sud hanno vietato le ICO, altre autorità di mercato hanno messo in guardia i risparmiatori).

Il gruppo di ricerca di Finanza Aziendale del Politecnico di Milano ha analizzato un campione di 253 ICOs avvenute dall’inizio del fenomeno fino ad agosto 2017, le cui caratteristiche descrittive vengono analizzate nel seguito. Di queste offerte, ben l’81% sono riuscite a raccogliere il capitale richiesto: il tasso di successo è dunque molto alto.

Innanzitutto, la Tabella 1 presenta le tipologie dei progetti che hanno avviato una ICO, da cui si denota immediatamente che i servizi notarili e quelli finanziari constituiscono le più grandi porzioni del campione.

 

È molto frequente nelle ICOs (avviene circa nel 50% dei casi) la concessione di bonus particolari per i primi contributori in ordine di tempo (‘early bird’). Tra i vari dati interessanti (presentati in sintesi nella Tabella 2) vi è la distribuzione geografica dei progetti (definita dalla localizzazione del team proponente), con Stati Uniti, Russia, Gran Bretagna e Canada ai primi posti, mentre vi è una crescita della formazione di team imprenditoriali decentralizzati. Il codice di programmazione alla base del token (che permette di sviluppare ulteriori innovazioni nella logica open-source) è disponibile solo nel 43% dei casi.

 

I token offerti nelle ICOs vengono poi scambiati sul web e hanno un proprio mercato secondario. Il prezzo delle offerte è stato, spesso, notevolmente inferiore rispetto ai successivi valori di scambio, il che ha generato notevoli guadagni per gli investitori.

Un’analisi econometrica sulle determinanti del successo delle ICOs ha rivelato che la presenza di un codice di programmazione pubblico, anche parziale, è valutata molto positivamente dai potenziali investitori in ICO, i quali preferiscono questa prova tecnologica ai prospetti discorsivi e spesso opachi nei contenuti (i cosiddetti ‘white paper’) che vengono messi a disposizione del mercato(senza però alcuna selezione e pre-approvazione delle autorità pubbliche). In più, organizzare una pre-offerta di dimensione più piccola, e magari indirizzata ad un sottogruppo di investitori, sembra essere un buon segnale per il mercato, che usa questo ‘presale’ come mezzo per apprezzare meglio il token offerto. Infine, quando i token assicurano diritti di accesso ai servizi e diritto di remunerazione, gli investitori investono più volentieri nell’offerta, e quindi la probabilità di successo della ICO si alza significativamente.

Questo studio è il primo di un più vasto progetto di ricerca del fenomeno delle ICO, a cui presto si aggiungeranno altre analisi empiriche, soprattutto rispetto a cosa è successo dopo le offerte. Al momento è infatti ancora troppo presto per tratteggiare un qualsiasi bilancio sull’efficacia di questo strumento per i progetti imprenditoriali che cercano risorse e sul grado di tutela offerto ai finanziatori, e quindi non è possibile né raffreddare l’entusiasmo, né smentire gli scettici.

Gen 102018
 

Before the Christmas holidays break, EIOPA has published a number of documents, as proof of the productive analysis carried out during the last months. The topics concern:

  • [18.12.17] the update of the representative portfolio to calculate the Volatility Adjustment (VA)
  • [18.12.17] desired improvements to the Solvency and Financial Condition Reports (SFCR)
  • [21.12.17] the use of limitations and exemptions from reporting 2017
  • [21.12.17] the use of capital add-ons
  • [20.12.17] the use of long term guarantees (LTG) measures

The VA is a measure aimed at mitigating the effect of short-term volatility of bond spreads on the solvency position of insurance companies, which sell products with long-term guarantee options. When the asset values fall because of an increase in their credit spreads, the liabilities are lowered thanks to a higher risk free discounting, obtained increasing the risk free yield curve by the VA. This correcting measure is derived from the spreads of representative portfolio of assets, revised by EIOPA on a yearly basis. The updated portfolios are based on data reported by the European insurance companies to their National Supervisory Authorities (NSAs) as part of their annual supervisory reporting. EIOPA published the updated representative portfolios last 18 December 2017; these data are going to be used for the calculation of the VA at End-March 2018. The next update has been scheduled for the second half of 2018.

Last 18 December 2017 EIOPA published a supervisory statement aimed at improving the future disclosures of SFCRs, which have to be published by the undertakings on a yearly basis. The legally prescribed SFCR covers a wide range of areas (in some cases, it replaced the disclosures on embedded value), but EIOPA believes it should focus on relevant information to evidence the solvency and financial condition of the undertakings. The statement focuses on key findings that EIOPA encourages to put in place, still considering the principle of proportionality:

  • consider needs and capabilities of different types of stakeholders when deciding upon the content and language style: the summary is mainly addressed to policyholders, while the remaining sections to analysis/investors
  • the summary should include a minimum common content (such as business model and strategy, underwriting and investment performance, key risks, system of governance, solvency ratio with and without VA/MA, SCR, MCR, EOF classified by tiers, …)
  • even when embedded in an annex to the SFCR, parts of the Quantitative Reporting Templates (QRT) should be reported in the narrative to help the reader
  • include information regarding the process for performing the ORSA
  • structure in a better way the analysis of the risk sensitivity to different stressed scenarios (e.g. methods used, underlying assumptions, future management actions, impact as an amount of the SCR and as a percentage of the overall SCR ratio, interpretation of the results)
  • provide details on methods and main assumptions used to evaluate Assets, Liabilities, Technical Provisions (e.g. specific approach to investment valuations, treatment of deferred taxes, uncertainties underlying the assumptions)
  • provide additional information regarding the Own Funds (OF), such as the explanation of their items (e.g. extent to which they are available or subordinated, their durations) and the movements over the reporting period and looking forward.

Insurance undertakings are subject to annual and quarterly reporting, but according to the SII directive the NCAs may exempt or limit the submission of the Quantitative Reporting Templates (QRTs), based, among others, on criteria on market shares, size and SCR ratio; EIOPA has verified to which extent this option has been adopted, publishing a report last 21 December 2017. The main outcomes of the assessment are:

  • none of the NSAs has exceeded the national market share thresholds (the number of exemptions varies significantly from 0% to over 15%), 21 NCAs have even decided not to let the undertakings use the possibility
  • YE16 – 134 undertakings and 8 groups from 5 Member States were exempted from annually reporting item by item templates, representing 0.4% of the European Economic Area (EEA) Non Life market share and 0.5% of the Life market share
  • 1Q17 – 703 undertakings and 21 groups from 10 Member states were exempted from quarterly reporting, representing 4.8% of the EEA Non Life market share and 2.5% of the Life market share

To detect and follow-up on potential inconsistent applications of supervisory powers across Member States, EIOPA has analyzed the application of capital add-ons by the NCAs, extracting the relevant information from the QRT. The NCAs have the possibility to set capital add-on in case of significant deviations regarding:

  • the risk profile within the Standard Formula (SF)/ Internal Model (IM) calculation
  • the system of governance
  • the risk profile when applying the VA/Matching Adjustment (MA)/transitional measures.

There is a large variance in the amount of the capital add-ons which have been imposed: 2 are worth more than 1 billion euro, 3 are between 100 and 700 million and the remaining 19 are below 100 million; relative to the SCR amount, the size of capital add-ons varies between 2% and 85%. As a testimony of the size and complexity of the UK market, 15 capital add-ons were imposed to solo undertakings and 4 at group level; 2 were set in France and Norway, 1 in Ireland. The capital add-ons are balanced between the Life and Non-Life market.

All the 24 capital add-ons were set because of significant deviations regarding the risk profile when compared to the assumption adopted in the SF (22) and IM (2).

Last 20 December 2017 EIOPA published a report on the impact of the LTG measures (a set of measures introduced in the Solvency II directive to ensure an appropriate treatment of insurance product that entail long term guarantees). Those discussed below, applicable on optional basis are:

  • Volatility Adjustment (VA) and Matching adjustments (MA)
  • Transitional on technical provisions (TTP)
  • Duration-based equity risk module (DBER)
  • Transitional on the risk-free rate (TRFR)

The aggregated amount of Technical Provisions (TP) of insurance and reinsurance undertakings applying for at least one of these optional measures is 74% of the whole TP of the EEA: more specifically, the VA is used by 66%, the TTP by 25%, the MA by 15%, while DBER and TRFR are used by a negligible share of market participants. Removing the possibility of applying MA, VA, TFR and TTP typically results in an increase of the TP, in a decrease in the OF and in an increase in the SCR and MCR. At EEA level, the removal of those measures is worth for a decrease of the SCR ratio by 69% (from 217% to 148%) and in an increase of the Solvency capital requirements of 73 billion euros.

Long-term guarantees are included in several types of insurance products, and their use is widespread in Europe (being their most significant occurrence in traditional life with profit products); as a trend, their availability is mainly stable or decreasing across EEA, with a shift to unit-linked, pure protection or hybrid products, a decreasing level of financial guarantees included in the contracts or a decreasing duration of the guarantees. In general, the NSAs did not related the trend to the design of the LTG measures but to the low interest rate environment, the increasing cost of guarantees and taxation regulation.

Gen 052018
 

Banca d’Italia ha pubblicato i risultati di un’indagine[1] conoscitiva sull’adozione delle innovazioni tecnologiche applicate ai servizi finanziari in Italia, condotta nel mese di maggio 2017. L’indagine ha coinvolto diversi istituti finanziari:

– i 13 maggiori gruppi bancari italiani (c.d. significant institutions) e 4 filiazioni italiane di banche europee a rilevanza sistemica;
– 53 gruppi bancari minori less significant institutions;
– 23 intermediari non bancari (g. SGR, SIM, istituti di pagamento).

Il documento introduce brevemente il concetto di Fintech, definendone gli aspetti fondamentali ed offrendo un overview sulle principali macrocategorie di servizi e tecnologie (crowd-funding, pagamenti, criptovalute, DLT e smart contracts, servizi di conuslenza automatizzati, cloud computing e big data).
Emerge chiaramente la portata disruptive del fenomeno che investe di sé ogni segmento ed attore del mercato dei servizi finanziari e bancari. La complessità del fenomeno Fintech si rileva, per altro, dalla pluralità stessa dei soggetti coinvolti: dai più tradizionali istituti finanziari sino ai giganti della tecnologia informatica e dei social media (Google, Facebook, Apple, Amazon, Alibaba) passando per il mondo start-up, la cui flessibilità e capacità di creare innovazione consentono loro di giocare un ruolo chiave.
A titolo d’esempio, basta pensare che, durante il Chinese Singles’ Day 2017, sono stati transati più di $ 25 mld solo su piattaforme Alibaba, con un picco di 256.000 transazioni per secondo (circa 4 volte la capacità del circuito Visa); nel frattempo Amazon e Facebook lavorano sull’ampliamento della propria offerta di servizi finanziari ed anche assicurativi.

Con il suo impatto rivoluzionario, il Fintech mina il carattere tradizionalmente monolitico del sistema bancario aprendo le porte a nuovi players che, se da una parte colmano lacune esistenti nel mercato dei capitali, dall’altra costringono gli attori tradizionali ad una riflessione sulla validità prospettica dei propri modelli di business.

All’incertezza circa gli senari futuri del fenomeno fa eco un crescente impegno internazionale nello sviluppo di progetti Fintech: i fondi stanziati a livello globale per iniziative di questo genere ammontano a oltre $ 25 mld e vedono Nord America ed Asia leader negli investimenti, sia pur con profili molto diversi.

La rilevanza del fenomeno ha attratto l’attenzione degli organismi di vigilanza e di regolamentazione nazionali ed internazionali, interessanti ad approfondire il fenomeno e comprendere come ponderare gli interventi normativi al fine di favorire l’innovazione senza lasciare spazi a potenziali arbitraggi regolamentari. Numerose risultano, per altro, le iniziative di indagine ed approfondimento sul tema avviate da Financial Stability Board, Basel Commitee on Banking Supervision, European Commission, EBA, ESMA, EIOPA e BCE.

Dall’indagine condotta da Banca d’Italia emerge un dato rilevante: nonostante l’interesse da parte di molti operatori, nel complesso le somme stanziate in Italia nel corso del 2016 per finanziare iniziative Fintech sono state piuttosto limitate (€ 135 mln. ca.). Il 92%  degli investimenti totali proviene dalle banche significative.
Il grado di coinvolgimento, anche prospettico, delle banche italiane di grande dimensione sembra comunque essere consistente: tre quarti di queste hanno in previsione di effettuare investimenti – almeno nel lungo termine – in tecnologie e servizi Fintech (cfr. Figura 1).

Le principali macrocategorie di interesse per le banche significative risultano essere:

  • Servizi automatizzati per il cliente quali roboadvisors e servizi di customer relationship management automatizzati (g. chatbot);
  • Tecnologie a supporto come big data, cloud computing, open API e AI.

Dal canto loro le banche di minori dimensioni (LSI) hanno diversificato i propri investimenti su tutte le principali macrocategorie[2] del Fintech fatto salvo per crowd-funding, criptovalute e DLT & smart contracts. Gli altri intermediari, invece, hanno concentrato le proprie risorse principalmente su progetti d’investimento legati al crowd-funding.

Risulta interessante notare come il mondo bancario e finanziario italiano non abbia, per il momento, destinato risorse al mondo delle criptovalute; marginale risulta per altro l’interesse nei confronti di DLT & smart contracts.
La segmentazione delle strategie di sourcing evidenzia come solo un numero limitato di enti sfrutti le potenzialità offerte da sinergie con imprese e start-up Fintech (anche all’interno di incubatori ed acceleratori), preferendo soluzioni in house.

I maggiori vincoli allo sviluppo del Fintech in Italia sono individuati nell’incertezza del quadro normativo di riferimento in materia di protezione dei dati personali, contrasto al riciclaggio, trasparenza e correttezza, utilizzo di strumenti digitali nonché fiscalità.

In particolare, l’attuale quadro regolamentare in materia di tutela della riservatezza e protezione dei dati personali sembra essere eccessivamente restrittivo. Per altro, come sottolineato dal documento, i requisiti di sicurezza previsti per il trattamento e la circolazione dei dati  in relazione a servizi di pagamento e tecnologie per la conclusione dei contratti appaiono assolutamente inadeguati.
Le incertezze circa le tempistiche di emanazione dei technical standards e delle guidelines di PSD II e l’attuazione degli stessi, rappresentano anch’essi un freno allo sviluppo di nuove opportunità.

Nonostante le numerose incertezze, dall’indagine di Banca d’Italia emerge tuttavia l’immagine di un sistema finanziario seriamente interessato alle opportunità del Fintech e conscio delle possibilità legate alle nuove tecnologie. Si vanno delineando i giusti presupposti affinché il Fintech divenga il volano per la riorganizzazione dei modelli di business tradizionali, l’ottimizzazione di processi interni e lo sviluppo di nuovi servizi.

 


[1] http://www.bancaditalia.it/compiti/vigilanza/analisi-sistema/stat-banche-intermediari/Fintech_in_Italia_2017.pdf?pk_campaign=EmailAlertBdi&pk_kwd=it

[2] Le principali macrocategorie di servizi e tecnologie Fintech cosi come definite nel documento sono: crowd-funding, pagamenti, servizi automatizzati per il cliente, strumenti e tecnologie per la conclusione di contratti ed operazioni a distanza, valute virtuali, DLT e smart contract, tecnologie e servizi di supporto.

Dic 232017
 

Bitcoin mania. Al tempo di internet e dei social network le bolle corrono veloci: il valore di un bitcoin è passato da 1.000 dollari di inizio gennaio a circa 17.000 dei nostri giorni. Il bello è che di fronte alla domanda quanto vale un bitcoin? … Nessuno sa dare una risposta.

E’ un po’ curioso che mentre si discute in modo scomposto – senza peraltro venirne a capo –  su un fatto molto grave come le ‘‘sole’’ rifilate dalle banche ai risparmiatori, la vicenda bitcoin venga vista con indulgenza, quasi come una innocua scommessa calcistica. Il fenomeno in realtà è serio. Oramai il mondo bitcoin vale 250 miliardi di dollari a livello mondiale (dieci volte gli aiuti di stato alle banche italiane) e riguarda alcune decine di milioni di persone. Non si scappa, i casi sono due: o si tratta di una bolla che si autoalimenta ed è destinata a scoppiare, o di uno dei rari casi nella storia dell’umanità di corsa all’oro: chi primo arriva si fa ricco.

Cerchiamo di capire il perché di questa corsa e le scommesse che porta con sé.

Il bitcoin è una moneta, come l’euro e il dollaro, in quanto può essere utilizzata come mezzo di pagamento in transazioni che vengono effettuate su una piattaforma digitale chiamata blockchain. Per avere accesso a questo circuito occorre cambiare gli euro (o altra valuta) in bitcoin, operazione che può essere fatta tramite un cambia valuta su internet. Si tratta dunque di una moneta che esiste solo nel mondo digitale (criptovaluta). Le transazioni sulla blockchain vengono validate dai nodi della rete (minatori) che risolvendo un complicato problema matematico, utilizzando computer potentissimi e un’enorme quantità di energia elettrica (pari a quella consumata dall’Irlanda ad oggi), certificano la loro validità andando a verificare il possesso dei bitcoin e registrando il trasferimento. Tutto sotto condizione di anonimato dei soggetti coinvolti che vengono identificati con un codice. Il sistema di validazione da parte dei minatori permette di costruire la fiducia tra i contraenti e crea le condizioni per dare corso ad uno scambio.

La credibilità rappresenta la prima scommessa: che il sistema della blockchain sia a prova di manipolazione. Fino ad adesso la blockchain è stata popolata da molti minatori ma stanno emergendo grandi attori che svolgono un ruolo preminente nel processo di validazione. Cosa succede se questi assumeranno comportamenti non neutrali? Anche l’anonimità può mettere a rischio questo sistema che infatti è utilizzato correntemente per operazioni di natura dubbia (hackeraggio compreso). L’integrità e la solidità del sistema sono due punti critici.

Dove risiede il valore del bitcoin? Nella fiducia che questo strumento verrà utilizzato in futuro come mezzo di pagamento. Qui viene il problema vero per capire il suo valore. Le banconote che abbiamo oggi nel portafoglio hanno un valore in quanto sappiamo che le potremo usare domani per acquistare il pranzo. Questo è dovuto al fatto che la banca centrale assegna alla moneta la caratteristica di essere ‘‘corso legale’’: per legge non può essere rifiutata per estinguere le obbligazioni pecuniarie. Il bitcoin non gode di questa caratteristica e nasce proprio dalla volontà dei partecipanti alla blockchain di sfuggire alle maglie della banca centrale.

Banalmente se i bitcoin mi permetteranno di acquistare beni e servizi in futuro sulla blockchain allora hanno un valore in termini di moneta corrente. Questa è la seconda scommessa: che i bitcoin e la blockchain saranno usati in futuro per effettuare transazioni. Difficile da dire. Ad oggi le transazioni che usano bitcoin come strumento di pagamento sono in numero insignificante, il meccanismo della blockchain è infatti inefficiente e estremamente costoso rispetto a quelli utilizzati correntemente.

La corsa dei bitcoin è dovuta anche al processo con cui vengono generati i bitcoin. Il meccanismo è geniale e consiste nel generare bitcoin come ricompensa nel momento in cui un minatore valida una transazione. Questo ha portato ad un processo che si autoalimenta: i nodi hanno interesse a validare le transazioni in quanto così ottengono bitcoin e diventano ricchi (in moneta virtuale). La crescita del valore dei bitcoin è dovuta al fatto che la ricompensa per la validazione di una transazione diminuisce nel tempo (si dimezza ogni quattro anni), e la quantità complessiva di bitcoin che sarà emessa di qui a cento venti anni è fissata a priori in 21 milioni, ad oggi ne sono già stati messi circa 17. La ricompensa per la validazione dei nodi diminuirà in modo vertiginoso, questo da un lato rende gli attuali bitcoin molto pregiati in previsione dell’estinzione di nuovi bitcoin (una sorta di oro digitale), dall’altro lato se la ricompensa diminuisce può venir meno ‘‘l’olio’’ che facilita il processo di validazione. La terza scommessa è appunto cosa succederà se nessuno avrà più interesse a validare le transazioni? Nessuno lo sa.

Abbiamo infine una scommessa più di fondo: siamo davvero interessati ad una moneta che sfugga completamente al controllo delle autorità monetarie che usano la quantità di moneta per gestire il ciclo economico? Difficile pensare che questo sia realistico e auspicabile.

Bitcoin porta con sé almeno queste quattro scommesse. Difficile credere che le possa vincere in modo convincente e di sicuro meritano una attenta valutazione da parte di una persona che voglia partecipare alla grande abbuffata virtuale.