Giu 152018

Digital Insurance Ecosystem – Disruptive Technologies and Innovation

Technology is transforming the insurance industry requiring a new niche of insurance products and services. Insurers will need a laser focus on how they will remain relevant, as well as profitable, in an increasingly tech-centric and connected society. It is crucial to assess disruption across the insurance ecosystem and determines how it affects the whole environment.


Disruptive innovation describes a process by which a product or service takes root initially in simple applications at the bottom of a market and then relentlessly moves up market, eventually displacing established competitors.

Insurers through accelerator programs aimed specifically at insurance tech entrepreneurs along with enthusiasts and accessible talent could unwind vast potential in InsurTech.

The insurance industry is perhaps facing more disruption than any other industry. Many incumbent players feel the exponential growth of digitization posing threats to their industry, particularly the entry of innovative firms or FinTech / InsurTech, which is an economic industry, composed of companies that use technology to make financial services more efficient and the purpose is to disrupt incumbent financial systems and corporations that rely less on software.

Examples of disruptive technology includes Fintech/InsurTech, Robotics, Cognitive Automation, Robo-Agents/Advisors, Chatbot.


Organizations of all sizes are seeking to master, monetize, and measure their use of data. Business analytics specialists look inside this data to help create and refine strategies for delivering data-driven insights that yield informed and differentiating business decisions.

Business analytics services also provide customized data analytics tools that are ready for deployment to immediately improve an organization’s analytics capabilities.

Building on analytics successes, leaders are beginning to take steps toward connecting these successes to create the insight-driven organization.

The main areas that can be improved are Predictive Analytics, Customer Analytics, Operational Analytics, Big Data, and Advanced Analytics.

Internet of Things

The Internet of Things (IoT) is arguably one of the hottest technology trends of today. This refers to a world of intelligent, connected devices that generate data for automating business processes and enabling new services.

Experts believe that the insurance industry will undergo a marked change with the growing adoption of IoT.

New business models, revenue streams and prospects will emerge. Functions core to the industry including risk assessment, sales processes for insurance products will be reinvented. Partnerships with smart device manufacturers, analytics providers, telecom players, software firms and even competitors will enable insurers to create competitive advantages, new revenue sources and effective, innovative business models.

Examples: Personal wearables, Smarthomes, Smart-businesses, Telematics and black boxes, IoT-based coverage


Mobility is more than just the latest step function in tech innovation. It is a fast-moving engine that is fundamentally reshaping operating models, business models, and marketplaces. Mobility also includes GPS enabled programs, mobile apps and online market places linking insurers with customers.

Insurers are driving mobility transformation in their businesses by identifying use cases that can be mobile enabled. Utilizing the true power of mobility requires insurers to enable speedy, high quality communications for customers, field agents, and the management.

Firms that proactively adopt mobile technology enable customers to do business on-the-fly and are seeing improvement in customer loyalty.

Mobility also helps the enterprise provide rich on-site data to employees including claims adjusters besides powerful decision making tools to the management.

The future of Mobility, which would upend the existing models of insurance, includes Sensor-controlled cars, Self-driving cars, Mobile apps, Tablet/Mobile based Solutions and Drones.

Tech Transformation

Technology transformation is not just about upgrading, it is about establishing the right portfolio of technology to run the business most effectively.

Tech Transformation incorporates client issues and sub-issues around digital and emerging technology (cloud, social computing), technology Initiatives, cyber risk and comparison websites.

It also recognizes promising commercial potentials in bringing forth efficiencies in current products as well as in new markets opportunities.

Digital technologies, such as social media and telematics, will continue to transform the systems insurers, reinsurers and brokers use. The connected world will alter the insurance market landscape throughout its value chain. It is imperative insurers identify tech trends, plan, partner and react fast by incorporating innovation into the enterprise culture in order to survive and thrive.

The main important trends include Artificial Intelligence, Machine Learning Tools, Automated underwriting/pricing, Cloud Computing and Digital Technologies.

New emerging paradigm: the Transformation of the Actuarial Profession

As this shift unfold, the actuarial professional is changing dramatically – opening opportunities for actuaries to take on dynamic, new business roles.

A wider range of actuarial tasks, empowering actuaries to shift their focus to higher value activities are encompassing more resources. This pivot towards more advanced strategic analysis – requiring sophisticated cognitive ability, communications savvy, and business knowledge – is the engine driving the rise of the shift in the Actuarial Profession.

These new technologies are transforming actuarial tasks in fundamental ways:

Facilitating data gathering and preparation – Technologies efficiently prepare data for analysis, including finding, cleaning, organizing, and parsing data. In the future, actuaries will spend less time on these manual process tasks and more time generating insights that drive business performance.

Performing analysis and computation – Technologies are programmed to perform rote calculations that, while complicated, require lower cognitive skills. This area has seen the most automation to date, and the use of these powerful, brute force-computing tools will only become more powerful as models are consolidated, refined, span a wider spectrum of actuarial processes, and are shared across user groups.

Improving reporting and analytics – Technologies can automate actuarial reporting based on rule sets, machine learning, and natural language generation capabilities. This will enable actuaries to focus on fine‑turning reports, developing insights from data, and communicating these insights to business leaders.

Defining the Actuary of the Future

While some express uncertainty about these shifts, it should be seen a once‑in‑a‑lifetime opportunity.

Actuaries who embrace this change will elevate their capabilities and strengthen their value to their organizations.

It starts with a shift in mindset from data steward to business strategist. Rather than simply producing numbers, actuaries must learn how to harness data to generate business insights, serving as the organization’s bridge between technology and strategy.

To make this jump, actuaries must augment their fluency with numbers with a deeper understanding of the business. This means applying actuarial skills not simply to traditional tasks such as compliance and risk management, but to broader challenges:

  • Analyzing the market challenges their organizations face.
  • Helping organizations decide what products to sell and the best channels to distribute products.
  • Providing insights about profitability, maximizing returns for shareholders, and entering the right markets at the right prices.

Giovanni Di Marco – Partner Deloitte Consulting | Actuarial, Rewards and Analytics

Giu 062018


  • Il debito delle famiglie in rapporto al reddito disponibile si mantiene stabile. La quota dei mutui a tasso fisso è cresciuta negli ultimi dieci anni di dieci punti (37%).
  • La crescita dell’indebitamento per finalità di consumo cresce soprattutto tra le famiglie con redditi superiori alla mediana.
  • Il tasso di insolvenza nei prestiti delle famiglie è ai minimi da dieci anni. La percentuale delle famiglie vulnerabili e l’incidenza del loro debito sul totale sono pari all’1.8% e all’11,4%, la metà del dato del 2008. Il dato non subirebbe variazioni significative anche in presenza di un aumento dei tassi di interesse di 200 punti base e di un andamento negativo dell’economia.



  • La leva finanziaria delle imprese si è ridotta al 40%, un dato solo di due punti percentuali superiore a quello medio dell’area euro. Dal 2011 le imprese hanno destinato una parte cospicua dei profitti all’aumento del capitale di rischio.
  • Aumenta il ricorso all’emissione di titoli obbligazionari da parte delle imprese: 20 miliardi nel 2017 contro una media di 6 miliardi nei tre anni precedenti.
  • Il tasso medio annuo di deterioramento dei prestiti è passato dal 4.1% nel 2016 al 3.2%. Il numero di fallimenti è in diminuzione per il terzo anno consecutivo. I nuovi crediti deteriorati in rapporto al totale dei prestiti sono tornati su livelli precedenti la crisi.
  • Secondo il modello di Banca d’Italia, il numero di imprese vulnerabili da un punto di vista finanziario è passato dal 33% nel 2007 al 25% nel 2016.



  • Il credito bancario è in aumento ma il ciclo finanziario è ancora debole. Il rapporto tra credito bancario e PIL (credit-GDP gap) è ancora sotto di dieci punti percentuali rispetto al trend di lungo periodo. La forbice diminuirà il prossimo anno ma non scomparirà.
  • L’esposizione debitoria delle banche nel mercato MTS repo nei primi mesi 2018 è inferiore di circa un quarto rispetto alla media del 2017.
  • L’ammontare di rifinanziamento presso l’Eurosistema è costante e la liquidità in eccesso è elevata.
  • Il Texas ratio delle banche classificate come significative è diminuito di dieci punti percentuali ed è pari all’86%.
  • La raccolta obbligazionaria delle banche è in diminuzione (pari a 267 miliardi), di cui 39 in strumenti subordinati (15 detenuti da famiglie). I collocamenti sui mercati internazionali negli ultimi tre anni sono stati pari soltanto a 80 miliardi (pari al 2.6% del totale delle consistenze).
  • Il deficit di passività idonee secondo i requisiti della Bank Recovery Resolution DIrective potrebbe essere tra 30 e 60 miliardi per le banche italiane con un aumento del costo della raccolta stimato tra 10 e 30 punti base e un calo del margine di intermediazione tra il 2 e l’8%.
  • Il LCR delle banche non verrebbe impattato in modo significativo da un aumento dei tassi di interesse (fino a 300 punti base), soltanto il 5% delle banche andrebbe sotto la soglia di 100.
  • Il rischio di tasso per le banche è limitato: un aumento di 200 punti base porterebbe ad un aumentomedio del valore economico dei fondi propri dei principali 11 gruppi
  • pari al 2.9%.
  • Le banche italiane significative hanno un deficit di capitale contenuto rispetto alle banche europee (150 punti base, il leverage ratio è pari a 6 contro una media pari a 5.5).



  • Le compagnie di assicurazioni detengono il 43% degli attivi in titoli di Stato.
  • La quota di riserve matematiche relative a polizze vita con garanzie pari o inferiore a 1% è pari al 55% (era 46% nel 2016). Il volatility adjustment porta ad un innalzamento dell’indice di solvibilità del 9% contro un 24% medio a livello europeo.
  • Un’estensione del Last liquid point per la valutazione delle riserve porterebbe ad una riduzione del margine di solvibilità del 7%, misura inferiore a quella delle compagnie europee.
  • I PIR hanno un patrimonio di 12 miliardi di cui oltre il 56% investito in società non finanziarie residenti (36% in azioni, 20% in obbligazioni che rappresentano il 35% del totale delle emissioni).



Le consistenze nette di CDS su rischio Italia (Stato, banche, imprese) sono in diminuzione.

  • Nel 2017, la quota di titoli pubblici italiani detenuta dalla Banca d’Italia è salita di 5 punti al 19%, quella delle banche è diminuita (dal 17.8 al 15.3%), sono rimaste stabili quelle delle famiglie (5.3%) e degli investitori esteri (33.2%).
  • La vita media residua dei tioli di Stato è 6.8 anni. Il costo medio dei tioli di Stato in essere è ai minimi (2.7%), il costo medio sulle nuove emissioni è 0.60%.
Giu 012018

L’intensificarsi dell’incertezza politica nella fase di formazione del nuovo Governo ha riportato l’Italia al centro dell’attenzione su scala globale. Se fino alla prima settimana di maggio dai mercati non si ravvisavano forti tensioni (si veda al riguardo BEM Research, 2018), nelle ultime tre settimane la situazione è radicalmente cambiata.

In particolare è aumentata la percezione che l’Italia possa effettivamente uscire dall’Area euro. Guardando alle ricerche effettuate su Google del termine “Italexit”, che come per Brexit e Grexit sta ad indicare l’uscita dell’Italia dall’Unione Europea e dall’Area euro, si rileva una netta impennata dell’interesse degli utenti su scala globale proprio dopo la controversa indicazione di Paolo Savona come Ministro dell’Economia e delle Finanze del nascente Governo (grafico 1). Un picco di ricerche si era osservato anche in coincidenza del 4 marzo, ma poi l’interesse verso una potenziale Italexit si era progressivamente sopito.

Grafico 1. Interesse sul web a livello globale su “Italexit”
(100=massimo interesse)

Fonte: elaborazioni BEM Research su dati Google Trends.

Più in generale, i temi politici italiani stanno destando un crescente interesse a livello globale. Al riguardo un’indicazione può essere fornita ancora una volta delle ricerche effettuate su Google, ma in questo caso relative all’argomento “Governo della Repubblica Italiana” (l’argomento offre l’indicazione della frequenza di ricerca di un insieme di termini che condividono lo stesso concetto, in qualsiasi lingua). Osservando la dinamica delle ricerche sull’argomento “Governo della Repubblica Italiana” e lo spread tra i tassi d’interesse a 10 anni dei titoli italiani e quelli medi di Spagna e Portogallo, due paesi in condizioni economico-finanziarie simili all’Italia, si riscontra una stretta correlazione (grafico 2; andamento analogo si osserva nel caso dello spread BTP-Bund). Questo risultato può essere interpretato come un’evidenza del fatto che l’interesse degli utenti web su scala globale esprime le crescenti preoccupazioni sulla stabilità politica italiana, che in un’ultima istanza si riflettono poi sui mercati finanziari.

Grafico 2. Interesse sul web a livello globale su “Governo della Repubblica Italiana” e reazione dei mercati finanziari
(dati medi settimanali)

Fonte: elaborazioni BEM Research su dati Google Trends e Thomson-Reuters.

L’aumento degli spread sui titoli governativi italiani segnala un maggior premio per il rischio richiesto dai sottoscrittori di BOT e BTP. La dinamica dei Credit Default Swap (CDS) a 5 anni, titoli derivati che non risentono degli effetti calmieranti legati agli acquisti effettuati dalla BCE nell’ambito del quantitative easing, offre proprio questa indicazione: il premio sui CDS è passato dai 52 punti del 2 marzo 2018 agli oltre 100 del 30 maggio. Gli operatori di mercato stanno quindi scontando una probabilità di default sui titoli governativi italiani più alta rispetto a tre mesi fa. Questo maggior pessimismo ha un effetto immediato sul costo del debito che il Governo Italiano deve sostenere nel momento in cui effettua una nuova emissione di titoli. Impatta inoltre indirettamente sulle banche italiane che detengono un’ampia quota di titoli di Stato domestici e per tale motivo sono soggette a perdite di bilancio se i rendimenti salgono e i prezzi scendono. Non stupisce quindi che anche i premi sui CDS dei principali istituti di credito italiani siano aumentati in quest’ultimo mese.

Fintanto che il QE sarà in essere è comunque difficile che i rendimenti crescano a tal punto da rendere la situazione insostenibile, come si è rischiato tra il 2011 e il 2012. In altri termini, con l’ombrello della BCE l’Italia non corre, nel brevissimo termine, eccessivi rischi di soccombere sotto gli attacchi speculativi dei mercati finanziari.

Affinché “l’ombrello” BCE rimanga aperto, però, l’Italia deve superare un altro esame, quello delle agenzie di rating. Per poter accedere al QE, così come per poter presentare un bond come collaterale nell’operazioni di politica monetaria, è necessario infatti che un’obbligazione abbia ottenuto, da almeno una delle quattro agenzie di rating internazionali riconosciute dalla BCE, ovvero Standard & Poor’s, Moody’s, Fitch e DBRS, un giudizio pari a investment grade (si veda BCE, 2015). Allo stato attuale l’Italia ha ottenuto il voto più alto da DBRS con BBB+, ovvero tre gradini sopra la classe speculative grade (tabella 1). Moody’s ha però già avvisato il mercato che si accinge a rivedere in negativo il suo giudizio sull’Italia, pari a BBB. Dopo la prima mossa di Moody’s anche le altre tre agenzie potrebbero seguirla peggiorando la pagella italiana.

Tabella 1. Rating dei titoli governativi dei paesi dell’Area euro

Note: la codifica dei rating è stata armonizzata.
Fonte: elaborazioni BEM Research su dati Standard & Poor’s, Moody’s, Fitch e DBRS.


Guardando alla relazione tra il miglior rating assegnato ai paesi europei e il premio pagato sui CDS nel periodo più recente, la probabilità di un downgrade dell’Italia appare elevata (grafico 3). Sulla base dei premi mediamente pagati da metà a fine maggio, l’Italia risulta essere sostanzialmente in linea con il Portogallo, che ha un rating massimo pari a BBB, un notch sopra ai titoli italiani. Focalizzando l’attenzione sul dato relativo al 30 maggio la situazione peggiora ulteriormente: il premio sui CDS è infatti ben superiore a quello del Portogallo e in linea con quello di Cipro, che invece ha un rating massimo di BB+, ovvero speculative grade.

In definitiva, un downgrade generalizzato, e nell’ordine di 2 o 3 notch, da parte delle agenzie di rating aggraverebbe velocemente la situazione italiana, determinando – a regole vigenti – la sospensione degli acquisti di titoli italiani da parte della BCE e seri problemi di liquidità per le banche domestiche, che non potrebbero più presentare come collaterale i titoli italiani. Per scongiurare questo circolo vizioso è cruciale che sui mercati torni la fiducia nel rispetto degli impegni di finanza pubblica presi dall’Italia e, soprattutto, che venga fugato qualsiasi dubbio che il futuro Governo consideri, anche solo come piano B, l’uscita dall’eurozona.

Grafico 3. Relazione tra premio sui CDS e miglior rating tra le Agenzie accreditate presso la BCE

Fonte: elaborazioni BEM Research su dati Thomson-Reuters, Standard & Poor’s, Moody’s, Fitch e DBRS.


BCE, Guideline of the European Central Bank of 19 December 2014 on the implementation of the Eurosystem monetary policy framework.

BEM Research, L’incertezza politica letta attraverso il web ed effetti sui mercati, Analisi Flash del 10 maggio 2018.

Mag 282018

In questo articolo guarderemo dentro i meccanismi che permettono a Bitcoin di funzionare come mezzo per scambiare del valore. Inizieremo introducendo Bitcoin come un protocollo che risolve il problema del double spending. Parleremo poi di come Bitcoin offre una soluzione decentralizzata a tale problema grazie all’algoritmo di Proof of Work. Infine vedremo i dettagli di questo algoritmo di consenso.

Che cos’è Bitcoin?

Bitcoin1 è un protocollo, cioè delle regole per costruire, interpretare e scambiarsi dei messaggi. Nel caso di Bitcoin questi messaggi rappresentano delle transazioni. Il protocollo2 ha la caratteristica di essere peer-to-peer, cioè tutti i nodi che decidono di partecipare al protocollo hanno gli stessi privilegi, tutti i nodi sono uguali. D’altra parte, Bitcoin è anche l’oggetto di questi messaggi, cioè si chiama Bitcoin la crittovaluta o asset digitale che viene scambiato nelle transazioni. Anche se risulta facile capire dal contesto a quale Bitcoin uno si riferisce penso che sia utile fare attenzione alla differenza.

Essendo Bitcoin un protocollo, ovvero una specifica, ha diverse implementazioni. Queste implementazioni si chiamano bitcoin client3, e sono il software che i nodi che formano parte della rete di Bitcoin hanno in esecuzione nei loro dispositivi, e.g. PC, GPU, ASIC. Il primo bitcoin client fu pubblicato nel 2009 da Satoshi Nakamoto. Questo client open source si è evoluto nel tempo e attualmente viene identificato con il nome di Bitcoin Core4. Il client viene mantenuto da una communità di sviluppatori che viene denominata con lo stesso nome del client.

Il Problema: Double Spending

Bitcoin nasce come protocollo per dare una soluzione peer-to-peer al problema del double spending, dove l’enfasi è in peer-to-peer. Questo problema consiste nell’impedire che un nodo del sistema possa spendere più di una volta la stessa moneta elettronica. Attualmente, quando effettuiamo dei pagamenti elettronici, il compito di controllare che non succedano casi di double spending viene delegato al circuito di pagamento utilizzato, che in modo centralizzato svolge tale compito.Tentativi di sistemi di pagamento elettronico5 precedenti a Bitcoin risolvevano sempre in modo centralizzato questo problema. In effetti, la decentralizzazione di Bitcoin è una delle sue caratteristiche più innovative e importanti.

La Soluzione: Proof of Work

Bitcoin risolve il problema del double spending utilizzando l’algoritmo di Proof of Work. L’obbiettivo di questo algoritmo è quello di ordinare temporalmente le transazioni. In questo modo se ci sono due transazioni che cercano di spendere gli stessi Bitcoin la rete considererà valida solo la transazione che in accordo con l’algoritmo di Proof of Work è avvenuta per prima. L’innovazione in Bitcoin è che il consenso per quanto riguarda l’ordine temporale delle transazioni viene raggiunto in modo decentralizzato, ciascun nodo arriva alle stesse conclusioni in modo autonomo. Di fatto ciascun nodo ricostruisce l’intera catena di blocchi nel proprio dispositivo.

Come funziona la Proof of Work?

Per entrare nei particolari di questo processo penso che sia necessario introdurre alcuni concetti: transazioni, blocchi e il ruolo dei Miner. Partiamo dalla validazione delle transazioni.

Validazione delle Transazioni

Bitcoin è un protocollo per costruire, interpretare e scambiarsi transazioni. Ad ogni istante quindi ci sono nodi che inviano ai loro vicini le transazioni che hanno costruito secondo il formato del protocollo. Quando una di queste transazioni arriva a un nodo, il bitcoin client processa la transazione e determina se questa è valida o meno, e.g. controlla se i Bitcoin di questa transazione sono stati già spesi e che chi sta spendendo tali Bitcoin abbia effettivamente il diritto di farlo6. Se la transazione è valida il nodo propaga la stessa ai suoi vicini, altrimenti la transazione viene rifiutata e semplicemente non viene propagata alla rete. In questo modo tutti i nodi vengono a conoscenza delle transazioni valide che gli altri nodi creano.

I Miner

A questo punto entra in scena il ruolo del Miner, che raggruppa delle transazioni valide in una struttura dati particolare7 e aggiunge alcuni altri dati. L’insieme di questi dati più la struttura che contiene le transazioni formano quello che viene chiamato un blocco, uno dei tanti che fanno parte della blockchain. Un dettaglio importante è che tra i dati che il Miner aggiunge al blocco c’è l’hash del blocco precedente. Questo è il meccanismo che permette di legare temporalmente i blocchi formando così una catena che rappresenta il consenso della rete riguardo l’ordine delle transazioni (si veda Figura 1). La creazione di questi blocchi però è soggetta a certe regole. Abbiamo in effetti tralasciato un dettaglio importante, la validazione del blocco.

Figure 1: Ogni blocco contiene l’hash del blocco precedente. Questo meccanismo permette di legare temporalmente i blocchi.

Validazione dei Blocchi

Man mano che i blocchi vengono creati questi vengono propagati alla rete e come avete intuito vengono sottoposti ad una validazione da parte di ciascun nodo che li riceve, propagando solo quelli validi. In effetti una parte di tale validazione8 è legata all’algoritmo di Proof of Work e riguarda l’hash del blocco. Un blocco è considerato valido solo se il suo hash è minore9 di un certo valore chiamato target. Per soddisfare questa condizione il Miner ha a disposizione, tra i dati che aggiunge al blocco, una componente che può scegliere a suo piacimento. Questa componente viene chiamata nonce. La proprietà di non invertibilità della funzione di hash SHA-256 costringe il Miner a semplicemente provare diversi nonce per trovare un hash che soddisfi la condizione di validità. Non esiste effettivamente una strategia che garantisca una maggiore probabilità di trovare un hash valido10. L’unica altra variabile che il Miner può controllare oltre al nonce è la potenza di calcolo che decide di dedicare e che aumenta in modo proporzionale la sua probabilità di trovare un blocco valido. In questo modo il Miner inviando un blocco valido alla rete sta effettivamente dando prova di aver fatto del lavoro per mantenere sicura la rete, cioè è a tutti gli effetti una Proof of Work.

Calcolo del target

Rimane in sospeso il dettaglio di come viene determinato il valore di target che definisce la condizione di validità dell’hash di un blocco. Il protocollo Bitcoin utilizza questo target per mantenere attorno ai 10 minuti la frequenza di creazione dei blocchi. In effetti all’aumentare della capacità computazionale che i Miner dedicano alla rete, aumenta la probabilità che qualcuno trovi un hash valido e di conseguenza anche la frequenza di creazione dei blocchi. Vale ovviamente anche il viceversa. La scelta dei 10 minuti è stata fatta per motivi di stabilità e latenza11. Per adeguarsi quindi alla capacità computazionale della rete, il target viene aggiornato ogni 2016 blocchi. Ogni nodo della rete calcola l’intervallo temporale che è stato necessario per la creazione degli ultimi 2016 blocchi e lo compara con un intervallo di due settimane, cioè il tempo che sarebbe trascorso se tutti i blocchi fossero stati creati esattamente ogni 10 minuti. Dopodiché calcola la differenza percentuale tra queste due quantità e aggiorna l’attuale valore di target in base a tale percentuale12 (Si veda Figura 2).

Figure 2: Ogni nodo calcola il tempo che la rete ha impiegato in creare gli ultimi 2016 blocchi e lo compara con un intervallo di 20160 minuti. Il target viene aggiornato secondo la differenza percentuale tra queste due quantità.

Alcuni Dettagli Importanti

Abbiamo visto finora come i nodi Miner dedicano capacità computazionale alla rete per mantenere ordinate temporalmente le transazioni in una catena di blocchi e come tutti gli altri nodi, inclusi quindi anche eventuali nodi Miner, validano questo lavoro computazionale espresso in ciascun blocco. Abbiamo anche visto come la rete Bitcoin si autoregola per mantenere la capacità di processare transazioni stabile attorno ai 10 minuti per blocco. Vorrei adesso parlare di due dettagli importanti: chi sono effettivamente questi nodi Miner e come si risolve l’eventualità di ricevere due blocchi diversi ma validi che puntano allo stesso blocco precedente.

Chi sono effettivamente questi Miner?

La risposta si trova nella natura peer-to-peer di Bitcoin. Qualunque nodo può fare il Miner se ha delle risorse computazionali da dedicare alla rete. Ovviamente le risorse computazionali hanno un costo e questo è stato considerato nel disegno del protocollo. In effetti, il Miner ha diritto ad includere nel blocco una transazione addizionale13. Il beneficiario di questa transazione è scelto dal Miner e molto probabilmente sarà lui stesso. Invece l’ammontare della transazione è definito dal protocollo. Quindi il ruolo del Miner non è solo quello di mantenere sicura la rete ma anche quello di generare o minare Bitcoin. In questo modo il Miner ha un incentivo per dedicare risorse alla sicurezza della rete. Oltre a questa transazione, il Miner ha anche diritto a prendersi le commissioni14 espresse in ciascuna transazione inclusa nel blocco che ha generato. Come abbiamo detto la quantità di nuovi Bitcoin che il Miner può mettere in circolazione dipende dal protocollo. Inizialmente questa quantità era 50 Bitcoin ma viene dimezzata ogni 210 000 blocchi, che corrispondono circa a 4 anni. Questo fa di Bitcoin una moneta non inflazionaria, in effetti il meccanismo di dimezzamento garantisce che non potranno mai esistere più di 21 millioni di Bitcoin.

Come si risolvono i Fork?

Risulta possibile che due Miner in contemporanea trovino blocchi validi. Questi due blocchi saranno propagati nella rete e di conseguenza i nodi avranno due catene valide che differiscono unicamente nell’ultimo blocco, cioè ci saranno due fork15. Questa ambiguità temporanea viene risolta quando il blocco successivo viene trovato. Questo nuovo blocco sarà in effetti collegato solo a uno dei due blocchi e il bitcoin client sceglierà, come da protocollo, la catena che abbia la difficoltà complessiva più alta consentendo alla rete di raggiungere così di nuovo il consenso. Il valore di difficoltà viene calcolato in base al target. Quindi normalmente la catena con più difficoltà complessiva sarà quella più lunga. Solo in concomitanza con l’aggiornamento del valore di target è probabile che questo non sia il caso (Si veda Figura 3).

Figure 3: Si osserva come in concomitanza di un aggiornamento di target è possibile che la catena con la difficoltà complessiva più alta non sia quella più lunga. Nell’esempio la catena B, più corta di un blocco rispetto alla catena A, ha una difficoltà complessiva maggiore.


Questo sguardo dentro Bitcoin ci è servito per capire come si incastrano i diversi pezzi del protocollo e quali sono le diverse fasi della vita di una transazione (Si veda Figura 4). Abbiamo però parlato in modo generico del concetto di transazione e non abbiamo descritto come vengono effettivamente trasferiti i Bitcoin. Nell’articolo successivo analizzeremo la struttura di una transazione.

(a) Il nodo A crea una transazione.


(b) Il nodo A invia la transazione ai suoi vicini. Il nodo D l’ha ricevuta, validata e propagata.


(c) Il Miner C valida la transazione, la include in un blocco e genera una Proof of Work valida.


(d) Il Miner C invia il blocco ai suoi vicini. Il nodo B l’ha ricevuto, validato e propagato.


(e) Il nodo A riceve il blocco che contiene la sua transazione. Lo valida e così verifica la sua prima confirmation.

(f) Il nodo A aspetta fino a validare la sesta confirmation per considerare la transazione definitiva.

Figure 4: Nello schema si vede lo stato di una rete Bitcoin semplificata ad ogni fase della vita di una transazione: generazione, propagazione e validazione, inclusione in un blocco, propagazione e validazione del blocco, e infine la prima confirmation. Si ricorda che si consiglia di aspettare fino ad avere 6 confirmation per considerare la transazione definitiva.



1Satoshi Nakamoto, il creatore di Bitcoin, pubblicò la prima specifica del protocollo in questo paper [1] del 2008.

2Per entrare nei dettagli dell’attuale protocollo si può partire da questa pagina [2] della bitcoin wiki.

3Si può trovare una lista dei maggiori bitcoin client qui [3].

4La pagina github di Bitcoin Core si può trovare qui [4].

5Trovate un resoconto dei predecessori di Bitcoin nella prefazione del libro Bitcoin and Cryptocurrency Technologies [5]

6Vedremo i dettagli di questa validazione in un successivo articolo, dopo aver studiato la struttura delle transazioni.

7La struttura per raggruppare le transazioni si chiama Merkle Tree [6], con un singolo hash può identificare un vasto gruppo di transazioni.

8Per avere una descrizione completa della validazione di un blocco si può vedere la sezione corrispondente nella seguente pagina [7].

9Siamo abituati a rappresentare un hash in base esadecimale, ma essendo un array di byte può facilmente rappresentarsi in base decimale ed ereditare così le operazioni di confronto che conosciamo.

10Si veda la sezione 3 del paper di hashcash [8].

11Si veda la relativa FAQ [9] della bitcoin wiki per approfondire il tema della scelta dei 10 minuti.

12Si può trovare uno storico della difficoltà(inversamente proporzionale al target) qui [10].

13Questa transazione viene chiamata coinbase [11].

14Le commissioni sono definite autonomamente dal nodo che ha generato la transazione. Vedremo come vengono specificate queste commissioni in un successivo articolo, dopo aver studiato la struttura di una transazione.

15Questo tipo di fork è temporaneo e previsto dal protocollo. Non è da confondersi con i concetti di Hard Fork e Soft Fork, che sono due metodologie diverse per aggiornare un’applicazione distribuita com’è il caso di un bitcoin client.



[1] Satoshi Nakamoto. Bitcoin: A peer-to-peer electronic cash system. 2008.

[2] Bitcoin Wiki. Protocol documentation.

[3] Bitcoin Wiki. Clients.

[4] Bitcoin Core. Github.

[5] Arvind Narayanan, Joseph Bonneau, Edward Felten, Andrew Miller, and Steven Goldfeder. Bitcoin and Cryptocurrency Technologies: A Comprehensive Introduction. Princeton University Press, 2016.

[6] Wikipedia. Merkle tree.

[7] Bitcoin Wiki. Protocol rules.

[8] Adam Back. Hashcash-a denial of service counter-measure. 2002.

[9] Bitcoin Wiki. Faq.

[10] BitcoinWisdom. Difficulty.

[11] Bitcoin Wiki. Coinbase.

Mag 162018

Il 9-10 Maggio 2018 si è tenuta al Politecnico di Milano la conferenza

From Blockchain&Bitcoin to Distributed Ledger Technologies, Smart Contracts and Cryptocurrencies in Finance

Di seguito il programma e le slide delle presentazioni.

9 Maggio 2018


9.00 – 13.30 – Information Technology for DLTs

Daniele Marazzina – An introduction to DLTs

Francesco Bruschi e Vincenzo Rana – Developping Smart Contract

Stefano Leone – ICOs vs Kryptokitty


14.45  – 18.30  – Session 1. DLT and Smart Contracts

Andrea Bracciali – Decentralised governance?

Massimo Bartoletti – Models for Bitcoin smart contracts

Francesco Bruschi – Stretching our oracles farther: making smart contract aware of the world

Andrea Visconti – On the cryptography of DLT

Stefano Bistarelli – An End-to-end Voting-system Based on DLTs

10 Maggio 2018

9.30 – 13.00 – Session 2. The economics and the Finance of DLT/smart contracts

Davide Grossi – Incentive Structures behind Consensus in Distributed Ledgers

Ferdinando Ametrano – Central bank digital cash and private monies

Simon Trimborn – Investing with Cryptocurrencies – A liquidity constrained investment approach

Gianna Figà Talamanca – Attention-based dynamics for BitCoin price modeling and applications

Giancarlo Giudici – The ICO market

14.45  – 17.15  – Session 3. Applications of DLT and smart contracts in finance

Giovanni Sartor – On Legal contracts, Imperative abd Declarative Smart Contracts and Blockchain Systems

Claudio Impenna – DLT applications in the financial sector: the regulator’s perspective

Giorgio Gasparri – Distributed ledger technology and financial markets

Massimo Morini – Transforming Banks


Mag 152018

Today’s European financial markets hardly look like the ones from 10 years ago. Financial Markets are definitely more complex: high speed of electronic trading, wide range and complexity of financial instruments, explosion in trading volumes, fragmentation of trading venues and proliferation of OTC trading activity.

The impact of the latest financial crisis has forced Regulators globally to take an action and a new set of regulations has been released. MiFID II is, no doubt, the regulation that first springs to mind talking about Capital Markets.

Entered into force on January this year, MiFID II has on one side reinforced the financial market infrastructure, among all: introduction of the OTFs to capture OTC trading activities, trading obligation on equity and standardized derivatives, new transparency regime, a new information package available, strengthening reporting activity to competent authorities. On the other side, and this is the most innovative part, MiFID II has answered the need to discipline technological developments in trading, particularly Algorithmic and High Frequency Trading (HFT).

The new market structure – Key innovations

MiFID II brings important changes in the market structure of European capital markets to basically increase transparency of the trading and to restrict over the counter trading.

A third category of trading venue the Organised Trading Facilities (OTFs) sit now alongside the Regulated Markets (RMs) and Multilateral Trading Facilities (MTFs). OTFs have been introduced to push OTC trading platforms within the regulatory system (as already started in MiFID I with MTFs introduction) and capture the trading in non-equity instruments such as bonds, structured finance products, emissions allowances and derivatives currently not conducted via RMs and MTFs.  Organized Trading Facilities are multilateral systems with characteristics that distinguish them from RMs and MTFs. Like RMs and MTFs, OTFs may not execute orders against proprietary capital (except trading in sovereign bonds). In contrast a firm operating on an OTF can exercise discretion when deciding to place or retract an order on the OTF they operate and subject to certain requirements when deciding not to match client orders.

MiFID II increases market transparency by ruling the practice of trading in shares admitted to trading on an RM or traded on an MTF only on an RM, MTF, Systematic Internalizers (SIs) or equivalent third-country trading venue and by forcing derivatives[1] trading on trading venues decreasing the OTC execution.

Pre- and post-trade transparency requirements have been extended to non-equity instruments (i.e. bonds, structured finance products and derivatives) and equity like instruments under MiFID II. As a result of these extended transparency requirements, more information will be available to the public on trading in financial instruments both pre-execution (quotes and pricing) and post-execution. The regulator has also demanded more reporting requirements by expanding the transaction reporting regime, both on the scope of financial instruments captured and on the data fields to include in the report (up to 65 fields).

Algorithmic trading in the new trading landscape: an unavoidable future to be monitored and controlled

There have been many so-called “flash-crashes” during the last decade caused by the activity of algorithmic trading. Michael Lewis in “Flash Boys” describes the father of all these events that occurred in the Dow Jones market on May 6, 2010. The Dow Jones collapsed and rebounded very rapidly losing immediately a thousand points, almost 10%, sending market operators into panic. The movement was caused by a single order of futures on the S&P 500 index that triggered sell algorithms and generated a rapid decline and recovery in the price of financial instruments.

Fostering trading activity on electronic trading venues is a way to spread transparency and financial stability. Regulators are aware that algorithmic trading activity, that limits or excludes human intervention[2], could be a threat for orderly trading conditions as it could generate market abuse and manipulation. For these reasons, MiFID II introduces new requirements to ensure that investment firm will be able to control and monitor their algorithmic trading activity. The Directive considers the benefits of improved trading technology but acknowledges that such strategies, particularly of the HFT variety, give rise to potential risks that could lead to disorderly markets or be used for abusive purposes and therefore must be strictly monitored and regulated.

The algorithmic trading activity could be engaged by an investment firm to generate:

  • orders for proprietary trading, including bid-ask quotes published for the market making activity;
  • orders on behalf of a client, especially to execute an high size order with TWAP[3] or VWAP[4] functionalities, and implement one or more of the following strategies: market making or liquidity providing, hedging or arbitrage.

The most common trading strategy in scope of algorithmic trading for investment firms is the market making activity, because bid-ask quotes are generated automatically during the trading day and published continuously on trading venues. Moreover, an investment firm sometimes develops proprietary market adapters to generate orders on the trading venues with their own algorithms, other times it uses provider’s platform to pursue trading algorithmic technique and algorithms could be:

  • embedded in provider’s trading platform;
  • developed by the investment firm in dedicated spaces made available by the supplier;
  • elaborated by the supplier according to investment firm’s needs.

Additionally, MiFID II defines high frequency trading (HFT) as a subset of algorithmic trading characterized simultaneously by:

  • infrastructure intended to minimize network and other types of latencies, including at least co-location, proximity hosting or high-speed direct electronic access;
  • order initiation, generation, routing or execution without human intervention;
  • high message intraday rates which constitute orders, quotes or cancellations. The rates are evaluated monthly with a moving average according to all messages sent during the previous year considering only proprietary trading (and including market making quotes).

MiFID II requires firms understand the impact their algorithms will have on the marketplace, including the reaction of other algorithms active in the segment. MiFID II requires all trading firms to certify that their algorithms have been tested to ensure that they do not create or contribute to disorderly trading conditions before being deployed in live markets. New requirements for investment firms engaged in algorithmic trading are:

  • general organizational requirements: formalization of specific governance arrangements about trading systems and algorithms proportionate to the nature, scale and complexity of the activity;
  • algorithms pre-deployment requirements: investment firms are required to establish a written procedure for developing, modifying, testing and deploying an algorithm in the production environment;
  • algorithms post-deployment requirements: investment firms have to structure means and controls to ensure resilience of trading systems and algorithms during the trading activity. The functionalities an investment firm has to develop are:
    1. the kill functionality to ensure the cancellation of any or all of unexecuted orders submitted to any or all trading venues to which the investment firm is connected;
    2. the automated surveillance system to detect market abuse;
    3. business continuity arrangements;
    4. the pre-trade controls on price, message limits, order values and volumes to prevent the transmission of wrong orders or quotes to trading venues;
    5. the real time monitoring with real time alerts to assist traders during the trading activity;
    6. the post trade controls to identify algorithms or systems which are not working in the correct way;
    7. cyber security arrangements;
  • periodic requirements: investment firms have to self-assess annually their algorithmic trading activity and consequently the risk management function has to draw up a validation report.

HFTs firms have more strictly requirements because they need the authorization to operate as investment firms and have to store accurate and time sequenced records of all its placed orders and quotes using a defined format (also algo traders have to record all this information, but they are not obliged to use the format set out in the regulation).

Final conclusions

One of MiFID II aim is to create more efficient financial instruments order execution in price-competitive, transparent and stable markets. The innovations in trading venues is a mechanism to strengthen also investor protections. From this perspective, not only where but also how investment firms carry on the trading activity needs to have appropriate organizational and IT arrangements. The MiFID II framework regulates algorithmic trading activity because freedom could create damages to the economic system just because an automated mechanism could go crazy for distressed information. All investment firms have to understand and copy with technological challenge to ensure their algo trading activity is sound, efficient and secure. Will the new requirements prevent algorithmic trading, especially HFT, to generate other cases of flash crash? How many algo traders will qualify their activity as high frequency trading? We will find out soon.

Alessandro Mastrantuono – Director Deloitte Consulting
Gabriele Bonini – Manager Deloitte Consulting
Valeria Mij – Manager Deloitte Consulting
Francesco Ciarambino – Analyst Deloitte Consulting



[1] ESMA’s Final report (ESMA70-156-227) provides details to derivatives subject to new trading obligations (intragroup transactions are exempt from this trading obligation)

[2] MiFID II defines algorithmic trading as “the trading activity in financial instruments on a trading venue where a computer algorithm automatically determines individual parameters of orders (including quotes) such as whether to initiate the order, the timing, price or quantity of the order or how to manage the order after its submission, with limited or no human intervention”

[3] Time weighted average price (TWAP) strategy breaks up a large order into child orders and execute them close to the average price between the start and end times.

[4] Volume weighted average price (VWAP) strategy breaks up a large order into child orders and execute them close to the average price weighted by volume between the start and end times.


Mag 082018

No free lunch. A catchphrase to express that it is impossible to get something for nothing, or, in other words, that the investors are not able to make large profits without bearing the risk of a potential loss.

Partial information surrounded by loose comments may be deceiving and together with trust and lack of time, can influence people in taking decisions without really knowing all the implications. This article provides a practical example of how this can happen.

I was holding my smartphone and when opening the browser some news popped up (politics, science, music, …): one captured my attention – the launch of a very promising financial product. The article ( reports:

  • for the investor looking for home court advantages, with a low risk product
  • if none of the three underlying will lose more than 50% in the next five years, the investment will end with a yearly return of 8.4%
  • the three underlying are Italian firms: two protagonists of the Italian history with great possibilities of performing well, and the other with earnings doubled in the last five years.

These biased news are accompanied by optimistic comments on the Italian politics (no longer under the microscope of the markets), on the BTP spreads (lower than in the past) and on the good economic conditions and GDP estimate. Few other information regarding the real structure of the payments (coupons and notional) are reported only at the end of a quite long text, lacking important details.

A distracted reader would conclude that this is an opportunity not to lose. But how does this instrument work in truth?

The investment was issued last March 2018 at 1000€ (notional), with maturity set at April 2023; the contract can end before (auto-call event), subject to a certain rule that varies over time; the coupons payments are conditioned to another rule (coupon trigger event). The following chart shows the possible outcomes as different portions of the space. The x-axis reports the time passing and the y-axis indicates different level of the worst underlying compared to its initial value (please note that as the rules are defined on conditions concerning all the three underlying simultaneously, the trigger conditions are activated by the worse one, that can change over time)

  • coupons: every month the prices of the underlying are compared to their threshold (65% of the prices at the issue date): if all the prices are higher than their thresholds, a coupon of 7,25€ (i.e. 8.7% annual yield) is paid; otherwise the contract goes on till the next “monitoring date” (once a month). The unpaid coupons can still be cashed in the first monitoring data when all the prices are higher than their thresholds, till the contract is in place (i.e. not auto-called)
  • notional:
    • [April 2018; August 2018] in the first semester, the auto call option is not in place;
    • [September 2018; March 2019] if all the prices are higher than the prices at the issue date (auto-call level of 100%), the notional is paid back and the contract ends;
    • [April 2019; April 2022] the auto-call level is regularly updated every 12 months, defined as a decreasing percentage of the price at the issue date (95%, 90%, 85%, 80% till March 2023);
    • at maturity (April 2023, last monitoring date), the notional is either totally reimbursed (when all the prices of all the three underlying are higher than 50% of their values at the issue date) or partially reimbursed, with a quota corresponding to that of the worst performing underlying (i.e. <50%).

This is not exactly what one would expect given the very promising description reported above. This structure indeed implies two outcomes that may not have been that clear:

  • [auto-call event] if the three assets do not lose value in the first semester, the extraordinary yield of 8.7% is paid for 6 months only then and the contract ends (maybe the investor wanted to invest its money for a 5-years horizon). In general, the probability of auto-call (red area) increases over time, reducing the probability of the coupons to be paid (blue area);
  • [reduced notional / lost coupons] if at least one of the three assets performs bad at all the monitoring dates, showing a price lower than 65% of its initial value, no coupons are paid in the next five years and, at maturity, there are three possible scenarios:
    • price >65%: missed coupons refunded, notional entirely paid;
    • 50% < price <=65%: missed coupons lost, notional entirely paid;
    • price <= 50%: missed coupons lost, notional reduced.

Differently from what commented by the author of the article I happened to read, this does not seem a riskless product (although the definition of “risk” is subjective): the historical prices and correlations of the three underlying imply a probability of receiving a notional more than halved of around 27%; it is also worth recalling that the probability of an event (>50%) to happen simultaneously to all the three underlying is significantly lower than the probability of the same event to happen to any of the underlying: it’s the intersection of the Euler-Venn diagram. The next chart shows how the values of the three underlying have been changing over 26 months preceding the issue date and an illustration of the Eulero-Venn diagram, where the areas do not correspond to the real probabilities (i.e. given an area of the rectangle, Universe set, equal 100%, the area of the intersection of the three sets does not indicate the true probability of the event)

Based on the historical volatilities of the log-returns of the prices of the three underlying and their historical correlation, I’ve run a simulation to quantify the probability of the notional to be paid back at different monitoring dates (auto call events) and at maturity:

  • during the first 6 months, the probability is 0, as there is no auto-call event in place
  • at T=6, the probability rockets to 23%
  • the probability then decreases over time, showing local peaks in correspondence of the auto-call level resetting (the cumulated probability of the contract to end within a year is around 39%)
  • the probability of the contract to last till the original maturity (T=60) is 34%, of which 7% corresponds to the case where the notional is entirely paid back and 27% corresponds to the event that the notional is just partially reimbursed (red bar).

This analysis also provides an estimate of the expected coupon the investors are going to receiving on average: the expected yearly rate is high (6.97% out of the maximum advertised of 8.70%), but is expected to be paid for a limited period (until the auto-call event). It is important to bear in mind that all the “missed” coupons are refunded the first time that the coupon trigger event is actioned.

As commented above, the definition of risk is subjective and not straightforward. To help investors is assessing the risk, the costs and the expected performance of different investment products (PRIIPs[1]), a new Key Information Document was introduced since January 2018. The KID of this product shows the following:

  • the Risk Indicator is 5 out of 7, i.e. “medium-high risk”
  • the average annual return at the Recommend Holding Period (5 years) is 4.92% in the favorable scenario, 1.10% in the moderate scenario and -11.95% in the unfavorable scenario (these values have been probably calculated as an average return on a five years horizon, when the contract is likely to auto-call much before)



[1]  Dall’Acqua Silvia, KIDs for PRIIPs ESAs,

Mag 022018

A new context brings new challenges

.The increasing levels of regulation and more challenging regulatory expectations are having significant operational impacts on firms requiring people, process and technology based solutions.

In respect of new legislation and regulation this can create challenges around understanding, implementing and embedding the new requirements whereas for existing legislation there can be challenges around understanding and managing the risks.

In addition, as EBA suggests in its recent paper on FinTech topic, the evolving nature of technological innovation will require a new regulatory and supervisory approach that should have such characteristics as:

  • Risk Based, expanding the regulatory perimeter to include activities and risks regardless the new FinTech business
  • Flexible and principles-based, maintaining a forward-looking approach as new technologies change quickly and continuously
  • Holistic in Nature, increasing the focus to policy issues that are not traditionally associated with financial sector supervision, such as cybersecurity, data use and privacy (stronger coordination with non-financial regulators)
  • Cross-Border, ensuring international cooperation

This, however, needs to be part of an overall, cross-sectoral approach, drawing from the other EU financial authorities from the securities, insurance, and other financial areas (including ESMA and EIOPA), with the strongly international coordination led by the Financial Stability Board (FSB).

Organizations need to solve complex compliance challenges in light of this changing landscape, such as linking compliance to strategy, managing regulators and compliance operations, and navigating the compliance technology ecosystem. In particular, a snapshot of the main challenges in these different areas is listed below:


  • Responding to new regulations
  • Higher regulatory scrutiny
  • Influencing regulators to enable innovation
  • Brand and reputation risks of non-compliance


  • Creating a compelling business case for change
  • Driving strategic decision making from compliance data
  • Need for an enterprise governance program


  • Reducing compliance costs
  • Transparency and compliance reporting
  • Managing inefficiencies in paper-driven processes


  • Applying new technologies to existing platforms
  • Managing disparate tech solutions and vendors
  • Understanding the new technology ecosystem
  • Lack of technology awareness
  • Managing and analyzing compliance data

New opportunities to leverage RegTech

RegTech solutions, powered by emerging technologies, help deliver richer and faster insights, drive efficiencies in compliance processes through automation, reduce costs, and offer foresight into emerging risk issues. These emerging technologies, such as advanced analytics, RPA, cognitive computing, and cloud, is enabling the creation of RegTech solutions to help address some of the compliance, regulatory, and risk management needs. At the same time, new opportunities are growing for financial services institutions (FSIs) to leverage RegTech for compliance:

Technology-enabled process efficiencies

  • Robotic process automation (RPA) | Leveraging rules-based systems to automate repeatable, logic-based business processes, such as checking internal compliance controls for organizations
  • Intelligent automation | Using cognitive technologies to build self-learning systems for automating intuitive tasks, such as compliance investigations processing, data extraction, and quality control

Data sharing and aggregation

  • Regulatory data sharing | Managing compliance requirements by allowing organizations to share proprietary data with business partners and alliances over a secure network
  • Regulatory data aggregation | Accessing alternate datasets, comprised of structured and unstructured information, aggregated from multiple sources, to make identity verification and compliance more accurate and efficient

Data-driven insights generation

  • Real-time data monitoring and anomaly detection | Monitoring structured and unstructured compliance data in real-time for various purposes, such as identifying possibilities of non-compliance and detecting threat of money laundering
  • AI/advanced analytics-enabled prediction of risks | Analyzing entity data and behavior for predicting regulatory and compliance risks. Allows organizations to mitigate risks proactively and address their compliance requirements

Platform development

  • Compliance over cloud | Offering easy-to-adopt, flexible compliance solutions on cloud-hosted platforms to enable businesses to address compliance issues at lower costs
  • Blockchain-based platforms for compliance | Creating immutable, agreed-upon, aggregated, and efficient compliance records for processes, such as AML/KYC and transaction reporting
  • On-demand compliance expertise | Providing easy access to specialized skills for assisting FSIs with their regulatory and compliance requirements

Where does RegTech lead?

RegTech has a very bright future, with a huge amount to opportunity for those developing this type of technology to automate and enable new way of business.

As you stand at the crossroads of this new paradigm in the RegTech age, have a look at the following real cases of RegTech implementations:

Data insights for customer protection | software that analyzes “big data” on customers (huge volumes of data) and allows company to perform smart analysis and clustering (e.g. identify the Positive and Negative Target Markets, understand the real customer needs, analyze the usual customer behaviors, monitor the correct selling  process reducing the miss-selling cases, produce consumable reports for board of directors, etc.)

Digital Identity for customer on-boarding| software that allows both the automatic, quick, secure registration of the customers’ identity information, during the complex on-boarding process (also enabling the digitalization of the entire operation – no face to face required). Moreover, this software creates a digital identity of the customer and enables the automatically sharing of a full range of information across the entire market (in a secure, encrypted, tracked way)

Deep dive transaction monitoring | software that, using complex cognitive algorithms, allows several different scenario analysis on customer data in order to help the identification of trends and from a regulatory perspective help to recognize outliers, right down to the individual customer transaction level

Intelligent help desk | software that allows the automatic management, through Artificial Intelligence engines, of trouble ticketing in some category of services (e.g. electronic banking, loans, investment, payments, …)

Contracts analysis automation | software that analyzes the completeness and accuracy of contract filling, ensuring their compliance with regulations in a fast and effective way. This software, with a minimum set of standard rules, is able to check and identify automatically the missing / incorrect parts of the contract

Predictive process transformation & regulatory reporting | software that organizes huge volume of data / information and allows deep processes check-up in order to identify process inefficiencies and operating risks. Moreover, the software allows bespoke reporting to be created in a way that is flexible enough to meet regulatory requirements of today and configurable to meet the regulatory requirements of tomorrow.

Final conclusions

In the short term, RegTech solutions will help FSI firms to automate the more mundane compliance tasks and reduce operational risks associated with meeting compliance and reporting obligations. In the longer term, they will likely empower compliance functions to make informed risk choices based on data provided insight about the compliance risks it faces and how it mitigates and manages those risks. Moreover, in any case, RegTech solutions will bring huge benefits in terms of processes efficiency and business improvement.

RegTech firms approach the solution from a technology solution-oriented point of view rather than a strategic one centered around key regulatory needs leading to suboptimal business outcomes.

For FSI organizations, the road to implement RegTech solutions starts understanding their business challenges, identifying the RegTech opportunities with the highest business value and designing a compelling future-state vision to develop the optimal implementation plan.

Alessandro Vidussi

Partner Strategy & Operation Deloitte Consulting – Innovation Representative FSI

Apr 172018

Some facts are objective: consumers need immediate and customized attention, as people have less and less disposable time, and Amazon is the point of reference when talking about customer experience: transparency and clear communication. Furthermore, Amazon is a “place” where a customer can rapidly find any product and any service. Nevertheless, people need banking services and life and P&C insurances.

Does this mean that Amazon can be a threat for the insurance and financial industry? Or is it an opportunity to form a strategic alliance? This article tries to give these questions an answer, both looking at what happened in the past and gathering some insights from the web: the latter analysis has been conducted by Barbara Galli, Director at Doxa and author of the book “Web Listening. Conoscere per agire”[1].

For what concerns the bank industry, Amazon already offers a credit card (co-branded with Jp Morgan) and a service, called “AmazonPay”, to pay on third party websites though the Amazon Account; in the US, a service called “Amazon monthly payment” is available to split the outgo into installments. In addition to that, Amazon is currently designing with Jp Morgan and Capital One Financial a financial product, similar to a cash account, in order to both reduce the transaction fees paid to credit card companies (e.g. Visa/MasterCard) and to collect information about the financial position and purchasing behaviors of its customers. Is Amazon trying to replace the banks?

First of all, we must recall that it would not be the first time for a corporation to try to acquire banking licenses: in the past, Walmart was stopped more than once by lawmakers and banking groups (1999 in Oklahoma and 2006 in Utah). Looking at the Amazon case, it seems that their strategy has more to do with enabling people to get theirs goods faster, smoothing the selling process, rather than to be a business to make money out of. Nevertheless, banks should worry as they are losing their cross selling opportunities. Amazon is not the only example where customers can skip the bank in the selling process: for instance, also IKEA is offering lending services, like many other retailers.

For what concerns the insurance industry, Amazon has already made some moves too. In 2016, the US-based retail giant has cooperated with Liberty Mutual, one of the largest diversified auto and home insurer in the US, enabling their consumers to navigate the insurance process by using their voice. This was possible thanks to Alexa, the voice service that allows customers to interact with devices in a more intuitive way: customers can access via vocal commands an insurance glossary, or can find a nearby agent to get a quote.

In 2017, Amazon has partnered with The Warranty Group to launch in the UK a P&C insurance policy, called Amazon Protect, to cover against accidental damages, malfunctions or thefts of goods bought on its ecommerce platform. Finally, in 2018, Amazon has entered the US employee healthcare market, collaborating with JP Morgan and Berkshire Hathaway to create a healthcare company with the aim of cutting costs and improving services for their US employees. It seems that Amazon wants to look overseas too, having already recruited insurance professionals in London to join a new team focused on the insurance market of the UK, Germany, France, Italy and Spain.

According to some rumors, dated beginning of 2018, Amazon was considering to use India as a test lab for expanding its insurance operations, investing in the insurtech Acko (provider of online insurance products). Such an operation would give Amazon the possibility of a huge expansion opportunity: nowadays only 3% of insurances are bought online, but this percentage is expected to skyrocket as India’s young population attains financial maturity – like it happened in China.

The important question is: can Amazon really supersede the insurance companies? Advisory practices need to serve both preferences: those who like traditional face to face and those who like the digital market. Currently, most life insurance sales occur when an agent engages in discussion about very personal issues, making people think about their deaths, sometimes without promising any immediate reward – probably the empathy of a human being can be crucial in this type of transactions.

On the other hand, it is indubitably that the current customer experience in purchasing an insurance policy can be improved: sometimes customers suffer a lack of understanding of the policies (pricing, exclusions, guarantees) together with an inefficient processing and products that are mostly commoditized (for both life and P&C insurances). Insurers should personalize products and provide transparency, demonstrating excellence in on-demand distribution. Amazon can be the opportunity to form a strategic alliance, acting as an aggregator and generating synergies for cross selling, though the functions “customers who bought this also bought…” or “customers who viewed this also viewed…” (e.g. goods for babies and life insurance for the parents or furniture for a new house and a fire P&C policy); user reviews could instill a sense of trust among the customers.

One question remains open: would customers buy insurance policies from Amazon? Some insights to answer this question can be found in the web. A quick web listening exploration has been run on what has been discussed, setting queries on the topics mentioned above

  • Amazon pay
  • Amazon and the insurance market
  • Amazon, JP Morgan and bank accounts
  • Amazon and Liberty mutuals
  • Amazon and Acko
  • Amazon and the warranty Group

Furthermore, the general feeling of the Italian customers about this major player entering a new marker has been analysed. The topics treated are not “trending” yet: there are about 1620 posts published during the last year on the open web [2], almost all related to “Amazon pay” (1451); the number dramatically decreases when it comes to more specific issues as “Amazon, JP Morgan and bank accounts” (114) or “Amazon and the insurance market” (51), nearly no conversations on the other topics. As shown by the peaks of conversations registered, the curiosity and attention level is high when linked to major news and events (e.g. Amazon Pay introduced in Italy, Europe Assistance releases Amazon Pay and Prima Assicurazioni forms an alliance with Amazon Pay).

Among the top engaging posts, those of Quixa and Wired dominate the web: the former refers to the promo of receiving a 50 Euro coupon when purchasing/renewing a Quixa insurance policy paying by Amazon Pay (770 interactions, 15 shares); the latter, dated April 2017, announces that digital payments attract the multinational corporation Wired (140 interactions, 34 shares).

The level and topics of conversations gathered above do not allow yet for a proper sentiment analysis, but a survey run on the Italian online population gives a clear indication on their feeling about Amazon becoming an insurance player. Though the level of credibility of banks and insurance companies is still higher, the Italian surfers are open to consider Amazon as a valuable player: 32% are willing (surely + probably) to subscribe a car insurance with Amazon and the percentage increases to 40% when Amazon partners with a “traditional” player (insurance company / bank). Figures are not that distant (roughly 10 p.p. less) when the underlying considered is a Life/Health insurance. In both cases, the latter counts for roughly half of the total population willing to buy an insurance policy. [3]

To catch opportunities and anticipate trends, the insurance companies should keep one ear open by the mean of prompted surveys and web listening, identifying the most proper way to offer their proposition by a distinctive communication, in each territory, be it social or not. As to Amazon, looking at its brand image, one thing is sure: it meets trust, quality and service expectations, a good starting point to be leveraged [4]




[2] data retrieved from the crawling platform Tracx ; dedicated queries; Doxa courtesy. Web listening from March 2017 to March 2018, open web (social properties excluded); Focus: Italy, conversations in Italian

[3] Sample representative of Italian Internet population; 1010 respondents; fieldwork: march 27th – April 4th 2018

[4] Sample representative of Italian Internet population; 1010 respondents; fieldwork: march 27th – April 4th 2018

Apr 102018

La Vigilanza bancaria della Banca Centrale Europea (BCE), dopo una consultazione pubblica durata alcuni mesi, ha recentemente varato il cosiddetto addendum al regolamento sulle linee guida in tema di crediti deteriorati (NPL).

Scopo dell’addendum è quello di delineare dei livelli minimi di accantonamento che prudenzialmente le banche sottoposte alla vigilanza diretta della BCE, ovvero quelle di maggiore dimensione, dovrebbero avere.

Nello specifico, questi livelli minimi sono definiti sulla base di due parametri: i) l’anzianità del credito deteriorato, ovvero da quanto tempo la banca ha riconosciuto il credito come non performante; ii) la presenza o meno di garanzie reali (figura 1).

Figura 1

Fonte: BCE (2018).

Per i crediti su cui la banca non vanta alcuna garanzia reale l’addendum richiede di raggiungere un livello di accantonamento pari al 100% dell’importo del credito deteriorato entro 2 anni dalla sua iscrizione nel portafoglio dei finanziamenti deteriorati. Gli impieghi su cui è presente una garanzia reale devono invece raggiungere una copertura del 100% entro sette anni.

L’addendum specifica inoltre che il raggiungimento del livello minimo di copertura dovrà avvenire in modo graduale e che si applicherà a tutti i crediti definiti come deteriorati a partire dal 1° aprile 2018. L’applicazione di questi nuovi criteri avverrà però solo a partire dallo SREP (Supervisory Review and Evaluation Process) del 2021.

Va comunque aggiunto che essendo un regolamento, e non una norma di legge, i vincoli imposti dall’addendum non possono essere applicati attraverso automatismi. Rispetto all’iniziale proposta la BCE ha in definitiva alleggerito il suo intervento, concedendo alle banche interessate circa tre anni per conformarsi ai nuovi standard e chiarendo che la valutazione avverrà caso per caso. Alcune banche potranno quindi discostarsi dai livelli minimi richiesti se riusciranno a dimostrare, ad esempio, che la loro migliore capacità di recupero degli NPL.

Si può quindi confermare la stima d’impatto per gli istituti operanti in Italia, pubblicata nell’aggiornamento al Rapporto Banche CER (2017), pari a circa 13 miliardi di euro (tabella 1). Cambia però il periodo di diluizione degli effetti, che passa dai precedenti 7 agli attuali 10 anni.

Tabella 1. Impatto dell’addendum BCE

Prestiti di famiglie e imprese (ago-17)

– in bonis    1.104,3
– sofferenze o probabili inadempienze       248,1
Deteriorati attesi nel 2018          33,9
– con garanzie reali          13,0
– non garantiti          20,9
Accantonamenti attesi secondo le coperture vigenti          18,6
Maggiori accantonamenti derivanti dall’addendum          13,4

Fonte: elaborazioni e stime CER su dati Banca d’Italia. Dati in miliardi di euro

Contestualmente all’addendum la Commissione Europea (2018) ha presentato una proposta di modifica delle regole comunitarie sui requisiti prudenziali degli istituti di credito in tema di NPL. La ratio della proposta della Commissione è analoga a quella dell’addendum. Si vuole infatti evitare che in futuro si possano accumulare NPL con tassi di copertura non adeguati. BCE e Commissione hanno un obiettivo comune, evitare che tra le banche europee prevalga la strategia del “wait-and-see”. In altri termini, i manager hanno un incentivo nel mantenere in bilancio gli NPL in attesa che il contesto macroeconomico e finanziario divenga più favorevole al fine di non dover subire, nel breve termine, contraccolpi sul conto economico. Così facendo si mette però a repentaglio la stabilità di lungo termine e si compromette anche la capacità di continuare ad erogare credito. L’esempio giapponese è al riguardo molto eloquente: la crisi bancaria che colpi il paese negli anni ’90 fu infatti affrontata dalle autorità nipponiche consentendo a molte banche di continuare ad operare senza riconoscere le ingenti perdite registrate ed evitando così il default (cosiddette “zombie banks”). La conseguenza fu il perdurare del fenomeno del credit crunch, con effetti negativi sulla crescita economica di breve e di medio-lungo termine. Fenomeni si sono verificati in Svezia e in Corea del Sud (grafico 1).

Grafico 1. Effetti delle crisi bancarie sulla crescita economica

Anche sugli aspetti tecnici ci sono delle similitudini: entrambi gli interventi puntano a una copertura totale dei crediti non garantiti entro 2 anni, mentre su quelli garantiti la proposta della Commissione concede un anno in più (8 invece dei 7 dell’addendum). Se questi sono gli aspetti in comune, le differenze più rilevanti riguardano invece il perimetro di applicazione: i) le modifiche proposte dalla Commissione si applicheranno a tutte le banche europee, quindi anche a quelle di minore dimensione; ii) i nuovi vincoli riguarderanno solo i nuovi crediti erogati a partire da marzo 2018 divenuti successivamente deteriorati. La proposta della Commissione, qualora il Parlamento Europeo la accettasse così come è stata formulata, avrà nel complesso un impatto ben più contenuto sui conti bancari.

Elemento debole di entrambi gli interventi è il mancato coordinamento. La BCE sembra voler agire con maggior decisione, mentre la Commissione propende in un approccio più graduale. In questo scontro hanno probabilmente entrambe torto. L’eccessivo pugno duro della BCE, in assenza di una Banking Union completa di tutti i suoi pilastri, e in particolare senza un fiscal backstop e l’assicurazione sui depositi, rischia di destabilizzare alcuni sistemi bancari, soprattutto dei paesi periferici. Dall’altro lato, l’approccio soft della Commissione, le ostilità di alcuni paesi nel portare a compimento la Banking Union e la scarsa attenzione dedicata ai rischi di mercato possono favorire l’azzardo morale e creare le basi per una futura crisi finanziaria di portata sistemica.

Relativamente ai rischi di mercato bisogna rimarcare come BCE e Commissione tendano a sottovalutare l’impatto destabilizzante dei titoli level 3 (si veda al riguardo Barucci, Baviera e Milani, 2018) e dei derivati, attività finanziarie che abbondano nei bilanci di alcuni istituti di credito operanti nei paesi nordici. In tal modo perdura e si aggrava un’asimmetria di trattamento tra rischio di credito e rischio di mercato (CER, 2018). Tale asimmetria discrimina tra sistemi nazionali, rende più conveniente per le banche l’assunzione di rischi finanziari rispetto all’attività creditizia, e lascia non adeguatamente presidiato proprio il fattore di rischio che nel 2007/2008 ha innescato la crisi finanziaria.

Grafico 2


In definitiva, e a distanza di 10 anni dallo scoppio della crisi internazionale, manca ancora una visione complessiva di come affrontare, nell’interesse dell’Europa intera, i problemi finanziari ancora aperti. Al riguardo va notato come le banche statunitensi, pur avendo subito forti contraccolpi all’avvio della crisi finanziaria, oggi hanno recuperato quasi interamente il terreno perso sui mercati azionari (grafico 2). La pronta reazione del governo Usa, in assenza di problemi di coordinamento tra le diverse nazioni che compongono lo Stato federale, può spiegare buona parte di questo successo.



Barucci, Emilio, Baviera Roberto, and Milani Carlo. “The Comprehensive Assessment: What lessons can be learned?.” The European Journal of Finance (2018): 1-19.

BCE, Addendum to the ECB Guidance to banks on non-performing loans: supervisory expectations for prudential provisioning of non-performing exposures, marzo 2018.

CER, Addendum sui crediti deteriorati: quali effetti per le banche italiane?, Aggiornamento Rapporto Banche, ottobre 2017.

CER, Rapporto Banche 2/2017, gennaio 2018.

Commissione Europea, Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on amending Regulation (EU) No 575/2013 as regards minimum loss coverage for nonperforming exposures, marzo 2018.