Michele Azzone

Set 202019
 

Benché le chiacchere su AI e Machine Learning superino di gran lunga la pratica (secondo Gartner[1], solo il 37% delle imprese utilizza l’AI, e ben il 40% delle start-up che si definiscono “di AI” non utilizza affatto l’AI[2]) , nel mondo delle banche e delle assicurazioni è opinione diffusa che grazie a tecnologie data-driven e innovazione digitale si possano offrire prodotti e servizi a costi molto più bassi.

Di questi guadagni d’efficienza ne beneficierebbe la profittabilità di un’industria proverbialmente poco dinamica (per rendersi conto di quanto, basta considerare l’imbarazzante e perdurante diffusione un linguaggio di programmazione paleozoico come il Cobol[3]). Un’industria che vive un periodo di grande compressione dei margini, e che di questi guadagni di produttività ne ha bisogno come il pane, viste le prospettive relative ai tassi d’interesse e ai margini d’intermediazione.

Ovviamente si avrebbero vantaggi anche per i consumatori, in termini di qualità di servizio e “financial inclusion”, nonché guadagni di produttività in altri settori dell’economia limitrofi.

Bello, sì.

Ma quanto è grande il guadagno di produttività legato a innovazione digitale e uso dei dati (i.e., Machine Learning, AI)? Cioè: con modelli operativi concretamente perseguibili in tempi accettabili, di quanto stiamo parlando?

Sulla base di alcune ipotesi che descrivo nel seguito e che trovano riscontro in software esistente, ho provato a fare una mano di conti. Mi sono focalizzato sul settore del wealth management inteso in senso lato: ossia servizi d’investimento, protezione di persone e cose (vale a dire servizi d’assicurazione), finanziamenti. L’odierna offerta di banche e gruppi assicurativi ad ampio spettro, insomma.

Immaginiamo una di queste realtà, con il classico modello di business basato su reti di professionisti – consulenti finanziari, private banker, o agenti assicurativi – e una tecnologia che:

  • individua precisamente bisogni ed obiettivi dei clienti dai dati, tramite Machine Learning (ottemperando tra le altre cose gli obblighi di legge, ossia profilazione e product targeting secondo MIFID e IDD);
  • aiuta a creare il miglior mix personalizzato di prodotti per ciascun cliente, e la conseguente Next Best Action;
  • offre automaticamente contenuti, modulistica e reportistica, anch’essi personalizzati in base alle preferenze e i bisogni dei clienti;
  • segue il life-cycle del cliente, a partire dalla fase d’ingaggio, imparando e adattandosi nel tempo.

Ora chiediamoci: cosa succede se forniamo all’azienda e alla sua rete questa tecnologia?

Per rispondere, con una piccola survey ho innanzitutto raccolto informazioni da alcuni consulenti finanziari sulla loro operatività e la saturazione del loro tempo, sulla quantità e qualità di clienti, su come si preparano ad incontrarli e altre informazioni di processo. Insomma: tempi e metodi. Ho considerato i dati sulla distribuzione della capacità patrimoniale tra i clienti, integrando diverse banche dati.

Essendoci varietà nelle risposte e poche certezze a questo mondo, ne è scaturito un modello probabilistico, calibrato sulle informazioni raccolte e sui dati a disposizione, che descrive il processo di gestione della clientela e le metriche ad esso associate. È un modello profondamente fondato su Agent-based modeling e Teoria delle Code[4], un campo della matematica applicata popolare nell’analisi di reti di telecomunicazioni, ma che si presta anche a rappresentare il servizio di consulenza finanziaria/assicurativa. Simulando il tutto con metodo Monte Carlo e sintetizzando l’informe nube di decine di migliaia di numeri sono emersi alcuni fatti interessanti, che riporto brevemente.

Risparmi di tempo e guadagni di produttività

Se si introduce questa tecnologia su una rete la cui capacità produttiva non è lontana dal punto di saturazione e il software in questione consente un risparmio di tempo significativo, del 35% in media (stima conservativa, basti pensare al tempo occorrente per assemblare una reportistica decente, o studiare il profilo del cliente), il guadagno di produttività, inteso come maggior numero di clienti gestibili è sorprendente: con probabilità superiore al 90%, la capacità di gestire clienti raddoppia. Esatto: radoppia. E qualche volta triplica.

Può stupire che una tecnologia che porta a un risparmio di circa un terzo del tempo porti a più che raddoppiare il numero di clienti gestibili. Ma, al di là del fatto che poche cose viaggiano in linea retta in natura e ancor meno in economia, ciò è tipico di sistemi che presentano inefficienze di processo e “colli di bottiglia”. Ora, il mondo finanziario-assicurativo è un condensato d’inefficienze di processo tanto quanto una stella di neutroni è un condensato di materia, sicché l’applicazione di Machine Learning e customer intelligence vanno a braccetto, portando a risultati sorprendenti.

Nuovi clienti, nuove masse in gestione e nuova raccolta premi

Nuovi clienti da servire equivalgono a nuove masse in gestione o a nuova raccolta premi. Ma, visto che i clienti obbediscono a una legge di Pareto (si veda il grafico seguente, una stima sulla popolazione reale), dove pochissimi hanno molto e molti hanno poco, probabilmente ciò significa andare a parare su clienti con minor potenziale. Infatti consulenti e agenti si concentrano tipicamente sul top 20% del bacino di clienti, sicché si tratterebbe di puntare sul restante 80%.

Concentriamoci per semplicità di calcolo sui prodotti d’investimento, e valutiamo l’incremento annuo di AuM associato ai nuovi clienti, riportato nel grafico seguente: nel 90% dei casi simulati l’incremento di AuM si colloca tra il 20% e il 46%, con una mediana del 33%. Identico incremento è atteso sulle commissioni, se si ipotizza che non cambino aumentando il numero di clienti.

Può andare anche meglio

Questo risultato appena descritto è condizionato dall’ipotesi che i clienti aggiuntivi siano tutti più piccoli degli attuali. Tutti. È un’ipotesi iperconservativa, visto che anche tra i “clienti mignon” si nasconde una quota di clienti ad alto potenziale[1]. Rilassando quest’ipotesi e ammettendo che alcuni nuovi clienti possano essere dimensionalmente importanti, l’incremento di AuM (e di riflesso quello delle commissioni) migliora sensibilmente e nel 95% dei casi – cioè praticamente sempre – è superiore al 40%, con mediana pari a 80%. Grosso modo lo stesso incremento è atteso sulle commissioni, essendo approssimativamente in relazione lineare con gli AuM.

I risultati sono nel complesso paragonabili a stime di tutt’altra natura, ottenute non per via simulativa – ad esempio McKinsey stima che gli advanced analytics portino ad un aumento di ricavi compreso tra il 15% e il 60%[2]. Ciò non toglie che quello qui presentato sia modello semplificato, un’approssimazione d’ordine zero della realtà. Comunque, questa prima, rude stima dell’impatto dell’innovazione digitale e della scienza dei dati nel wealth management dice forte e chiaro una cosa: l’impatto è rilevante, è qualcosa in grado di cambiare la redditività.

È evidente che ci sono altri benefici di drammatica importanza: pensate all’aumento della qualità del servizio al cliente – cosa che lo fidelizzerà e porterà ad una crescita del “life-time value”, con relativo impatto sul valore dell’azienda.

Al di là delle chiacchere e del grande “hype dell’AI”, questa tecnologia esiste. Anche se non basta solo la tecnologia, occorrono anche “soft skills”.

L’abilità infatti consiste nel trovare il giusto modello organizzativo per combinare:

  • tecnologia, raccolta efficiente dei dati e uso dei canali digitali – disponibili sempre, con processi paralleli simultanei e scalabili;
  • esperienza e professionalità del consulente finanziario o dell’agente assicurativo – disponibile solo in certi momenti, impossibile da utilizzare in modo parallelo e poco/niente scalabile, e che potrebbe temere l’innovazione tecnologica, rallentandola.

In altri termini, serve una data strategy[3] che apra la strada all’innovazione. Il beneficio è un portentoso salto in avanti in termini di qualità, produttività e quindi profittabilità per banche ed assicurazioni.


[1] Si veda https://www.linkedin.com/pulse/lo-strano-caso-dei-clienti-mignon-raffaele-zenti/

[2] “Advanced analytics in asset management: Beyond the buzz”, McKinsey & Company, https://www.mckinsey.com/industries/financial-services/our-insights/advanced-analytics-in-asset-management-beyond-the-buzz

[3] “Avete una data strategy?” FinRiskAlert, https://www.finriskalert.it/?p=7088


[1] “Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form”, Gartner, https://www.gartner.com/en/newsroom/press-releases/2019-01-21-gartner-survey-shows-37-percent-of-organizations-have

[2] “Europe’s AI start-ups often do not use AI, study finds”, Financial Times, https://www.ft.com/content/21b19010-3e9f-11e9-b896-fe36ec32aece

[3] “Wanted at Banks: Young Tech Pros with Old-Tech Smarts”, American Banker, https://www.americanbanker.com/news/wanted-at-banks-young-tech-pros-with-old-tech-smarts

[4] Qui un’introduzione, per chi ne fosse a digiuno: http://wwwhome.math.utwente.nl/~scheinhardtwrw/queueingdictaat.pdf

Set 152019
 

Le attività di raccolta dei depositi e di impiego (credito) ai clienti sono cruciali per tutte le banche commerciali. In primis, perché le banche sono le uniche istituzioni finanziarie che possono avere un deposito, ad esempio nella forma del conto corrente. In secondo luogo, perché l’attività del credito permetterà di trasformare il deposito, che può essere ritirato in ogni momento e quindi ha una scadenza di breve termine, in un investimento con una scadenza temporale di lungo termine (es. mutuo). Da questo mismatch temporale proviene la maggiore fonte di guadagno delle banche, fintanto che la curva dei tassi di interesse prevede che venga remunerato un investimento a lungo termine più di uno a breve termine per corrispondere un premio al tempo e all’incertezza dell’investimento. Dal punto di vista della banca tale mismatch temporale è fonte di guadagno ma anche fonte di rischi, in particolare il rischio di liquidità e il rischio di tasso di interesse. Il primo riguarda l’incertezza relativa a quando e quanto verranno ritirati i depositi, o quando e quanto verranno ripagati prima del tempo previsto contrattualmente il debito verso la banca (e.g. prepagamento di mutui), facendo affluire/defluire con maggiore velocità la liquidità della banca. Il secondo tipo di rischio riguarda l’incertezza sul tasso con cui verranno remunerati i depositi ed il tasso di impiego dei crediti; entrambi i tassi dipendono dalla curva dei rendimenti e dai movimenti al rialzo/ribasso che potranno avvenire in futuri. Entrambi i rischi possono essere mitigati se la banca comprende il comportamento dei clienti e, tramite un modello, può prevedere quale sia l’ammontare di depositi stabili ed insensibili nel tempo o prevedere quale sia l’ammontare di prepagamenti. In conclusione, la redditività ed il rischio di liquidità e di tasso di interesse sono profondamente influenzati dal comportamento dei clienti e dai modelli interni utilizzati per gestire prospetticamente i rischi e la redditività futura.

Recentemente con Umberto Crespi abbiamo scritto un libro[1] dedicato ai modelli comportamentali, alla natura e corretta impostazione delle assunzioni usate nei modelli che hanno il fine di gestire il disallineamento (mismatch) tra i depositi/impieghi ed il relativo rischio di liquidità e tasso di interesse. Sono modelli statistici e matematici che si dividono, per semplicità, in due macro-categorie: i modelli per i depositi e quelli per il prepagamento. I primi mirano a stimare quale sia la parte di depositi che possa essere considerata come una fonte stabile di finanziamento e quale parte dei volumi sono insensibili alle variazioni dei tassi di interesse. I secondi, invece, sono modelli che stimano la probabilità ed il volume di finanziamenti (e.g. mutui) che sarà prepagato dal cliente. Il prepagamento può essere parziale o totale e, in entrambi i casi, modifica le rate contrattualmente previste. Quest’ultimo comportamento ha effetti importanti per l’intero portafoglio di crediti della banca malgrado sia stimato a livello di singolo evento (un mutuo). In particolare i modelli di prepagamento sono diventati rilevanti in paesi, come l’Italia, che hanno abolito la normativa vincolante il rapporto contrattuale univoco con la banca dando la possibilità di estinguere, prepagare o surrogare senza costi aggiuntivi (Decreto Bersani l. legge 2 aprile 2007, n. 40).

L’output dei modelli è rilevante per misurare e gestire il rischio di tasso di interesse ma anche per comprendere la redditività delle banche. In particolare, il modello dei depositi stima quale sia l’ammontare di prelievi che verranno effettuati dai conti correnti o, viceversa, qual è l’ammontare di depositi che non verrà prelevato, in un arco temporale di un anno o anche di più. Allo stesso tempo considera una probabilità di tali uscite e, per essere conservativi, di solito si prende il 95% o il 99% dei possibili scenari futuri. Facciamo un esempio: se sul conto corrente un cliente ha 1.000 euro, il modello dovrà prevedere quale sia l’ammontare, o la percentuale dei 1.000 euro, che sarà ancora sul conto corrente tra un anno o due anni o anche dieci anni. E tale percentuale deve essere prudente, nel senso che il modello deve considerare periodi di stress in cui, per diversi motivi, il conto corrente non è più alimentato da uno stipendio o una pensione ma ci sono sole uscite. Mettiamo che il risultato del modello con un orizzonte temporale di dieci anni e un livello di confidenza del 95% sia 300 euro. Di conseguenza la banca potrà investire, ad esempio in un mutuo, 300 euro prestandoli ad un cliente con un orizzonte di dieci anni, ed essere certa al 95% che non dovrà reperire altrove, ovvero sui mercati finanziari, 300 euro qualora il cliente richieda il proprio deposito indietro. Il secondo obiettivo del modello dei depositi è stimare, sempre con un certo livello di confidenza, quale parte di questi 300 euro depositati è insensibile al variare dei tassi di interesse. Assumiamo che il deposito sia remunerato con un tasso di interesse pari allo 0.1% e che il modello preveda per quel cliente un volume insensibile ai tassi di interesse pari a 200 euro. Questo significa che se i tassi di interesse nei prossimi dieci anni aumenteranno o diminuiranno solo 100 euro dovranno cambiare remunerazione a causa della fluttuazione mentre 200 euro riceveranno sempre lo 0.1%. Chiaramente, questo esempio non vale per un singolo correntista e bisogna osservare il fenomeno a livello di portafoglio, ovvero osservando tutti i clienti nel loro insieme o in sotto-insiemi effettuando l’analisi per il cluster Retail, Private o nel mondo delle imprese segregando le piccole dalle medie/grandi imprese.

Chiarito questo obiettivo, è importante capire le cause, ovvero le variabili esplicative del modello, che possono spiegare come mai il cliente con 1.000 euro sul conto utilizzerà con il 95% di probabilità nei prossimi dieci anni il 70% di quest’ultimi e chiederà, per l’80% di questo deposito, di rivedere al rialzo le condizioni contrattuali se i tassi di interesse di mercato aumenteranno, o viceversa, si vedrà la richiesta da parte della banca di diminuire la remunerazione dei  depositi se i tassi scenderanno.

Usando l’econometria, congiuntamente alla logica economica,  si crea il mix perfetto che consente al modello di assumere che gli eventi storici osservati siano predittivi del futuro in termini sia di dimensioni sia di impatto per le banche. Per questo motivo è importante avere un database utile alla stima del modello con una profondità storica di almeno 3-5 anni, una granularità dei dati che storicizzi il depositi medio mensile (quello giornaliero è troppo di dettaglio per l’obiettivo del modello), una capacità di aggregare i clienti in funzione dell’appartenenza al settore Retail, Private, small-business, grandi imprese o banche, e che includa per ognuno di essi la remunerazione dei depositi.

Seguendo la teoria economica, ognuno di noi detiene depositi sul conto corrente in funzione delle transazioni attese (componente transazionale) quali le spese per affitto, ristoranti o vestiti, per gestire le future transazioni  (componente risparmio) o per investire (componente speculativa). Per questo motivo il modello dovrà considerare quelle variabili che possono spiegare la componente transazionali, di risparmio o speculativa. Tali variabili sono microeconomiche ed aiutano a spiegare la componente transazionale e di risparmio, quali il salario e la ricchezza finanziaria del cliente, il costo opportunità di muovere il deposito verso altre forme di investimento, il livello di competizione tra le banche o la presenza/assenza di una trattenuta per muovere la liquidità tra un conto corrente e un altro. In secondo luogo, le variabili macroeconomiche come l’andamento del PIL, dell’inflazione, dei salari e della disoccupazione sono utili a capire le componenti transazionali e di risparmio mentre l’andamento dei mercati finanziari (tassi di interesse, azionariato e obbligazionario) sono fondamentali per capire la componente speculativa. Non da ultimo, ci sono altre variabili che possono essere utili a prevedere quanti volumi saranno stabili ed insensibili ai tassi, e dipendono dalla banca ovvero la presenza di una strategia di business o di marketing che può incentivare/disincentivare l’utilizzo del deposito per fini transazionali o speculativi e rendendo più o meno appetibile il deposito su conto corrente. 

Una volta comprese che tutte queste variabili possono essere rilevanti, diventa fondamentale l’analisi economica di quali, tra queste, siano più utili a predire il comportamento del cliente. Per questo motivo, nel libro suggeriamo di scegliere  un modello semplice rispetto ad uno più complesso in funzione della qualità del database, ovvero della capacità di incrociare i dati con le variabili predittive. Un modello semplice utilizzerà, ad esempio, la serie storica dei volumi del conto corrente e ne prenderà un minimo o analizzerà qual è stata la variabilità minima-massima negli ultimi dieci anni assumendo che la stessa si potrà ripresentare nei prossimi dieci anni. Al contrario, un modello più complesso andrà ad integrare i depositi sul conto corrente dei clienti con il valore della ricchezza finanziaria e l’ammontare di investimenti (portafoglio titoli) cercando una relazione tra l’allocazione della ricchezza finanziaria tra il conto corrente ed il portafoglio titoli con l’andamento delle variabili finanziarie o del costo opportunità con altri prodotti di investimento.

Una volta ottenuto l’output, da un modello semplice o da uno più complesso, molti attori all’interno dei vari dipartimenti della banca ne faranno uso. E per questo motivo i modelli comportamentali sono importanti all’interno di tutto il processo bancario.
In primis, il dipartimento di tesoreria della banca, il quale utilizzerà l’ammontare di volumi stabili per la gestione del rischio di liquidità, il dipartimento di finanza e/o risk management per sapere quanta parte dei depositi potranno essere investiti in mutui a tasso fisso così da immunizzare la banca dal rischio tasso di interesse, o per stabilire il prezzo interno di trasferimento dei fondi ovvero la remunerazione dei depositi e dei mutui tra la tesoreria e le unità di business. Infine, il dipartimento di pianificazione per prospettare la redditività complessiva all’interno del piano industriale o il dipartimento che cura la relazioni con gli investitori i quali sono interessati a capire quale sia la redditività della banca. Per ultimo, questi modelli sono oggetto di attenzione da parte della vigilanza bancaria, ECB, e degli audit interni che, insieme al dipartimento di validazione dei modelli interni, si occuperà di verificare la corretta implementazione e stima dei modelli. 



[1] A Guide to Behavioural Modelling – Risk.Net