Come l’intelligenza artificiale sta cambiando la gestione della liquidità in banca

Un'analisi basata su dati su come l'intelligenza artificiale influisce su liquidity, spread e compliance dopo le lezioni del 2008

Il ruolo dell’intelligenza artificiale nel rischio di liquidità delle banche
Nella mia esperienza in Deutsche Bank si è osservato come cifre apparentemente semplici possano anticipare tensioni di mercato. Nel 2008 un calo del 30% della liquidità su alcuni desk di trading trasformò uno shock temporaneo in una crisi sistemica. I numeri parlano chiaro: le banche che hanno adottato modelli di intelligenza artificiale registrano, secondo report di settore, riduzioni medie del tempo di previsione del fabbisogno di cassa fino al 40%. Questi miglioramenti possono limitare l’esposizione a ritiri improvvisi e migliorare la gestione intraday della liquidità.

Contesto storico ed esperienza personale

Marco Santini, ex Deutsche Bank, osserva che la crisi finanziaria del 2008 ha insegnato due lezioni fondamentali. La prima è che lo stress idiosincratico si propaga rapidamente via spread e funding. La seconda è che la carenza di dati tempestivi e di due diligence sui modelli amplifica il rischio. Secondo gli esperti, l’adozione precoce di strumenti analitici senza una governance solida e processi di compliance non è sufficiente.

Analisi tecnica e metriche

Dal punto di vista tecnico, l’intelligenza artificiale viene impiegata su tre fronti principali: previsione della domanda di liquidità, ottimizzazione del portafoglio di funding e monitoraggio intraday dei parametri di mercato. I dati Bloomberg e studi McKinsey Financial Services indicano che i modelli ML riducono l’errore medio di previsione giornaliera del fabbisogno di cassa dal 12% al 7%, una riduzione relativa di circa 41%.

Dal punto di vista regolamentare, emerge la necessità di integrare metriche di performance con requisiti di reportistica e stress testing. Marco Santini sottolinea che chi lavora nel settore sa che misure come liquidity coverage ratio e buffer di funding devono essere collegate ai modelli per evitare discrepanze operative. I numeri parlano chiaro: una governance integrata riduce la probabilità di errori di modello e limita l’esposizione a ritiri improvvisi.

Metriche chiave da monitorare includono:

  • Liquidity coverage ratio (LCR): variazioni medie osservate nello scenario pilota: +150-300 punti base di resilienza sotto stress modellato;
  • Net stable funding ratio (NSFR): miglioramento stimato fino al 5% grazie a ottimizzazione dinamica del funding;
  • Errore di previsione (MAPE): da 12% a 7% con modelli ML supervisionati;
  • Time to detect stress: ridotto da ore a minuti in implementazioni con monitoraggio real-time.

I numeri parlano chiaro: questi risultati, se confermati su larga scala, impatterebbero direttamente sul spread richiesto dagli investitori per funding a breve termine e migliorerebbero indicatori di liquidity. Tuttavia, occorre prudenza. I modelli di machine learning sono sensibili a cambi di regime e a osservazioni fuori campione.

Marco Santini, ex Deutsche Bank, sottolinea che nella sua esperienza una governance integrata riduce la probabilità di errori di modello e limita l’esposizione a ritiri improvvisi. Chi lavora nel settore sa che la capacità di validazione indipendente e la frequenza delle retroanalisi sono determinanti.

Rischi tecnici e operativi

Il primo rischio è la overfitting sui dati storici: modelli ottimizzati su scenari passati possono fallire in nuovi regimi di mercato. I dataset di training devono essere rappresentativi e aggiornati.

Un secondo rischio riguarda la qualità dei dati. Errori di feed, latenza o dati mancanti degradano le performance e possono generare segnali errati in momenti critici. Perciò servono procedure di data governance rigorose e controlli automatici.

Il terzo profilo è operativo: l’integrazione di sistemi ML con i flussi di tesoreria richiede architetture resilienti e rollback sicuri. Incidenti tecnici o errori di deployment possono amplificare rischi di mercato.

Infine vi è il rischio cyber e di compliance. Modelli esposti a manipolazioni dei dati o a vulnerabilità infrastrutturali compromettono la fiducia degli investitori. Dal punto di vista regolamentare, la trasparenza dei modelli e la documentazione delle decisioni sono requisiti essenziali.

Per mitigare questi rischi, Santini indica linee operative: test su dati out-of-sample, audit indipendenti delle pipeline, stress test integrati e limiti operativi su esecuzione automatica. I numeri parlano chiaro: solo test estensivi e governance solida possono tradurre i miglioramenti pilota in benefici sistemici nella gestione della liquidity.

I numeri parlano chiaro: solo test estensivi e governance solida possono trasformare i miglioramenti pilota in benefici sistemici nella gestione della liquidity. Marco Santini, ex Deutsche Bank, sottolinea che nelle pratiche operative occorre consolidare i controlli sui dati e procedure di fallback. Overfitting e dipendenza da segnali proprietari restano fonti di fragilità che richiedono mitigazioni strutturate.

Implicazioni regolamentarie

La BCE e la FCA hanno aumentato la vigilanza su AI e modelli di rischio. Nel 2025 la BCE ha pubblicato linee guida per la validazione dei modelli machine learning nel settore bancario, imponendo stress testing specifici e maggiore trasparenza sui dataset. Chi lavora nel settore sa che la conformità richiede logging completo, auditabilità e limiti operativi definiti.

Dal punto di vista regolamentare, l’assenza di controlli può annullare i benefici sui ratio di liquidità. I requisiti normativi includono evidenze di robustezza, piani di fallback testati e processi di due diligence sui fornitori di dati. Marco Santini osserva che, nella sua esperienza in Deutsche Bank, questi elementi sono fondamentali per evitare restrizioni operative e sanzioni.

È atteso un crescente coordinamento tra autorità per armonizzare le pratiche di validazione e le metriche di resilienza dei modelli. Il prossimo sviluppo normativo potrebbe richiedere reporting standardizzato sui risultati degli stress test e sulla qualità dei dataset.

Le autorità richiedono che le banche integrino test di robustezza contro scenari di liquidity shock non osservati nei dati storici. Inoltre, chiedono il mantenimento di soluzioni di fallback manuali o rule-based per far fronte al degrado del modello.

Conclusione e prospettive di mercato

Marco Santini, ex Deutsche Bank, osserva che l’intelligenza artificiale può migliorare la gestione della liquidity e ridurre il costo di funding se applicata con rigore. “Nella mia esperienza in Deutsche Bank, l’innovazione senza governance genera rischi nascosti”, afferma, richiamando la lezione del 2008.

I numeri parlano chiaro: riduzioni del MAPE e miglioramenti degli indicatori di funding sono promettenti. Tuttavia, la resilienza dipenderà dalla qualità dei dati, dalla due diligence e dalla compliance regolamentare. Il prossimo sviluppo normativo potrebbe richiedere reporting standardizzato sugli stress test e sulla qualità dei dataset.

Nelle prossime 12-24 mesi il mercato dovrebbe registrare un aumento delle implementazioni pilota pari al 25-35% anno su anno, secondo proiezioni di McKinsey. Le autorità europee stanno inoltre intensificando i requisiti normativi: la BCE e la FCA hanno segnalato una maggiore attenzione su governance, trasparenza e resilienza dei modelli.

Marco Santini, ex Deutsche Bank e analista fintech, sottolinea che le istituzioni che intendono adottare soluzioni di intelligenza artificiale devono investire oltre la tecnologia. Occorrono risorse per controlli, formazione e capitale operativo per gestire shock di mercato. I numeri parlano chiaro: il differenziale commerciale tra banche preparate e non preparate potrebbe ampliarsi nei prossimi cicli. Dal punto di vista regolamentare, è atteso un reporting più standardizzato sugli stress test e sulla qualità dei dataset.

Fonti: BCE, FCA, McKinsey Financial Services, dati Bloomberg.

Scritto da Marco Santini

Cerimonia di chiusura a Verona e il bilancio dell’Italia a Milano Cortina 2026