
Andrea Novara Business Unit Leader Area Banking & Payments AGILE LAB

Cos’è il progetto SME Lending e quali sfide avete affrontato per realizzarlo?
Come dichiarato da Stefano Patti (UniCredit) “Il progetto SME Lending è la nostra iniziativa volta ad accelerare e semplificare la concessione di credito alle piccole e medie imprese. Vogliamo portare a 20 minuti il tempo necessario all’affidamento dei casi più semplici, automatizzando quanto più possibile il processo decisionale. Per raggiungere questo obiettivo, SME Lending integra una serie di strumenti, tecnologie e fonti alimentanti, sia interne che esterne. Fra queste rientra la base dati del dominio Credit lines and collaterals, ospitata sul mainframe, perché uno degli aspetti cruciali nel valutare i fattori di rischio nella concessione di credito a un cliente è l’analisi dell’esposizione esistente.
In passato usavamo dei servizi che interrogavano direttamente il mainframe, con tempi di esecuzione consistenti e un impatto sul consumo di MIPS rilevante. Volevamo modernizzare questo approccio per migliorare tanto le performance, quanto l’experience di chi utilizzava i servizi. Per questi motivi abbiamo deciso insieme ad Agile Lab di prendere un approccio radicalmente diverso.”
È qui che entriamo in gioco noi di Agile Lab. Abbiamo rivoluzionato l’approccio, spostando il carico computazionale fuori dal mainframe e sostituendo le interrogazioni ad hoc con la generazione di documenti JSON pronti all’uso. I documenti descrivono l’intera posizione del cliente (linee di credito, garanzie, prodotti collegati, ecc.).
Il cuore dell’architettura è un data product indipendente, ospitato sulla Data Platform, che esegue l’offloading dal mainframe. Grazie a un meccanismo di change data capture, le mutazioni della base dati vengono catturate in tempo reale, inviate su Kafka e processate da un’applicazione Flink, che aggiorna i documenti JSON in modo coerente e tempestivo.
I documenti vengono poi esposti tramite una output port GraphQL, con tempi di risposta di pochi millisecondi, anche per casistiche complesse come i gruppi di rischio. Inoltre, la struttura dei documenti è configurabile senza modificare il codice, rendendo l’evoluzione semplice e accessibile anche a chi non è sviluppatore.
Grazie a questo approccio, già in produzione, siamo riusciti a ridurre il carico sul mainframe, migliorare le performance, e supportare l’ambizioso obiettivo di automazione di SME Lending.
In che modo l’integrazione di dati sintetici può rappresentare una risposta efficace alle sfide legate alla protezione della privacy e all’usabilità dei dati nei settori regolati, come quello assicurativo?
Nel settore assicurativo, la gestione quotidiana di grandi volumi di dati sensibili, tra cui informazioni mediche, finanziarie e anagrafiche, solleva importanti criticità in termini di privacy e compliance. Le aziende devono trovare un equilibrio tra il rispetto di normative stringenti, come il GDPR, e l’esigenza di disporre di dati affidabili per analisi, test e decisioni strategiche.
L’anonimizzazione è stata una delle prime soluzioni adottate, ma presenta diverse limitazioni: la rimozione o modifica di elementi identificativi riduce la qualità del dato e ne limita l’utilizzo in contesti complessi come la modellazione predittiva o la prevenzione delle frodi. Inoltre, il rischio di re-identificazione incrociando fonti diverse rimane concreto, e l’integrazione di questi dati nei sistemi esistenti può richiedere interventi onerosi.
In questo contesto, i dati sintetici rappresentano un’alternativa innovativa e sempre più diffusa. Generati artificialmente, non si riferiscono a individui reali, ma mantengono le stesse caratteristiche statistiche dei dati originali. Questo riduce drasticamente il rischio di violazioni della privacy, pur garantendo una forte utilità analitica.
La loro natura li rende ideali per la condivisione sicura con terze parti (regolatori, partner, ricercatori) e per usi interni come lo sviluppo di modelli di pricing, gestione del rischio e simulazioni operative. Inoltre, risultano pienamente compatibili con ambienti IT eterogenei e decentralizzati, evitando gli ostacoli tecnici tipici dell’anonimizzazione.
L’integrazione dei dati sintetici nei processi regolati consente quindi di coniugare protezione della privacy, conformità normativa e pieno utilizzo del potenziale informativo. Una leva concreta per abilitare l’innovazione data-driven in modo sicuro, flessibile ed efficace.
L’argomento verrà approfondito da Francesco Valentini, Agile Lab, Business Unit Leader – Area Insurance nel suo intervento.