Banche, perché è ora di passare dall’AI alla XAI

14 Luglio 2022, di Valentina Magri

Al 2020, oltre la metà delle banche italiane utilizzava soluzioni basate sull’intelligenza artificiale (AI), con un trend in aumento per il triennio 2021-2023. Gli ambiti di maggior rilievo risultano gestione delle frodi, cybersicurezza, contact center, credito e supporto alle operation. Lo rileva l’indagine “L’Intelligenza Artificiale in banca: stato dell’arte e prospettive“, pubblicata sul sito Cipa (Convenzione Interbancaria Per l’Innovazione) nel giugno 2021. Ciononostante, l’AI spaventa molte banche a causa degli “algoritmi black box”.

L’AI e gli algoritmi “black box”

Gli algoritmi “black box” consistono nel fatto che i modelli di apprendimento automatico che hanno il compito di identificare schemi nei dati, fare previsioni e risolvere problemi complessi, sono spesso poco trasparenti e nascondono i loro meccanismi di base.

Ecco perché il loro utilizzo comporta dei rischi, legati alla difficoltà di spiegare i loro risultati e i fattori che li hanno influenzati. Ciò spinge molte banche a non trarre vantaggio dai modelli di AI all’avanguardia, come ad esempio i programmi di riconoscimento facciale per gli sportelli automatici. Inoltre, gli algoritmi “black-box” sollevano anche una serie di questioni spinose, sottolineano Alexei Surkov, Jill Gregorie e Val Srinivas di Deloitte. In primo luogo, ogni modello di apprendimento automatico deve essere autoesplicativo? Oppure il livello di comprensibilità dovrebbe dipendere dal contesto, dallo scopo e dalle aspettative di conformità normativa?

L’avvento della XAI

Per gestire le questioni di trasparenza e fiducia esiste la XAI, acronimo di “explicable AI”, nata proprio per rendere i modelli di IA più comprensibili e intuitivi per gli utenti umani, senza sacrificare le prestazioni o l’accuratezza delle previsioni. La comprensibilità sta diventando una preoccupazione sempre più pressante anche per le autorità di regolamentazione bancaria, che vogliono avere la certezza che i processi e i risultati dell’AI siano “ragionevolmente comprensibili” per i dipendenti delle banche. In questo senso, l’ampliamento delle tecniche di XAI sta diventando una priorità per molti istituti di credito. Alcuni di essi hanno collaborato con i principali specialisti della Carnegie Mellon University e dell’Università di Hong Kong per proporre nuovi usi della XAI, e hanno co-fondato laboratori di innovazione che mirano a produrre modelli di apprendimento automatico spiegabili che promuovano i loro obiettivi aziendali. Diverse banche stanno creando task force speciali per guidare le iniziative di comprensibilità dell’AI, in coordinamento con i loro team di AI e le loro business unit.

Anche l’uso di soluzioni di apprendimento automatico (AutoML) da parte dei fornitori è aumentato considerevolmente. A questo proposito, le banche stanno cercando di adottare soluzioni AutoML più complete offerte da venditori, fornitori di cloud e società di software. Queste soluzioni preconfezionate hanno diversi gradi di comprensibilità e possono richiedere mesi per analizzare e documentare il loro funzionamento.

I vantaggi della XAI

La XAI può in primis far nascere un maggior numero di progetti pilota che coinvolgono l’AI nelle banche. Inoltre, gli strumenti di comprensibilità che offre possono sbloccare diversi tipi di informazioni su un modello, a seconda del tipo di risposte che si stanno cercando e dei tipi di approcci modellistici utilizzati. “Questi sforzi sono importanti per sostenere la protezione dei clienti e l’equità dei prestiti, identificando i parametri del modello che portano a un impatto disparato, comprendendo i compromessi nelle prestazioni del modello, sviluppando casi aziendali più convincenti per l’adozione del modello e l’accettazione da parte del management, garantendo una maggiore fiducia e credibilità nei modelli e prevenendo potenziali problemi di regolamentazione/conformità”, spiegano gli esperti di Deloitte.

Oggi esiste un’ampia gamma di modelli, che vanno dagli alberi decisionali alle reti neurali profonde (DNN). Se i modelli più semplici possono essere più interpretabili, ma spesso hanno un potere predittivo e un’accuratezza inferiori, soprattutto rispetto ai modelli più complessi. Molti di questi algoritmi complessi sono diventati fondamentali per l’implementazione di applicazioni avanzate di AI nel settore bancario, come il riconoscimento facciale o vocale e la negoziazione di titoli. Dal canto loro, gli organi di vigilanza finanziaria hanno raccomandato alle banche di affiancare i modelli tradizionali a quelli sofisticati di apprendimento automatico e di assegnare agli analisti, o ad altri esseri umani, il compito di risolvere le eventuali discrepanze che emergano tra i due.

Come implementare la XAI

L’implementazione della XAI richiede potenziali modifiche alle fonti di dati, allo sviluppo di modelli, all’interfaccia con i vari stakeholder, ai processi di governance e all’impegno con fornitori terzi, raccomandano gli esperti di Deloitte. Che suggeriscono anche le seguenti best practice:

  1. discutere i punti di forza e debolezza dei modelli;
  2. presentare in modo semplice e intuitivo le spiegazioni;
  3. esplicitare come i risultati del modello saranno impiegati.

Ciò comporterà probabilmente l’introduzione di nuove politiche e metodi, dalle fasi di premodellazione al monitoraggio e alla valutazione successivi all’implementazione. Sarà inoltre necessario che tutti gli stakeholder che contribuiscono allo sviluppo di modelli di AI agiscano in modo mirato in ogni decisione che prendono. Ad esempio, gli sviluppatori dovrebbero applicare i principi di comprensibilità alla scelta dei dati di addestramento e di input per i prototipi di modello. Invece di concentrarsi esclusivamente sui set di dati che massimizzeranno le prestazioni, dovrebbero anche considerare se i dati stessi possono perpetuare pregiudizi nascosti (ad esempio, i dati storici sui prestiti possono favorire alcuni gruppi demografici che hanno avuto un accesso più facile al credito), se i dati contengono informazioni personali dei clienti e se coprono un arco di tempo abbastanza lungo da catturare eventi rari o insoliti.

I team di sviluppo dei modelli dovrebbero anche effettuare una valutazione preliminare delle prestazioni e dell’interpretabilità del modello, per avere un’idea della sua accuratezza. Il faro di ogni decisione deve essere in ogni caso migliorare la comprensibilità del modello.

Valentina Magri | Wall Street Italia

Per incorporare completamente la comprensibilità nel ciclo di vita della produzione dell’IA, a livello organizzativo le banche dovrebbero istituire una task force interfunzionale, che comprenda specialisti del comitato esecutivo, delle aziende, dell’IT, del rischio e della conformità, del settore legale, dell’etica e della ricerca sull’AI. Il programma Explainable AI della Defense Advanced Research Projects Agency (Darpa) dell’esercito statunitense ha dimostrato che alcuni dei team più efficaci hanno competenze e professionalità interdisciplinari, come gli informatici che lavorano con psicologi sperimentali e specialisti di user experience e design. Sarà importante altresì che le banche stiano attente alla comprensibilità anche nelle norme e nelle pratiche culturali, dalla formazione annuale dei dipendenti alla valutazione del Roi dei nuovi prototipi, fino alla previsione di ritorni pluriennali su tali progetti. Altrettanto cruciale per gli istituti di credito è l’aggiornamento continuo, partecipando attivamente alle conferenze e ai workshop che trattano gli argomenti emergenti della XAI e collaborando alla ricerca che può far progredire il settore e le sue applicazioni pratiche. Senza dimenticare la tutela degli interessi dei clienti.

“Adottando misure supplementari per essere etiche e trasparenti, e continuando a guidare la ricerca e le pratiche di punta nel campo dell’AI, le banche possono ottenere la fiducia delle autorità di regolamentazione e trovare l’equilibrio ideale tra innovazione tecnologica e sicurezza”, ha concluso Paolo Gianturco, Business Operations & FinTech Leader di Deloitte.