Per limitare i rischi derivanti dall’applicazione dell’IA, la FINMA ha precisato le aspettative di vigilanza relative all’impiego dell’IA nei processi operativi degli assoggettati. Le aspettative, incentrate su quattro ambiti (cfr. grafico in questa pagina), sono state concordate e perfezionate con i vari stakeholder, nonché spiegate in modo dettagliato nel Monitoraggio dei rischi 2023.
In un ambito dinamico come quello dell’intelligenza artificiale, la FINMA punta fortemente a un fitto scambio con gli esperti nazionali e internazionali nonché con gli istituti del mercato finanziario che utilizzano l’IA. Dai colloqui è emerso che la maggior parte di tali istituti segue con grande attenzione gli sviluppi in questo ambito. Attualmente, molti di essi la sperimentano anche in contesti operativi a rischio piuttosto limitato. Raramente l’obiettivo è una completa automatizzazione e l’intervento dell’uomo nel processo riveste ancora un’estrema importanza. Il settore guarda con favore alla neutralità tecnologica e all’approccio basato sul rischio adottati dalla FINMA. Poiché, in linea di massima, il ricorso all’IA costituisce un’evoluzione sul piano tecnico, la maggior parte degli istituti non ritiene che i rischi siano fondamentalmente nuovi e li affronta nell’ambito dei processi per la gestione del rischio già predisposti. Oltre a comunicare le proprie aspettative di vigilanza, la FINMA verifica se la gestione del rischio e la governance dell’IA presso gli istituti sottoposti a vigilanza sono adeguate. Al fine di identificare, limitare e monitorare i rischi specifici dell’IA, dal quarto trimestre del 2023 svolge controlli in loco e colloqui di vigilanza con gli istituti finanziari che utilizzano ampiamente l’IA o la impiegano in settori rilevanti ai fini della vigilanza. Inoltre, nell’ambito della vigilanza continua essa ha esaminato più da vicino le prime applicazioni nell’asset management, nel monitoraggio delle transazioni e nella gestione della liquidità.
(Dal Rapporto annuale 2023)