Dai sondaggi emerge che l’intelligenza artificiale è ancora in fase di sperimentazione nella maggior parte degli istituti, mentre in un numero limitato di imprese esistono già applicazioni avanzate, che richiedono opportuni processi di gestione del rischio. Da quando si sono rese disponibili chatbot come ChatGPT, è ulteriormente cresciuto in misura significativa l’interesse per le soluzioni di intelligenza artificiale. Presumibilmente, l’intelligenza artificiale implicherà diversi cambiamenti anche nel mercato finanziario.
La FINMA prevede sfide particolari nell’impiego dell’intelligenza artificiale nei quattro ambiti seguenti e si attende che l’industria finanziaria affronti i rischi in modo adeguato.
Governance e responsabilità: le decisioni possono basarsi in misura sempre maggiore sui risultati delle applicazioni IA o addirittura essere eseguite in autonomia da queste ultime. Oltre a rendere più difficile spiegare i risultati delle applicazioni IA, ciò aumenta la complessità del controllo e dell’attribuzione delle responsabilità per le azioni compiute da tali applicazioni. Si acuisce il rischio che gli errori passino inosservati e la responsabilità non sia chiaramente definita, in particolare nei processi aziendali complessi e in caso di lacune nel know-how. Per esempio, ChatGPT fornisce risposte basate sulla massima probabilità talmente convincenti da rendere difficile, per gli utenti, valutarne l’autentica correttezza.
È necessario definire chiaramente ruoli, responsabilità e processi di gestione del rischio, nonché implementarli. La responsabilità delle decisioni non può essere delegata all’IA o a terzi. Tutte le parti coinvolte devono possedere un sufficiente know-how in materia di intelligenza artificiale.
Solidità e attendibilità: il processo di apprendimento delle applicazioni IA si basa su grandi quantità di dati. Ciò comporta tra l’altro rischi derivanti da una mediocre qualità dei dati (p. es. non rappresentativi). Inoltre, le applicazioni IA si ottimizzano automaticamente, di conseguenza il modello può evolvere in modo errato (la cosiddetta deriva o drift). Secondo l’«Harvard Business Review», la maggior parte degli algoritmi IA per la previsione delle malattie legate al COVID-19 ha fatto fiasco. Queste applicazioni non si sono dunque rivelate sufficientemente attendibili per un loro impiego autonomo. Infine, con il maggiore utilizzo delle applicazioni IA, le relative esternalizzazioni e il ricorso al cloud aumentano anche i rischi nell’ambito della sicurezza informatica.
Lo sviluppo, l’adattamento e l’applicazione dell’intelligenza artificiale devono garantire che i risultati siano sufficientemente precisi, fondati e attendibili. Al riguardo devono essere analizzati criticamente non solo i dati, ma anche i modelli e i risultati.
Trasparenza e capacità di spiegare i risultati: spesso il numero elevato di parametri e la complessità dei modelli nelle applicazioni IA impediscono di comprendere l’influenza di singoli parametri sul risultato. Senza riuscire a capire come si giunga ai risultati, le decisioni basate sulle applicazioni IA rischiano di non poter essere spiegate, tracciate o verificate. I controlli da parte dell’istituto che se ne serve nonché delle società di audit o delle autorità diventano più difficili se non addirittura impossibili. Inoltre, i clienti non sono in grado di valutare pienamente i rischi se manca il riferimento all’uso dell’intelligenza artificiale. Nel caso delle assicurazioni, per esempio, l’utilizzo dell’IA potrebbe impedire di ricostruire le tariffe applicate, che non possono quindi essere spiegate in modo trasparente ai clienti.
La capacità di spiegare i risultati di un’applicazione e la trasparenza in merito al suo utilizzo devono essere assicurate in funzione dei destinatari, della rilevanza e dell’integrazione dei processi.
Parità di trattamento: numerose applicazioni IA utilizzano dati personali per valutare i rischi individuali (p. es. tariffazione, concessione di crediti) o sviluppare servizi specifici per i clienti. Dalla mancanza di dati sufficienti su diversi gruppi di persone possono scaturire distorsioni o risultati errati, sulla cui base vengono offerti prodotti e servizi da cui può conseguentemente derivare una disparità di trattamento involontaria e ingiustificata. Oltre ai rischi giuridici, la disparità di trattamento comporta anche rischi di reputazione.
Occorre evitare un’ingiustificata disparità di trattamento.
La FINMA ha discusso e messo a punto le proprie aspettative in materia di applicazioni IA con l’industria finanziaria, le autorità e le organizzazioni nazionali e internazionali nonché il mondo scientifico.
L’Autorità intende verificare l’uso dell’intelligenza artificiale presso gli assoggettati alla vigilanza. Inoltre, intende seguire con attenzione gli sviluppi del ricorso all’intelligenza artificiale nell’industria finanziaria, mantenere lo scambio con i principali stakeholder e osservare l’evoluzione a livello internazionale.
(Dal Monitoraggio dei rischi 2023)