L’adozione delle tecnologie di AI nel settore Finance ha bisogno di obiettivi chiari, pianificazione preventiva, di una governance che non lasci nulla al caso a cominciare dai dati in pasto ai sistemi di AI, mantenga l’uomo al centro dei processi e tenga conto dei tempi di change management.
Sono questi gli elementi emersi nella sessione del Finance Security Summit del Clusit che è stata centrata “sull’intelligenza artificiale per la gestione del rischio ICT e cyber”.
Le tecnologie di nuova generazione sono da sempre sinonimo di innovazione, ma la fretta di adottarle non dovrebbe far dimenticare una adeguata e bilanciata strategia di adozione.
Questo vale per tutte le innovazioni, per evitare il rischio che diventino esse stesse un fardello aggiuntivo all’operatività della forza lavoro o un ulteriore superficie di attacco informatico.
Il caso degli strumenti di AI non fa eccezione a queste regole e, anzi, richiede maggiori accorgimenti per la caratteristica dei sistemi stessi di AI di poter essere autonomi, ma solo sotto ristrette condizioni di supervisione e perimetri di utilizzo ben delineati.
Tali considerazioni sono vere per qualsiasi tipo di organizzazione pubblica e privata, ma nel settore finanziario e assicurativo vi sono anche elementi peculiari da tenere in considerazione legati a:
Un primo elemento da cui partire è la potenziale adozione disordinata e caotica di strumenti di AI (Large Language Models-LLM e Agenti) che si potrebbe verificare in una organizzazione.
Lorenzo Canali, Enterprise Account Executive di Wiz, spiega che “se la shadow IT (uso di sistemi e servizi informatici in un’organizzazione senza approvazione e supervisione dell’IT n.d.r.) è nota, il problema della shadow AI è in crescita, a causa degli usi non regolamentati dentro e fuori dell’azienda.
Serve, quindi, un primo inventario degli strumenti AI che li renda visibili ed un monitoraggio di controllo. Quando gli strumenti di AI sono asset aziendali regolamentati, la loro tenuta sotto controllo aiuta a scongiurare rischi di accesso illecito, misconfigurazioni a livello di dati, anomalie di vario genere”.
L’altro tema critico lo sottolinea Ivan Tresoldi, Senior Solutions Engineer di Wizm che evidenzia “i rischi di perdita dati da attacchi da AI, (cosiddetta weaponization delle AI n.d.r.), ovvero l’uso degli strumenti di AI da parte degli avversari digitali per incrementare velocità ed efficienza nelle azioni criminali. Anche di questi, va tenuto conto nelle analisi di rischio”.
D’altra parte, anche l’introduzione di strumenti di AI porta un rischio di compliance in relazione a tutte le normative europee, di security e di AI; “e il tutto è da calare in un contesto già normato fortemente come quello finanziario” sottolinea Maria Cristina Daga, P4I.
Proprio per questo secondo Federico Micali, ICT Risk Specialist di Banca AideXa, “l’unico approccio possibile per una azienda e per la sua funzione di controllo è ragionare in ottica risk based e far rientrare le nuove tecnologie di AI nei risk framework in modo nativo, considerandole per tutti i tipi di rischio, security, finanziario, compreso quello di compliance legato alla sovrapposizioni fra obblighi delle diverse normative che impongono anche piena accountabilty delle azioni effettuate. Questo approccio permette di definire dei range di manovra, dei guardrail, entro cui implementare le tecnologie di AI”.
Non esiste un momento unico, uguale per tutte le organizzazioni, per dotarsi di strumenti di AI, come non è obbligatorio usare subito tutti gli strumenti a disposizione.
Giovanni Assolini, Head of IT Security Operations & Business Continuity di Crédit Agricole, spiega che “organizzazioni come la sua stanno valutando, si stanno preparando sia all’analisi di rischio sia a quella di adozione, con un cammino avviato, ma non ancora finalizzato. I motivi risiedono in primis nelle capacità interne dei dipendenti e degli utenti di saper usare gli strumenti di AI, che oggi non sono piene; inoltre data la profonda accountability richiesta dalle normative come DORA e NIS2, ogni nuovo strumento e processo correlato deve essere implementato senza lasciar scoperto alcun rischio (operativo, di security ecc., n.d.r.) e questo allunga i tempi di adozione”.
Ma è da considerare anche il ROI che “si dovrebbe sempre saper dimostrare rispetto agli investimenti in AI e oggi è difficile farlo. Tutti vogliamo andare troppo lontano, ma dobbiamo farlo a piccoli passi”.
Federico Micali suggerisce di “analizzare gli i casi d’uso per valutare se AI è un vantaggio per davvero, altrimenti appesantisce e amplia il rischio di operatività della banca ed è percepito in modo distorto”.
Un tema cruciale è legato ai dati e alla loro governance perché gli strumenti di AI sono fortemente basati sui dati.
Uberto Vittorio Favero, Group Chief Information Security Officer di Wide Group, suggerisce di “pulirli, strutturarli e organizzarli in modo che le AI possano fare affidamento sui dati di lavoro e dare risposte più affidabili, minimizzando il rischio di allucinazioni (risposte palesemente errate di un modello LLM n.d.r.)”.
Il tema è saper capire quando le risposte sono corrette e quando no.
In proposito Federico Micali suggerisce di “fissare obiettivi di precisione sulle AI per il rischio di allucinazioni nelle AI generative, o per il rischio di falsi positivi, quando le AI sono usate nei processi di difesa. In generale occorre una governance solida per non deresponsabilizzare alcun controllore interno di processo”.
Maria Cristina Daga in proposito auspica che “proprio i requisiti del framework di data governance regolamentati dalla Circolare 285/2013, possano evolvere ed essere resi complementari alle nuove normative come la DORA e affinché la compliance diventi sostanziale e non di facciata dovrebbe svilupparsi una evoluzione parallela fra la tecnologia e la normativa”.
Una adozione che sia veramente efficace non può che mettere l’individuo al centro dei processi.
Questi principi antropocentrici per così dire possono essere realizzati partendo dalle normative fino ad arrivare all’adozione di AI nell’operatività giornaliera, solo con la volontà puntuale di rispettare le esigenze di chi lavora giorno dopo giorno.
Un esempio in questo senso è portato da Lorenzo Canali per le eterne lotte fra chi realizza software e i team di security, che devono far rispettare criteri di sicurezza digitale.
“In questa confronto che ricalca l’eterna lotta fra bene e male, l’AI migliora i messaggi relativi alla sicurezza e ai requisiti da rispettare per gli sviluppatori, senza aggravare la percezione della sicurezza come l’eterno cancello che blocca il flusso di business delle applicazioni”, sottolinea Canali.
Un approccio definito da Luca Bechelli di P4i di “AI process first che aiuta a introdurre tecnologia in modo assistito verso le persone dando luogo a processi efficaci”.
Ma in questi casi, è bene tenere presente anche i rischi legati proprio ai processi di cambiamento (change management) e ai loro costi, un tema emerso limitatamente nel corso della sessione, ma sempre presente quando una nuova tecnologia viene adottata in azienda.
Per Federico Micali “lo human in the loop è essenziale e saper rispondere alla fatidica domanda ‘perché l’AI ha risposto in quel modo?’ è un quesito sempre critico a cui si dovrebbe saper dare sempre una risposta, sia per conoscere come sono prese le decisioni, sia per favorire la fiducia negli strumenti di AI”.
Non da meno il tema culturale sulle AI sollevato da Ivan Tresoldi secondo cui “se l’uomo della strada si basa sull’unica risposta di un LLM perde la capacità critica e si affida senza dubitare sull’unica risposta che gli viene fornita”.
Il tema è anche legato “allo sviluppo di un pensiero critico di business”, secondo GiovanniAssolini, “perché i modelli sono istruiti secondo culture che non rispecchiano tutte le culture mondiali e possono interpretare in modo distorto utenti di altre culture diverse da quelle del loro training. Il che porta al problema della piattaforma AI che non sono universali”.
L’ultimo tassello di una adozione rispettosa degli individui è la formazione appropriata e sostanziale.
In questo senso Maria Cristina Daga suggerisce di “riflettere sull’efficacia formativa per la coerenza dell’organizzazione verso le nuove tecnologie. Se la formazione è percepita come obbligo, forse la si assolve superficialmente. La formazione su tanti temi stanca le persone, e richiede una progettazione più interattiva, che stimoli a partecipare e motivi ad usare le nuove tecnologie. La comprensione del nuovo non basta, le persone dopo il corso dovrebbero operare in modo appropriato”.
La formazione, infine, dovrebbe insegnare all’uso delle AI. Per Giovanni Assolini infatti, “saper domandare, senza influenzare le AI nella risposta, richiede allenamento e un coach che lo insegni”.