AI: sfide, opportunità e rischi di una tecnologia disruptive
L'entrata in vigore dell'AI Act impone alle imprese un onere di controllo sui pericoli connessi all'uso della tecnologia digitale che promette di essere più rivoluzionaria di Internet. Ecco come aziende, cda e ned si stanno preparando

L’intelligenza artificiale entra nei board e lo fa dalla porta principale, non foss’altro per una questione normativa. Proprio in questi giorni, il 2 febbraio, è diventato attuativo, in parte, il Regolamento (UE) 2024/1689 del 13 giugno 2024, meglio noto come AI Act. Il regolamento, che dispiegherà tutta la sua potenza di fuoco in particolare a partire dall’agosto del 2026, impone già una profonda riflessione da parte delle aziende, in particolare le società quotate e quelle vigilate che sono chiamate: all’individuazione e gestione dei sistemi di AI; all’identificazione delle responsabilità e all’attuazione di politiche di risk governance. Rischio è appunto la parola attorno alla quale si è sviluppato il convegno organizzato da Nedcommunity presso la sede di Legance il 27 gennaio scorso che ha raccolto esperti di diritto e componenti di board di aziende finanziarie e industriali.
Un tema pieno di contradizioni e complesso, come ha sottolineato il presidente di Nedcommunity, Alessandro Carretta, che, ricordando una personale sperimentazione di ChatGpt per la stesura di una presentazione, ha sottolineato quanto la materia sia “incredibilmente scivolosa, asettica, dal forte contenuto ideologico. Se i vantaggi sono chiarissimi, gli svantaggi li andiamo scoprendo pian piano”. Carretta ha infatti spiegato come la funzionalità basata sullo strumento dei prompt imponga la capacità di fare domande molto puntuali per evitare risposte fuorvianti. Ma tutto questo non basta: siamo certi che l’algoritmo sia davvero neutrale nel suggerire una risposta? E qui emerge il tema dei bias informativi. Per questo le aziende, come del resto impone la normativa, devono fin da subito adottare adeguati assetti organizzativi.
Un punto sul quale ha insistito Lucio Scudiero, Counsel di Legance, che, nel suo intervento sulle caratteristiche dell’AI Act, ha messo in evidenza proprio le ricadute in ambito di corporate governance. All’interno di un’organizzazione aziendale servono, per esempio, competenze specifiche (come il CAIO, il Chief Artificial Intelligence Officer) e soluzioni tecnologiche che automatizzino i flussi informativi verso il CdA e le funzioni di garanzia, così da aiutare a dimostrare l’adeguatezza degli assetti come previsto dalla normativa. Opportuna anche l’istituzione di comitati CorpTech in seno al board, ai fini dell’adeguatezza degli assetti. Adeguatezza che appunto passa, in primo luogo, dalla conformità all’AI Act. Fare le cose secondo quanto previsto dal regolamento aiuta a motivare la ragionevolezza delle decisioni e a proteggere (i consiglieri in particolare) rispetto alle responsabilità che potrebbero derivare da un utilizzo eventualmente dannoso dell’AI, secondo i postulati della business judgment rule.
L’obiettivo, come ha spiegato nel suo intervento uno dei relatori dell’AI Act, il parlamentare europeo Brando Benifei, è quello di creare un “circuito di fiducia”. La ratio della normativa, infatti, è la riduzione dei rischi connessi all’uso improprio dell’intelligenza artificiale soprattutto in ambiti sensibili come sanità, giustizia, diritti fondamentali delle persone per i quali sono richieste specifiche verifiche a sviluppatori e utilizzatori di questa tecnologia. Nessuna limitazione di competitività per l’applicazione di questa legge che, tra l’altro, sarà implementata fra un anno e mezzo dando quindi tutto il tempo di adeguarsi.
E attorno proprio al concetto di competitività si è sviluppata la tavola rotonda moderata da Patrizia Giangualano, componente del Consiglio direttivo di Nedcommunity:”Oggi ci troviamo a parlare di IA perché c’è una normativa di riferimento ma non è la prima volta che in Nedcommunity si tratta l’argomento soprattutto dal punto di vista del ritorno e dell’utilità per le aziende. Il Reflection Group Digital Innovation e Governance già tre anni fa ha iniziato a mettere a punto la Digital agenda e uno degli aspetti riguardava questo tema. Il tema è diventato interessante anche per le ricadute in chiave di risk management ein generale per l’industria finanziaria che vede le banche protagoniste nell’adozione di tale tecnologia”. OK
Ma non solo. Per Carlo Vivaldi, consigliere indipendente di Banca Mediolanum l’uso dell’intelligenza artificiale è al centro della nuova competizione fra Stati nel mondo che vede in questo momento Usa e Cina rivaleggiare ai massimi livelli in un campo che promette di cambiare le nostre vite molto più di quanto abbia fatto Internet, secondo una ricerca del Mit. Gli Stati Uniti possono vantare i colossi dell’AI, i dati, i talenti e poca regolamentazione, la Cina i bassi costi di produzione, competenze ma anche la libertà d’uso in ambiti che noi vietiamo. L’Ue è punto di riferimento per la regolamentazione ma segna il passo sul fronte prettamente economico e produttivo. E nel prossimo futuro? La sfida si giocherà sul terreno dei quantum computer in grado di risolvere problemi complessi che gli attuali calcolatori non possono gestire. Chi arriverà prima avrà un enorme vantaggio competitivo anche nell’uso dell’intelligenza artificiale che la quantum computing promette di potenziare enormemente.
Piercarlo Gera, consigliere indipendente e coordinatore del Reflection Group Digital Innovation e Governance di Nedcommunity, si è focalizzato sulle tematiche di generazione di valore tramite AI. L’AI nasce 70 anni fa, ed ha avuto grande accelerazione negli ultimi 2-3 anni con la affermazione della Generative AI: grande velocità di diffusione (ChatGPT ha raggiunto 100 Milioni di utenti in 2 mesi, Facebook in 4 anni e 6 mesi), praticamente in tutti i campi, grazie ad una grande facilità di uso e costi bassi. Deepseek ha recentemente alzato l’asticella. La Generative AI sta abilitando soprattutto recuperi di produttività, al servizio dell’uomo. Siamo ancora lontani dalla concreta applicazione della AGI (Artificial General Intelligence) in grado di operare in autonomia, ma è ovviamente grandissimo tema sullo sfondo.
È però interessante osservare che in una recente indagine di BCG, che ha intervistato 1800 leader di aziende in 19 paesi, questi riconoscono fortemente il valore strategico dell’AI, ma solo nel 25% dei casi manifestano piena soddisfazione per il suo utilizzo. Perché? Gera ha evidenziato 2 grandi vincoli. Uno più tecnico legato alle difficoltà in materia di utilizzo delle basi dati, nonostante il tema sia oggetto di lavori da più di 10 anni. L’altro di natura strategica legato al non adeguato utilizzo dell’AI nel core business: troppo spesso le applicazioni sono state relative al rapido accesso a normativa/documentazioni o a funzioni di staff. In termini di core business, la Agentic AI, che sarà il grande tema del 2025, può permettere ad esempio a reti di vendita di ridurre significativamente i tempi di preparazione incontri, consentendo di raddoppiare i clienti ingaggiati ogni giorno. Occorre quindi in futuro puntare a un utilizzo strategico dell’AI, con programmi di alto impatto sulla “bottom line”, valorizzando il patrimonio informativo interno.
Se quindi esistono ambiti in cui si può parlare di consolidata applicazione dell’intelligenza artificiale – si pensi al settore militare, farmaceutico e la diagnostica per immagini, come ha anche ricordato Alessandro Franza, legal counsel director del Gruppo Bracco, in molti altri casi spesso i risultati ottenuti sono insoddisfacenti per il fatto di non riuscire ancora a creare un valore significativo dalle proprie iniziative.
Se quindi esistono ambiti in cui si può parlare di consolidata applicazione dell’intelligenza artificiale – si pensi al settore militare, farmaceutico e alla diagnostica di malattie gravi – in molti altri casi spesso i risultati ottenuti sono insoddisfacenti per il fatto di non riuscire ancora a creare un valore significativo dalle proprie iniziative. Per Silvia Pugi, deputy secretary general di CEC-European Managers il problema risiede nel fatto che le aziende fanno fatica a misurare i risultati che sono spesso inferiori alle aspettative per problemi di affidabilità dei risultati. Sul fronte dei rischi, poi, uno è il principale: quello di non adottare l’AI abbastanza velocemente in azienda. L’AI deve andare in cima all’agenda dei cda che devono però essere pronti a gestirla anche con comitati ad hoc, come quello etico, per assicurare che i principi e i valori dell’azienda siano inseriti negli algoritmi.
Chi sta scommettendo molto su questa tecnologia è proprio il mondo finanziario come ha confermato Paola Tagliavini, presidente del comitato Rischi e Sostenibilità di Intesa Sanpaolo che ha varato nell’ambito del piano strategico il progetto AI acceleration, un modello non ancora a regime ma che ha avuto un impatto di bilancio quantificabile in 100 milioni. Efficienza e gestione dei rischi sono gli ambiti di maggiore ritorno grazie alla grande mole di dati disponibili. Un valore aggiunto ma anche un rischio, appunto perché il dato è qualcosa che va maneggiato con cura.
Per Elisabetta Gualandri, presidente del Comitato Rischi e Sostenibilità di Credem Banca, nonché coordinatrice del Reflection Group Governance nelle istituzioni finanziarie di Nedcommunity, fondamentale è una mappatura dei sistemi di AI per evidenziare quelli più rischiosi, dopo aver eliminato ovviamente quelli vietati. Un lavoro complesso per il fatto che deve incrociarsi con normative di settore e trasversali ma che consentirà di mettere a punto dei framework di governance dell’intelligenza artificiale sempre più puntuali e al passo con le sfide che ci attendono.
Concetto ribadito anche da Andrea Fedi, Partner di Legance per il quale il core dell’attività di impresa è sapere “dove si sta”. Per tale motivo pensare di non realizzare una mappatura dettagliata dei sistemi in uso rappresenta uno dei rischi principali. Al quale se ne aggiunge anche un altro: l’Europa è indietro nello sviluppo dell’AI e quindi la dovremo comprare rivolgendoci alla Cina o agli Usa. La prima, però, ha un sistema giuridico fortemente lontano dall’umanesimo digitale e dalla democraticità a fondamento dell’Unione Europea, mentre gli USA si apprestano a sostenere una deregulation molto spinta, antitetica con i principi dell’AI Act. Possiamo cercare di creare un ambiente meno ostile con i codici di condotta, come l’AI Pact, ma “preparandoci a navigare in un mare in burrasca”.
Nelle conclusioni, Giampiero Bambagioni, presidente (indipendente) di società vigilata e coordinatore del Reflection Group “Governance in materia di rischi e di controlli” di Nedcommunity, ha sottolineato l’effetto dirompente dell’AI e della digitalizzazione che, prevedibilmente, avrà in impatto superiore a quello prodotto da Internet, nel business, nelle professioni, nelle istituzioni, nella vita dei cittadini e persino nel livello di competitività tra Paesi. Se, da una parte, l’AI ha apportato benefici in termini di efficienza e innovazione, dall’altra, espone sempre di più le imprese a nuove vulnerabilità e rischi. Le imprese dovranno avere contezza del framework regolamentare (tra cui l’AI Act), nel contempo, prima di utilizzare l’AI sarà necessario comprendere i rischi associati, tra cui: data governance e perdita di dati sensibili, furti di proprietà intellettuale, frodi, manipolazione digitale, controllo dei processi, privacy, leadership, responsabilità nei cda. Si tratta di temi tenuti insieme anche da un concetto che ha svolto il ruolo del convivato di pietra nel corso del convegno: la sostenibilità e la gestione dei rischi Esg, la cui correlazione è stata chiarita nella Direttiva (UE) 2024/1619 (CRD VI), associati alle attività messe in campo e al business model usato. Impatti disastrosi non solo sul piano economico e legale, ma anche in termini reputazionali.