L’intelligenza artificiale entra nei board ma il fattore umano non sparirà
La digitalizzazione aiuterà i cda a svolgere meglio il proprio lavoro ma solo la competenza, soprattutto dei ned, aiuterà a sciogliere i nodi di natura etica
Getty ImagesIntelligenza artificiale e processi di governance: un legame sempre più stretto. Come è emerso dal convegno organizzato dal chapter romano di Nedcommunity dal titolo “L’impatto dell’intelligenza artificiale sulla corporate governance e sulle dinamiche consiliari: rischi ed opportunità”, l’IA sta avendo e sempre più avrà un forte impatto sui processi di governance, soprattutto in termini di adeguatezza degli assetti organizzativi. Se non fosse così non si capirebbe il motivo per cui alcune aziende di grandi dimensioni, in particolare all’estero ma non soltanto, stanno anche valutando la possibilità di istituire veri e propri comitati endoconsiliari “corptech” a cui affidare compiti di proposta e analisi in merito all’opportunità di ammodernare i processi di governance mediante algoritmi. Si tratta di una svolta non di poco conto che impone ai consiglieri indipendenti una riflessione su quelle che sono le opportunità ma anche i rischi.
Ines Gandini, delegato Chapter di Roma e Lazio, Nedcommunity è partita proprio da questa considerazione nel suo intervento, mettendo bene in evidenza che “il governatore Bankitalia ha stimato in 50 mild di dollari gli investimenti in AI in Europa al 2050. Già oggi alcune società di grandi dimensioni, soprattutto nel settore bancario e assicurativo, la usano a sostegno della funzione corporate reporting e di risk compliance ma anche a sostegno delle strategie di marketing. Per questo motivo siamo chiamati come Nedcommunity a investigare l’impatto che l’intelligenza artificiale ha sull’adeguatezza degli assetti organizzativi e sui principi di corretta amministrazione”.
Un impatto forte, come ha evidenziato Christian Busca, associate partner, EY nonostante i numeri parlino di un gap fra Vecchio Continente e resto del mondo. “L’Europa è al di sotto del suo potenziale nell’utilizzo della AI a differenza di quanto avviene in Usa e Cina. Il Paese europeo più avanzato è l’UK. Gli ambiti in cui si usa più spesso l’AI sono quelli dei processi decisionali (nomina organi societari, adozione decisione degli organi, attività di gestione), il monitoraggio e i controlli di compliance (supervisione, costituzione nuove società). Solo il 13% delle aziende contattate utilizza attualmente soluzioni di AI per supportare compiti legati al CL&Cg, il 26% prevede di usarle. Rimane il dato di un +50% che non ha pensato di utilizzare strumenti di questo tipo”.
Il nodo etico
Se c’è un ambito i cui l’intelligenza artificiale è di casa di certo è quello assicurativo. Angelo Doni, condirettore generale, ANIA, lo dice chiaramente: “L’AI si basa sui big data che sono fondamentali per molti business, fra cui di certo quello assicurativo. Gli elementi fondamentali da esaminare sono due in questo ambito: responsabilità ed etica. La prima è centrale nella liquidazione del danno, la seconda investe sia l’azienda sia il cliente a un livello differente. Quando liquido o assumo un rischio non devo discriminare i miei assicurati mentre se sono il cliente devo evitare comportamenti opportunistici. Ma l’etica entrerà in questo settore in maniera ancora più pressante all’aumentare dell’uso dell’intelligenza artificiale nelle nostre vite. Si pensi alle auto con guida autonoma: un uomo adulto percorre una strada e un ragazzino attraversa di colpo. L’auto deve decidere se deviare mettendo a rischio il passeggero oppure investire il giovane. Siamo di fronte e un tipico dilemma etico che oggi è nella disponibilità del guidatore ma che domani dovrà essere affrontato da un software. Ma in caso di incidente di chi sarà la responsabilità? Del guidatore o dell’ingegnere che ha sviluppato quella stringa di codice”.
Sull’aspetto etico si è soffermato anche Andrea Sacco Ginevri, professore ordinario, Università Uninettuno, Roma: “Mentre l’organizzazione va verso la digitalizzazione, la gestione va in direzione opposta perché l’etica richiede sempre uno sforzo umano maggiore. Torno all’immagine del veicolo, usata poco fa. Voi come amministratori guidate il ‘veicolo societario’ e avete la responsabilità per quello che amministrate: dovete valutare che la dotazione tecnologica sia ai massimi livelli e coerente con il business che consente al guidatore di condurre l’azienda nella maniera più sicura ed efficiente possibile. Poi le decisioni cruciali le prendono le persone: la decisione imprenditoriale è sempre più umana. Avete voi il compito importantissimo di effettuare una valutazione etica. Per questo motivo l’essere umano è insostituibile. Come ned dovete prestare maggiore attenzione verso quella che negli Usa hanno chiamato alta strategia aziendale. La compliance potrà e dovrà essere rimessa agli strumenti informatici ma il vostro tempo dovrà essere utilizzato per assumere decisioni di alta strategia aziendale”.
Sulla stessa lunghezza d’onda anche Benedetta Navarra, sindaco Unicredit, associata Nedcommunity secondo cui “la possibilità che AI venga utilizzata per assumere decisioni rappresenta uno scenario di là da venire. D’altro canto, la possibilità di impiegarla nella preparazione della fase decisionale, quindi nell’analisi di informazioni, da governare raffigura una grande utilità ma anche un rischio”.
Servono le giuste competenze
Silvia Rapallo, Global technology & Communication practice co-leader, Egohnzender Closing Remarks, ha sostenuto che di certo l’AI “avrà un impatto importante su molte aree aziendali ma porta però nuovi rischi anche complessi. Proprio per questo motivo il board deve poter contare su competenze adeguate: non è un caso se il 90% delle aziende italiane richieda che ci sia una maggiore board fluency in termini di competenze digital. AI è qui per restare, scalerà e diventerà industrializzata”.
Anche Silvia Muzi, sindaco BPM, Associata Nedcommunity, si è soffermata sul nodo della competenza: “AI è un tema rilevante che ha registrato un’accelerazione pazzesca anche a causa del Covid. Proprio per questo motivo va considerata la necessità dell’inclusione di competenze diverse, le uniche in grado di permettere a un board di agire con senso di responsabilità. Ritengo che l’elemento umano debba sempre governare questi processi tecnologici e scientifici”.
Ma non solo. Anche la normativa deve fare uno sforzo. Ne è convinto Niccolò Abriani, professore ordinario, Università degli Studi di Firenze, Associato Nedcommunity che parlando di “cibernetica societaria” ha ricordato come questo ambito “di certo meriti una regolamentazione ad hoc. Del resto, un approccio eticamente e socialmente responsabile diventa cruciale al crescere dell’utilizzo della AI nelle società. Oggi, però, l’intelligenza artificiale nei codici di corporate governance è quasi assente. Soltanto in Olanda vediamo un’applicazione più puntuale dell’uso della AI nella corporate governance”.