Viviamo in un’algocrazia
L’intelligenza artificiale rappresenta una grande opportunità per lo sviluppo della nostra società anche in termini economici. Non mancano, però, i rischi che un cda deve essere in grado di prendere in considerazione
Milosz Klinowski/UnsplashGli algoritmi sono onnipresenti, sempre più pervasivi. È grazie a loro se oggi le autovetture sono in grado di guidare da sole, se riusciamo a prenotare un albergo online oppure un volo in pochi clic comodamente dal nostro pc o dal nostro smartphone. Da questo punto di vista l’intelligenza artificiale ha rappresentato e continua a rappresentare uno strumento che di certo ha migliorato la qualità della nostra vita quotidiana rendendo compiti un tempo complessi e dalla lunghissima esecuzione, semplici e di immediato svolgimento.
L’altra faccia della medaglia, però, è rappresentata dai problemi connessi al loro largo uso che di questo strumento si fa. Ne ha parlato nel suo libro Virtual Migration, Aneesh Aneesh, direttore dell’Institute of World Affairs e docente di Sociologia e studi globali all’Università del Wisconsin che ha coniato per la prima volta il termine “algocrazia” a intendere una società “dominata” dagli algoritmi in ogni sua componente. “Molti studi – scrive Aneesh – hanno dimostrato che l’applicazione alla cieca dell’apprendimento automatico rischia di amplificare i pregiudizi presenti nei dati; per esempio, il genere e gli stereotipi razziali. Nel 2019 ne abbiamo avuto un esempio quando Goldman Sachs ha fissato la linea di credito per la carta Apple di una donna a un livello significativamente inferiore a quella del coniuge, nonostante lei potesse contare su finanze altrettanto buone. Molti pensavano che si trattasse di un caso di discriminazione di genere. Ma non esisteva un vero modo per dimostrarlo. I dipendenti dell’azienda non erano in grado di spiegare perché il sistema algocratico avesse designato quella donna come meno meritevole di credito rispetto al marito. Il modello elaborato dal sistema non era immediatamente aperto all’analisi umana. In questo modo particolare, questi sistemi diventano per noi incomprensibili. E quindi possono amplificare i rischi in alcuni campi, anche se li riducono in altri”.
In sostanza l’intelligenza artificiale rappresenta una grande opportunità di sviluppo della nostra società, sia dal punto di vista pratico sia da quello prettamente economico. Per questo motivo rappresenta un tema centrale e sempre più strategico per le aziende. Sfruttando i dati e la tecnologia digitale, infatti, sarà possibile sviluppare tutta una nuova generazione di prodotti e servizi. D’altro canto, però, aumentano anche i rischi: l’IA potrebbe condurre a decisioni errate riguardo un’offerta di lavoro, l’accesso al credito, la giustizia per non parlare della privacy visto che spesso questa tecnologia mette insieme le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza. In sostanza agli evidenti vantaggi si affiancano anche non pochi rischi (reputazionali ma anche finanziari).
“Un CdA deve agire perché i modelli di supporto alle decisioni in azienda, sia per gli stakeholder esterni, come clienti e fornitori, sia per quelli interni, come i dipendenti, siano testati e validati per assicurarne il più possibile la coerenza con le linee guida a cui si intende aderire, quali in particolare gli Orientamenti etici per un’IA affidabile sviluppati da un gruppo di esperti indipendenti su richiesta dell’Unione Europea,” sostiene Paola Bonomo, consigliera indipendente, advisor digitale e membro di Nedcommunity. “Tanto più che a breve le istituzioni europee intendono passare delle raccomandazioni alla regolamentazione vera e propria (“AI Act”). Il rischio zero non esiste, ma il mercato comincia a sviluppare validi strumenti che possono assistere i decisori nel valutare su queste dimensioni i modelli sia in fase di test sia in produzione, e apportare gli interventi necessari. Per i CdA è quindi necessario un continuo lavoro di formazione, aggiornamento e approfondimento, che non deve limitarsi agli aspetti legali, ma anzi deve basarsi sull’apertura all’ascolto e al dialogo con chi sviluppa le tecnologie, ne conosce le potenzialità e i limiti attuali e ne indica gli orizzonti futuri.”