IA, una rivoluzione silenziosa che va governata
Un recente documento pubblicato da CNDCEC sottolinea come l’intelligenza artificiale rappresenta un grande acceleratore di competitività a patto che i notevoli rischi connessi siano ben gestiti. In quest’ottica il collegio sindacale dovrà giocare un ruolo centrale
Getty Images
L’intelligenza artificiale sta trasformando il funzionamento delle imprese con una rapidità che pochi altri cambiamenti tecnologici hanno saputo eguagliare. Non si tratta più di strumenti sperimentali confinati ai reparti IT. L’IA ridisegna i modelli di business, influenza le decisioni strategiche, modifica ruoli e competenze, altera le catene del valore. Le Linee guida di vigilanza del collegio sindacale sulla adozione dell’intelligenza artificiale mostrano con chiarezza come questa transizione imponga un salto culturale al sistema di governance, chiamato a gestire l’innovazione più che a inseguirla.
Il ruolo del cda fra strategia e gestione dei rischi
Secondo il documento pubblicato lo scorso 3 dicembre dal CNDCEC (Consiglio Nazionale dei Dottori Commercialisti e degli Esperti Contabili), dal titolo “Linee guida di vigilanza del collegio sindacale sulla adozione dell’intelligenza artificiale” l’IA non è un semplice acceleratore operativo, è un “agente strategico” capace di incidere sugli assetti competitivi e sulla continuità aziendale. Per questo il consiglio di amministrazione deve adottare una pianificazione esplicita, valutando impatti su processi, produttività e persone. Il collegio sindacale, al tempo stesso, è tenuto a verificare che tali analisi siano effettive e non meri esercizi formali. Deve comprendere la logica delle scelte, la solidità dei piani e il modo in cui vengono integrate valutazioni di rischio, compliance e sostenibilità di lungo periodo.
Tra i rischi emergenti, il documento sottolinea quelli legati al decision capture, l’algoritmo che, pur non sostituendosi all’organo decisionale, finisce per orientarlo in modo determinante. L’IA seleziona informazioni, propone opzioni “ottimali”, anticipa valutazioni. Se mancano tracciabilità, supervisione umana e competenze critiche, il processo deliberativo rischia di essere condizionato dall’opacità del modello anziché guidato dalla responsabilità manageriale. Il collegio sindacale è quindi chiamato a vigilare che l’IA resti uno strumento, non un decisore occulto.
Ugualmente rilevante è il rischio dei bias algoritmici. Dati incompleti o distorti generano inferenze fuorvianti che possono influenzare valutazioni di rischio, scoring creditizi, selezioni di personale o analisi di mercato. La prevenzione dei bias non è un vezzo etico, ma un tema di efficacia e affidabilità. Le linee guida richiedono che il collegio sindacale verifichi l’esistenza di controlli sui dati di addestramento, procedure di validazione, metriche di fairness e revisioni periodiche dei modelli. Senza questi presidi, l’automazione rischia di amplificare distorsioni invece di correggerle.
Un altro punto critico è la cosiddetta shadow AI, cioè l’utilizzo non autorizzato di strumenti di IA da parte di team o singoli dipendenti. Il documento non invita a reprimere tali iniziative — anzi riconosce che possono stimolare innovazione e agilità — ma chiede che siano incanalate attraverso policy chiare, meccanismi di intake, responsabilità definite e programmi di alfabetizzazione tecnologica. Il collegio deve verificare che l’azienda sappia favorire la sperimentazione senza compromettere sicurezza, compliance o protezione dei dati.
Collegio sindacale garante di qualità
La sicurezza dei sistemi di IA è un ulteriore fronte su cui la vigilanza deve intensificarsi. Modelli predittivi e sistemi automatizzati sono vulnerabili a manipolazioni, data poisoning, attacchi informatici. Le linee guida insistono su audit periodici, piani di continuità, controlli sugli accessi, registri delle anomalie e integrità dei dati. Il collegio sindacale deve accertarsi che l’azienda sappia reagire rapidamente agli incidenti e che allinei le proprie pratiche ai requisiti dell’AI Act.
In definitiva, il documento propone un nuovo paradigma. Non chiede al collegio sindacale di diventare un valutatore tecnico dei modelli, ma un garante della qualità del processo decisionale che li governa. Vigilare sull’IA significa valutare la coerenza tra strategia e investimenti, la trasparenza degli assetti organizzativi, l’efficacia dei controlli e la maturità culturale con cui la tecnologia viene adottata. La trasformazione digitale, infatti, non è neutrale, ma amplifica ciò che trova. Se trova governance fragile, rischia di renderla opaca, ma se trova competenze solide e controllo consapevole, può generare valore sostenibile e competitivo.

