IA al servizio del board ma con prudenza
I sistemi di intelligenza artificiale generativa possono aiutare il consigliere nel suo lavoro quotidiano a patto che si adottino pochi e semplici accorgimenti. Ecco una panoramica del webinar organizzato da Nedcommunity

L’IA generativa artificiale “siede” nei consigli di amministrazione. Ma siamo certi che tutti siano consapevoli delle potenzialità e dei rischi del suo uso? A porsi questa domanda è stata Nedcommunity che in uno dei suoi “lunch talk” infrasettimanali, il 4 giugno scorso, ha spiegato – inter alia – come formulare il giusto prompt ossia la domanda che si pone a uno strumento di IA generativa per ricevere una risposta utile alle nostre esigenze.
E proprio il concetto di utilità è stato al centro dell’introduzione al webinar di Piercarlo Gera, responsabile del Reflection Group Digital Innovation e Governance, che ha ricordato come l’intelligenza artificiale sia sempre più un tema di interesse nel mondo della corporate governance per almeno tre ragioni:
- la responsabilità dei cda nel definire la strategia in materia di utilizzo di IA e nel diffondere la cultura e la consapevolezza sulle potenzialità offerte da questo strumento specialmente nelle funzioni di business. Se il management non coglie la valenza strategica, di potenziale trasformazione dei business model aziendali, è importante lo stimolo da parte del cda ad approfondire le opzioni strategiche e a diffondere in azienda una “cultura” aziendale che sia aperta in tutte le funzioni all’utilizzo dell’AI;
- i complessi aspetti regolamentari come l’AI Act e tutte le norme che indirizzano un utilizzo etico e responsabile dell’IA;
- l’uso sempre più frequente da parte dei board member di questi strumenti per aumentare la propria efficacia e produttività nel quotidiano.
Marina Rubini, associata Nedcommunity e consigliere indipendente, ha toccato proprio l’ultimo punto partendo da una doverosa premessa: non esiste il modello di IA generativa migliore in assoluto, ma quello più adatto a un determinato scopo. In generale l’efficacia dell’output dipende dal modo in cui formuliamo questa domanda. Il motivo? A differenza dei tradizionali motori di ricerca, in questo caso si instaura un dialogo con la macchina che ha bisogno di specifiche per fornirci il lavoro finale. “È come se avessimo un assistente, un po’ junior al momento, ma molto valido”, ha spiegato Rubini.
Le regole per scrivere prompt efficaci
Rubini ne ha individuate 4:
- Chiarezza: evitare ambiguità, essere diretti e precisi;
- Contesto: specificare a chi e a cosa si riferisce la richiesta;
- Obiettivo: indicare con precisione cosa vogliamo come risultato (es. se ci aspettiamo una sintesi, un elenco, un’analisi comparativa, una tabella);
- Tono: se desideriamo che la risposta abbia un tono formale, sintetico, discorsivo.
Il rischio di un prompt scritto senza regole? Quello di ottenere delle allucinazioni, ossia delle informazioni false. Il sistema, infatti, è progettato per fornire sempre una risposta: se non trova informazioni fra le sue fonti, tende a colmare i vuoti inventandole.
Come possiamo integrare i prompt nell’operatività dei Ned
L’lA, al netto delle possibili allucinazioni, già oggi è molto utile nella quotidianità di un NED e può essere utilizzato per:
- analisi e sintesi di documenti corposi con grande risparmio di tempo;
- briefing sintetici su trend e contesto che servono per mantenersi aggiornati su tendenze di settore, normative, best practice di un settore o i principali rischi emergenti e che possono essere utilizzati per facilitare discussioni informate durante le riunioni del consiglio;
- monitoraggio dei rischi e della compliance (es. sul fronte del risk management e della conformità normativa);
- formazione continua e supporto decisionale: l’IA può servire come strumento di formazione continua on demand ad es. per spiegare concetti molto tecnici come la tecnologia blockchain o esplorare scenari strategici come gli impatti di una recessione globale nel nostro settore.
Per evitare rischi l’ultima parola resta al ned
L’IA non può rimpiazzare la decisione umana e al momento questo tipo di strumento prevede sempre una verifica dell’output dell’informazione.
L’IA non può rimpiazzare la decisione umana e al momento questo tipo di strumento richiede sempre una verifica dell’output dell’informazione.
Inoltre, l’utilizzo dell’IA comporta rischi anche di natura legale. Considerato che l’IA non possiede personalità giuridica, la responsabilità per eventuali errori ricade esclusivamente sull’utente. I potenziali passi falsi sono molteplici, ma uno dei più gravi è la possibile divulgazione, anche involontaria, di informazioni confidenziali. Si pensi, ad esempio, ad un consigliere di amministrazione che utilizzi uno strumento di IA consumer per elaborare un’analisi, caricando documenti contenenti informazioni riservate dell’azienda: in tal caso, le informazioni potrebbero essere trattate secondo le modalità previste dal fornitore del servizio, incluse quelle che ne consentono l’uso per l’addestramento del modello. Il risultato? La perdita di controllo sulla riservatezza del contenuto.
Proprio per evitare simili scenari, molte aziende adottano soluzioni di IA enterprise – che prevedono adeguate garanzie contrattuali e tecniche – e affiancano a queste una policy interna rigorosa, volta a regolare l’uso responsabile e conforme di tali strumenti.
QUI IL VIDEO INTEGRALE