Oltre l’hype dell’IA: cosa cambia nella governance
Il racconto diffusamente accettato che l’intelligenza artificiale sia una tecnologia in costante crescita si scontra con una realtà differente fatti di limiti strutturali, impatti ambientali e sfide normative per una crescita sostenibile. Ecco il loro impatto sui board
GettyImages
Dietro la narrativa di un’innovazione in costante accelerazione, stanno emergendo evidenze empiriche e segnali tecnici che suggeriscono la necessità di un approccio più prudente alla valutazione dell’IA. Il paradigma secondo cui i modelli migliorano in modo proporzionale alla crescita della capacità computazionale e alla disponibilità di dati sta mostrando limiti strutturali nonostante l’incremento degli investimenti. Nel 2025 Paul Kedrosky, venture capitalist e research fellow al MIT, ha osservato: “La tecnologia è molto utile, ma il ritmo con cui sta migliorando si è più o meno fermato”. Per i consigli di amministrazione, questo richiede discernimento strategico e capacità di distinguere tra potenziale reale e aspettative eccessive.
I limiti strutturali dell’IA
Uno dei limiti più rilevanti riguarda infatti la disponibilità di dati di qualità. I modelli generativi hanno già assorbito la quasi totalità dei contenuti testuali pubblici disponibili online (libri digitalizzati, articoli scientifici, archivi web). Come rilevato dall’Istituto di ricerca Epoch AI, le aziende tecnologiche potrebbero esaurire la fornitura di dati umani di alta qualità il 2026 e il 2032.
La crescita dei modelli di IA negli ultimi anni è stata alimentata dal presupposto implicito che esistesse una quantità praticamente illimitata di dati affidabili ed integri. Sappiamo che la maggior parte dei dati pubblici è già stata utilizzata, mentre quelli rimanenti sono spesso imprecisi, superflui o di qualità inadeguata per addestrare modelli avanzati. Questo significa che, per ottenere miglioramenti significativi, non basterà “aggiungere più dati” ma serviranno nuove soluzioni.
Con l’esaurimento dei dati umani di qualità, molti modelli stanno iniziando a essere addestrati – direttamente o indirettamente – su dati sintetici generati da altre IA. Questo fenomeno, noto come model collapse, può portare a un progressivo degrado della qualità dei modelli, che finiscono per apprendere da informazioni derivate, ripetitive dove gli errori si amplificano progressivamente. Per le imprese, ciò rappresenta un rischio concreto ossia sistemi meno affidabili e potenzialmente pieni di allucinazioni ricorsive.
In questo scenario, i dati proprietari diventano un asset strategico, le aziende che dispongono di dataset unici quali chat e documenti interni che contengono logiche di
ragionamento umano non presente nel web pubblico, avranno un vantaggio competitivo crescente. Tuttavia, questo richiede investimenti significativi in governance, qualità, sicurezza e infrastrutture di gestione dei dati per utilizzarli in modo responsabile.
Per superare il limite strutturale della scarsità dei dati, la ricerca si sta orientando verso:
- modelli più piccoli e specializzati,
- tecniche di addestramento più efficienti,
- dati sintetici di alta qualità,
- approcci multimodali che combinano testo, immagini, e audio.
Per i consigli di amministrazione, questo significa che la competizione non si giocherà più solo sulla potenza computazionale dei propri sistemi di IA, ma sulla capacità di costruire ecosistemi informativi affidabili, sostenibili e differenzianti.
Impatto ambientale e responsabilità Esg
L’impronta ecologica dell’intelligenza artificiale rappresenta un fattore critico per chi governa aziende e investimenti; l’espansione dei modelli generativi richiede infrastrutture sempre più energivore come data center di nuova generazione, sistemi di raffreddamento avanzati, reti di distribuzione elettrica potenziate. Ogni ciclo di addestramento di un modello di grandi dimensioni, consuma ingenti quantità di energia paragonabile a quelle di intere città, con un impatto diretto sulle emissioni nocive e sui costi operativi.
L’aumento della potenza computazionale necessaria per ottenere miglioramenti marginali nelle prestazioni dei modelli sta accelerando, la crescita non è più lineare come in passato ma esponenziale; inoltre, anche se l’interesse speculativo dovesse diminuire, l’infrastruttura già costruita continuerebbe a generare un “inquinamento di base” difficile da ridurre. I data center, oltre al consumo elettrico, richiedono anche enormi quantità di acqua per il raffreddamento e in alcune aree geografiche, questo sta già generando tensioni con le comunità locali e con altri settori industriali.
La sostenibilità ambientale non è più un tema accessorio, gli stakeholder – investitori istituzionali, autorità di regolazione, clienti – chiedono trasparenza sui consumi energetici e sulle emissioni associate ai servizi digitali. Per i consigli di amministrazione, ciò implica la necessità di valutare attentamente la localizzazione delle infrastrutture digitali e la disponibilità delle risorse idriche.
Le aziende che adottano soluzioni di IA senza considerare il loro impatto ambientale rischiano di trovarsi esposte a danni reputazionali, pressioni normative e potenziali restrizioni operative.
Sfide normative e strategie di governance
In Europa come altrove, il quadro normativo fatica a tenere il passo con la velocità dell’innovazione. I legislatori richiedono tempi lunghi per elaborare norme adeguate e spesso non dispongono delle competenze tecniche necessarie per comprendere appieno le implicazioni dell’IA. Questo ritardo crea un doppio rischio: norme troppo restrittive che possono soffocare la competitività, oppure norme troppo deboli che non proteggono appieno cittadini e imprese.
Il contesto è ancora più complesso perché l’IA si sviluppa come un fenomeno globale, mentre le normative che dovrebbero regolamentarla restano confinate a livello nazionale o regionale. Stati Uniti, Unione Europea, Cina e altre giurisdizioni stanno sviluppando approcci profondamente diversi in termini di requisiti, responsabilità e standard tecnici. Questa eterogeneità genera un quadro regolatorio frammentato e disomogeneo che aumenta la complessità operativa delle imprese internazionali con costi di compliance crescenti e rischi di incertezza giuridica.
Per i consigli di amministrazione, diventa essenziale sviluppare competenze interne e partnership esterne in grado di monitorare l’evoluzione regolatoria globale e anticipare gli impatti sui modelli di business. Il board dovrebbe avere una conoscenza approfondita di ciò che si sta adottando, non bisogna correre il rischio di percepire l’IA come una tecnologia “magica”, capace di generare valore in modo automatico. In realtà, la sua efficacia dipende da una comprensione solida dei meccanismi che la governano come la qualità dei dati, i limiti dei modelli, i rischi operativi, le implicazioni etiche e normative.
Qualche principio chiave per i consigli di amministrazione:
- non approvare ciò che non si comprende, pretendere briefing tecnici chiari, indipendenti e comprensibili prima di approvare sistemi automatizzati o basati sull’ IA;
- istituire strutture interne dedicate alla supervisione dell’IA come comitati interni con competenze tecniche, legali e di rischio migliorando così la qualità delle decisioni e riducendo i rischi operativi;
- non farsi guidare dall’hype ma valutare l’IA con criteri rigorosi, metriche verificabili, ritorni misurabili, scenari realistici;
- validare continuamente i modelli e richiedere audit periodici, KPI chiari e soglie di rischio definite;
- diversificare per proteggere la resilienza aziendale ed evitare esposizioni eccessive verso un’unica tecnologia emergente.
Francesca Abate: dottore commercialista, esperta in etica e intelligenza artificiale

