Economia
5 marzo, 2026l volto più riconoscibile della rivoluzione dell’intelligenza artificiale sale su un palco internazionale e, senza esitazioni, ammette che tra un paio d’anni una macchina potrebbe fare il suo lavoro meglio di lui. Non un manager qualunque, ma l’uomo che guida l’azienda simbolo dell’Ia globale: Sam Altman
Immaginate la scena: il volto più riconoscibile della rivoluzione dell’intelligenza artificiale sale su un palco internazionale e, senza esitazioni, ammette che tra un paio d’anni una macchina potrebbe fare il suo lavoro meglio di lui. Non un manager qualunque, ma l’uomo che guida l’azienda simbolo dell’Ia globale. È quello che Sam Altman ha affermato all’India Ai Impact Summit: «La superintelligenza è a un paio d’anni di distanza e sarà capace di fare meglio di qualsiasi executive, certamente meglio di me». Una frase che suona come una previsione tecnologica, ma che in realtà mette in discussione qualcosa di molto più profondo: l’idea stessa che al vertice debba esserci per forza un essere umano.
Per anni ci siamo raccontati che l’Ia avrebbe automatizzato compiti ripetitivi, migliorato la produttività, supportato i team. Ora la narrazione cambia scala: non più assistente, ma sostituto. Non più strumento, ma decisore. Se perfino chi siede al vertice della rivoluzione digitale si dichiara rimpiazzabile, allora la questione non riguarda più solo programmatori, creativi o impiegati amministrativi.
Altman parla di superintelligenza capace di fare meglio di qualsiasi executive. Meglio in cosa? Nel leggere quantità di dati che nessun umano potrebbe processare, nel simulare scenari economici complessi, nel prevedere l’andamento dei mercati con una precisione statistica superiore, nell’allocare capitale senza farsi influenzare dall’ego o dalla paura. Un sistema addestrato su milioni di bilanci, crisi aziendali, guerre commerciali, cicli economici e strategie industriali potrebbe individuare pattern invisibili all’occhio umano e proporre decisioni con una freddezza chirurgica. Non dorme, non si stanca, non si innamora delle proprie intuizioni, non ha bisogno di difendere il proprio ruolo.
In un mondo sempre più data-driven, dove il vantaggio competitivo si gioca sulla capacità di anticipare il futuro, la prospettiva non sembra così assurda.
Eppure proprio qui si apre la crepa. La leadership non è solo analisi o ottimizzazione: è responsabilità pubblica, gestione del consenso, capacità di assumersi decisioni impopolari. Un algoritmo può suggerire il taglio di 10 mila posti di lavoro per massimizzare il valore per gli azionisti, ma chi ne affronta le conseguenze sociali e politiche? Il punto non è soltanto tecnologico: è una questione di responsabilità, di accountability, cioè di dover rispondere pubblicamente delle proprie scelte e pagarne il prezzo se si sbaglia. Un Ceo può essere rimosso dal consiglio di amministrazione, un leader politico può essere sfiduciato dagli elettori. Con una superintelligenza, invece, la catena si complica: se una decisione automatizzata provoca danni enormi, chi ne risponde davvero? Senza un soggetto identificabile che si assuma il peso delle scelte, anche la decisione più efficiente rischia di trasformarsi in un vuoto di potere travestito da progresso.
L’idea di una superintelligenza è affascinante e inquietante insieme. Se può fare meglio di un executive, può forse fare meglio anche di un ministro dell’economia, di un governatore di banca centrale, di un presidente. La linea tra governance aziendale e governance pubblica è più sottile di quanto sembri: entrambe si basano su decisioni in condizioni di incertezza, su modelli previsionali, su scenari probabilistici. Ridurre tutto a una funzione di ottimizzazione è una tentazione pericolosa. Le aziende non sono solo macchine per generare profitto, sono comunità di persone e culture organizzative. La politica non è solo allocazione efficiente di risorse, è conflitto, identità, valori, compromessi. Una superintelligenza potrebbe proporre la soluzione più efficiente, ma non necessariamente quella più giusta o più accettabile per una società.
Forse tra due anni non vedremo un algoritmo seduto formalmente sulla poltrona di un Ceo, ma vedremo Ceo che delegano sempre più potere decisionale a sistemi autonomi, affidando loro analisi, raccomandazioni e perfino scelte operative. A quel punto la differenza tra guidare un’azienda e supervisionare un’intelligenza che la guida diventerà sottilissima. E allora la domanda smette di essere solo tecnologica e diventa politica e culturale: chi governa chi? L’uomo che programma la macchina o la macchina che suggerisce all’uomo cosa fare?
Secondo Sam Altman, l’Ia sarà capace di fare meglio di qualsiasi executive. Gli algoritmi possono anticipare scenari futuri con più precisione e proporre sempre le soluzioni più efficienti. Ma non per forza le più giuste.
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Caos globale - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 6 marzo, è disponibile in edicola e in app


