Innovazione
3 ottobre, 2025Ci stiamo raccontando una bugia che serve al mercato: una macchina capace di pensare come un essere umano resta sulla carta. Le applicazioni non imparano oltre
Il punto è semplice: ci stiamo raccontando una bugia collettiva. Qui negli Stati Uniti, nelle ultime settimane, ho parlato con una decina di persone che lavorano sull’intelligenza artificiale. Non si tratta dei soliti “consulenti” da convegno, ma investitori veri e fondatori di startup che hanno le mani dentro al codice e i soldi sul tavolo. In pubblico raccontano la narrativa che tutti vogliono sentire: modelli sempre più potenti, aggiornamenti miracolosi, un futuro in corsa verso l’Agi. L’Agi è la cosiddetta intelligenza artificiale generale, l’idea di una macchina capace di pensare e ragionare come un essere umano. Una promessa che, purtroppo, a oggi, resta solo sulla carta. In privato dicono l’opposto.
Attenzione, non sto parlando delle applicazioni costruite sopra questi modelli. Quelle, nei limiti noti, funzionano bene: customer care, ricerca, traduzioni, supporto alla scrittura, assistenza medica preliminare. Sono strumenti utili e in molti casi già produttivi. Proprio per questo il paradosso è ancora più evidente: l’impalcatura che regge queste applicazioni, cioè i modelli, non ha le stesse certezze. È lì che si trova la fragilità, ed è lì che tutti fingono di non guardare.
La verità è che i modelli attuali non imparano oltre, non si adattano oltre e non sono affidabili in produzione. E lo sanno benissimo.
Alcuni investitori lo ammettono a microfoni spenti: «Sì, i modelli hanno già dato il massimo, ma finché il mercato ci crede, noi investiamo». Tradotto: il problema non è la tecnologia, ma la narrativa. C’è chi ci costruisce sopra un intero ecosistema finanziario. Basta guardare gli annunci delle big tech: si parla di rivoluzioni, di nuove frontiere, di intelligenza sempre più vicina a quella umana. Ma poi, nei corridoi, gli stessi manager ammettono che in produzione i modelli fanno acqua da tutte le parti, che i costi di addestramento sono insostenibili e che ogni nuovo upgrade porta guadagni marginali.
Non è un problema tecnico, è un problema psicologico, culturale, finanziario. La regola è solo una: scalare. Più dati, più Gpu (Graphics processing unit), più miliardi. Ma la curva “dietro” è già piatta. Si vede con GPT-5, che non ha portato alcun cambio di passo. Ma non è un fallimento di prodotto, è un fallimento di paradigma. Non importa se lo chiami Claude, Gemini, Grok o Llama. Tutti seguono lo stesso copione, con la stessa illusione: che la crescita lineare porti all’Intelligenza generale.
La verità è che non porta da nessuna parte. Eppure i soldi continuano a fluire. Perché i mercati hanno bisogno di storie, non di verità. La promessa dell’Agi è la droga perfetta: finché la si racconta, i capitali arrivano, le valutazioni salgono, i talenti si muovono. Ma sotto c’è il vuoto. Non stiamo costruendo intelligenza, stiamo costruendo un’imitazione sempre più sofisticata.
E la parte più pericolosa deve ancora esplodere. Questi modelli non sono neutri. Riflettono i valori, i bias, le priorità di chi li ha progettati. Un’Ia addestrata a San Francisco parla e decide come chi l’ha creata, non come chi la usa a Delhi, a Milano o a Lagos. Non c’è nessuna personalizzazione etica, nessuna capacità di rispettare le differenze individuali. È un problema enorme. Perché se un utente si accorge che la macchina non solo non ragiona come lui, ma addirittura lo contraddice nei suoi principi fondamentali, la fiducia crolla.
Oggi l’entusiasmo nasconde tutto. Ma quando emergerà con chiarezza che l’Ia “mainstream” non è universale, non è imparziale, non è adattiva, la frattura sarà evidente. L’industria rischia un boomerang: più grande è stata la promessa, più devastante sarà la delusione.
Il futuro dell’intelligenza artificiale non sta nello scaling infinito, ma nella capacità di diventare veramente cognitiva. Apprendere in continuo, integrare feedback, adattarsi da sola ai contesti. E soprattutto: rispettare i valori personali di chi la usa. Non un unico sistema etico imposto dall’alto, ma un livello etico personalizzato, portatile, collegabile a qualsiasi Ia. Senza questo, non sarà mai intelligenza. Sarà solo imitazione.
O costruiamo Ia capaci di apprendere e rispettare davvero gli esseri umani, oppure resteremo con macchine che parlano bene e non capiscono nulla. E la verità è che oggi siamo ancora all’inizio. Abbiamo solo giocattoli costosi che recitano la parte dell’intelligenza. Ma non basta che un modello scriva bene o passi un esame. Se non sa apprendere da ciò che vive, se non sa rispettare chi lo usa, se non sa cambiare da solo, allora resta un pappagallo statistico. Più grande, più lucido, ma pur sempre un pappagallo.
Quanto ancora vogliamo fingere che basti imitare per diventare intelligenti?
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Speciale 70 anni - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 3 ottobre, è disponibile in edicola e in app