Le intelligenze artificiali stanno accumulando capacità maggiori rispetto a quelle umane. E dovremo imparare a conviverci. Ma serve un confronto globale che esca dal mondo di ingegneri e regolatori

Immaginate un mondo dove l’intelligenza artificiale non solo risponde alle domande, ma prenota viaggi, scrive film da Oscar e risolve problemi che nemmeno Einstein avrebbe potuto concepire. Ora immaginate che tutto questo possa sfuggire al nostro controllo. È questo il cuore dell’intervista di Sam Altman al Ted 2025: un faccia a faccia serrato con Chris Anderson, un dialogo che oscilla tra sogni visionari, dati spiazzanti e scenari tutt’altro che rassicuranti. Altman, fondatore e Ceo di OpenAi, non ha usato mezzi termini: l’Ia sta trasformando il mondo a una velocità senza precedenti, e la vera sfida non è inventarla, ma mantenerla entro confini sicuri.

 

I numeri parlano da soli: 500 milioni di utenti attivi ogni settimana su OpenAi, in un’impennata che ha raddoppiato i dati nel giro di poche settimane. È una crescita mai vista, nemmeno nei periodi più esplosivi della Silicon Valley. Ma dietro questo entusiasmo Altman lancia un monito: «Non stiamo costruendo un prodotto. Stiamo ridefinendo il rapporto dell’uomo con l’intelligenza». Ed è questo che cambia le regole del gioco. Sul palco del Ted ha mostrato una serie di demo che hanno lasciato il pubblico a bocca aperta. Come Sora, un modello in grado di generare video di altissima qualità partendo da semplici frasi. Un sistema così avanzato che sembra magia. Altman ha parlato di creatività democratizzata: registi, artisti, professionisti e perfetti sconosciuti avranno accesso a strumenti capaci di rivoluzionare il modo in cui si produce contenuto visivo. Ma c’è un punto cruciale: se chiunque può creare qualunque cosa, chi vigila sulla veridicità dei contenuti? Il rischio di annegare in un oceano di fake news e manipolazioni è concreto. E Altman lo sa.

 

La vera questione però è la sicurezza. Il termine chiave è “guardrail”: barriere da costruire per impedire che l’Ia diventi qualcosa che non possiamo più controllare. Altman lo ammette con una sincerità disarmante: non esiste ancora un metodo infallibile. I modelli stanno diventando sempre più agentici, ovvero capaci di agire in autonomia. Possono prendere decisioni, effettuare acquisti, scrivere email, interagire con il mondo reale senza intervento umano diretto. Non sono più semplici strumenti: sono soggetti attivi, in grado di influenzare processi complessi. E quando Anderson lo incalza sull’ipotesi che queste intelligenze possano superare quella umana, Altman non si tira indietro: «Succederà. Non è una possibilità. È una certezza».

 

L’idea di un’intelligenza artificiale più brillante, rapida, efficiente, ma anche più difficile da controllare, più distante dal nostro modo di ragionare, genera un’inquietudine palpabile. Perché a quel punto la domanda diventa: chi decide cosa può fare e cosa no? Anderson tocca il punto nevralgico: la concentrazione del potere. In un mondo dove pochi soggetti privati controllano strumenti così potenti, il rischio è che l’Ia diventi una nuova forma di governo non eletta. Altman non nega il problema, ma rilancia: dopo anni di chiusura per evitare abusi, OpenAi starebbe tornando alle origini con un nuovo modello open-source, vicino al “confine tecnologico”. In pratica, un’intelligenza potentissima che chiunque potrà utilizzare e modificare. Un’idea radicale che profuma di democratizzazione, ma che porta con sé un carico enorme di responsabilità. Perché se da un lato può abilitare nuovi creativi e innovatori, dall’altro è come distribuire tecnologia nucleare senza sapere chi la userà e per cosa.

 

In questo scenario, Altman mette sul piatto il tema più urgente: l’etica. Senza regole chiare, condivise e internazionali, l’Ia rischia di sfuggire ai nostri valori. Chi è responsabile se un modello commette un errore? Chi stabilisce i limiti? Come gestiamo copyright e disinformazione? Nessuna di queste domande ha una risposta definitiva. O meglio: ce ne sono troppe, e spesso in contrasto tra loro. Quello che è certo, dice Altman, è che non possiamo continuare a delegare tutto a ingegneri, imprenditori o regolatori isolati. Serve un patto globale. Serve un confronto ampio, aperto, collettivo. Perché quello che è in gioco non è il successo di una tecnologia, ma il modo in cui vivremo nei prossimi decenni. Alla fine, l’intervista è molto più di una conversazione tech. È uno specchio. Altman ci ha mostrato dove stiamo andando e ci ha fatto una domanda scomoda: siamo davvero pronti a convivere con un’intelligenza superiore alla nostra?

LEGGI ANCHE

L'E COMMUNITY

Entra nella nostra community Whatsapp

L'edicola

Il rebus della Chiesa - Cosa c'è nel nuovo numero dell'Espresso