Governi e cittadini sottovalutano la velocità dell’evoluzione tecnologica. Così come il problema di regolamentarne l’utilizzo. Prima che sia troppo tardi

Leopold Aschenbrenner, ex dipendente di OpenAi, ha fatto una previsione interessante: entro il 2027, l’intelligenza artificiale potrebbe diventare così avanzata da poter svolgere il lavoro di ricercatori o ingegneri senza alcun intervento umano (in sostanza: bye bye intelligenza umana). Nel saggio “Situational Awareness”, Aschenbrenner ha analizzato lo sviluppo della Ia, partendo da Gpt-2 fino a Gpt-4 (i modelli creati da OpenAi che con ChatGpt ha conquistato il mondo), e ha proiettato i futuri miglioramenti nella capacità di calcolo e negli algoritmi. Per capirci: se Gpt-2 nel 2019 era paragonabile a un livello prescolastico e Gpt-3 a uno studente delle elementari, Gpt-4, ora, è paragonabile a uno studente liceale, tra l’altro brillante. Ce ne faremo una ragione, ma la domanda successiva sorge spontanea: cosa ci riserveranno Gpt-5 e le sue evoluzioni future (Gpt-22…)? L’avanzamento dell’Ia non segue una crescita lineare, ma esponenziale, e questo suggerisce che le future versioni potrebbero superare di gran lunga le capacità umane attuali.

 

Ma come siamo arrivati qui? Due i principali motivi. Anzitutto gli enormi investimenti in hardware. Prendiamo Nvidia, per esempio. Questa azienda ha raggiunto una valutazione di mercato di 3 trilioni di dollari, piazzandosi allo stesso livello di giganti come Apple e Microsoft (fattura e fa molti meno utili di Apple, ma così va il mercato). Il risultato non solo riflette la crescita impressionante di Nvidia, ma anche il ruolo cruciale che svolge nel fornire l’hardware necessario per l’Ia. Nvidia, infatti, è il principale fornitore di Gpu, le unità di elaborazione grafica che sono il motore dietro i modelli di intelligenza artificiale più avanzati. In pratica, Nvidia fornisce pale e secchielli a tutti quelli che vogliono costruire castelli nella spiaggia dell’Ia! Questo dominio permette a Nvidia, da una parte, di crescere economicamente e, dall’altra, di avere un’enorme influenza sulla direzione della ricerca e dello sviluppo dell’Ia. Le immagini generate da modelli come quelli di Midjourney (software per generare immagini “artificiali” partendo da una semplice descrizione), ad esempio, migliorano clamorosamente con l’aumento della capacità di calcolo, dimostrando come la potenza di elaborazione influenzi direttamente qualità e capacità delle applicazioni di Ia.

 

Gli investimenti in infrastrutture sono poi supportati da un secondo fattore: gli algoritmi sono sempre più efficienti (l’Ia va in palestra tutti i giorni e in più gioca a scacchi con Magnus Carlsen tutti i giorni). Ciò porta a chiedersi: come gestiremo l’Ia in futuro? Eric Schmidt, ex ceo di Google, ha suggerito che le Ia avanzate saranno gestite dai governi e custodite gelosamente in basi militari, alimentate da centrali nucleari per garantirne la sicurezza e l’operatività. Sembra una scena di “Mission: Impossible”. La sicurezza delle Ia, però, è un tema cruciale: devono essere protette non solo da attacchi informatici, ma anche da usi impropri, e i governi avranno un ruolo centrale, stabilendo normative e controlli per mitigare i rischi legati alle Ia avanzate. Un altro nodo di questa crescita esponenziale è mantenere l’essere umano al centro e in controllo (la parolaccia usata è «superalignment»). Molti ricercatori e professionisti del settore stanno promuovendo anche l’idea di un “right to warn”, un diritto di avvertire quando le Ia mostrano comportamenti problematici o pericolosi. Questo approccio mira a garantire che tutto sia sviluppato e usato in modo trasparente e responsabile.

 

La crescita dell’intelligenza artificiale presenta casini inenarrabili, ma anche strepitose opportunità (già oggi puoi fare in 10 minuti quello che prima richiedeva 10 ore!) e, mentre ci avviciniamo a una possibile era di superintelligenza, è essenziale affrontare il prima possibile le questioni di sicurezza, etica e governance. È fondamentale, infatti, che governi e istituzioni internazionali collaborino per sviluppare regolamentazioni che assicurino l’uso etico dell’Ia. Queste ultime dovrebbero includere linee guida chiare per la trasparenza, la responsabilità e la protezione dei dati e dei sistemi (ad esempio, quanto è difficile bucare i sistemi di protezione di OpenAI? Non stiamo parlando del Pentagono, giusto, ma di una startup. Se domattina questi signori sviluppano un super-sistema che fa faville sarebbe relativamente facile per governi come Cina o Russia impossessarsene). Per colmare il divario tra la tecnologia e la società, è cruciale, inoltre, investire nell’educazione e nella consapevolezza pubblica. Stando a contatto con centinaia di aziende e vivendo nel mondo social, noto che oggi purtroppo esiste una totale disconnessione tra quello che sta succedendo (alla velocità della luce) e quello che le persone credono che stia succedendo (il 99% sottovaluta il tasso di crescita dell’Ia).

 

La natura globale dello sviluppo dell’Ia richiede infine una collaborazione internazionale senza precedenti: Paesi e aziende devono condividere conoscenze, risorse e migliori pratiche, al fine di massimizzare i benefici e minimizzare i rischi dell’Ia. O il prezzo da pagare sarà molto alto, in primis sui posti di lavoro. Verranno create valanghe di nuovi lavori, ma inevitabilmente verranno spazzate via molte attività tradizionali (e se hai milioni di persone che rimangono a casa senza lavoro, in bocca al lupo a ri-formarle in tempi brevi). La sfida sarà riuscire a usare questa incredibile tecnologia a nostro vantaggio per evitare di essere usati da lei. Ricordando, come diceva il saggio: «La tecnologia dovrebbe migliorare la tua vita, non diventare la tua vita».