Economia
13 marzo, 2026Come già accaduto per Internet o per il Gps, anche l’Ia è diventata una tecnologia strategica cruciale per il settore militare. Ma per molti questa applicazione rappresenta un limite difficile da accettare
L’intelligenza artificiale sta entrando in guerra. Non è una metafora. È quello che sta succedendo davvero nelle ultime settimane dentro una delle aziende più importanti del settore: OpenAI. La notizia è fresca e racconta molto bene la fase che stiamo vivendo. Caitlin Kalinowski, responsabile hardware e robotica di OpenAI ed ex dirigente Meta, ha lasciato l’azienda dopo un accordo siglato con il dipartimento della Difesa americano.
Il punto di tensione riguarda l’utilizzo delle tecnologie di intelligenza artificiale in ambito militare: sistemi di sorveglianza e applicazioni che, nel tempo, potrebbero avvicinarsi al campo delle armi autonome. Non è un caso isolato. È il segnale che l’intelligenza artificiale sta attraversando una trasformazione profonda. Fino a pochi anni fa il dibattito sull’Ia era dominato da altri temi: chatbot, immagini generate dalle macchine, creatività artificiale, automazione del lavoro. Oggi lo scenario è cambiato. L’intelligenza artificiale è diventata una tecnologia strategica, una vera infrastruttura di potere e, quando una tecnologia raggiunge questo livello di importanza, il settore militare entra inevitabilmente in gioco.
È successo molte volte nella storia. Internet nasce da Arpanet, un progetto del dipartimento della Difesa americano. Il Gps è stato sviluppato per uso militare prima di arrivare sugli smartphone. Gran parte della ricerca sui semiconduttori e sui supercomputer è stata finanziata per decenni con fondi della difesa. L’intelligenza artificiale sta seguendo la stessa traiettoria. Il Pentagono sta investendo miliardi nello sviluppo di sistemi basati su Ia per analizzare immagini satellitari, interpretare grandi quantità di dati, supportare operazioni di intelligence e migliorare il coordinamento delle missioni. In teoria si tratta di strumenti difensivi e di analisi. In pratica la linea di confine tra difesa e attacco è molto sottile. Ed è proprio qui che nascono le tensioni etiche. Per molti ingegneri della Silicon Valley l’idea di lavorare su tecnologie che potrebbero essere integrate in sistemi militari rappresenta un limite difficile da accettare. Non è la prima volta che succede. Nel 2018 Google si trovò al centro di una rivolta interna per il cosiddetto Project Maven, un programma del Pentagono che utilizzava l’intelligenza artificiale per analizzare immagini provenienti da droni militari. Migliaia di dipendenti protestarono e alla fine l’azienda decise di non rinnovare il contratto. Oggi però il contesto è diverso. L’intelligenza artificiale è diventata uno dei principali terreni di competizione globale tra Stati Uniti e Cina. Pechino sta investendo enormemente in sistemi autonomi, droni intelligenti e piattaforme di analisi basate su algoritmi.
Una tecnologia così potente diventa inevitabilmente uno strumento di potere. E il potere, prima o poi, entra anche nella sfera militare. Il punto più delicato riguarda le cosiddette armi autonome. Da anni diverse organizzazioni internazionali chiedono regole globali che impediscano ai sistemi basati su intelligenza artificiale di prendere decisioni letali in modo completamente autonomo. L’idea è semplice: una macchina non dovrebbe mai poter decidere da sola se una persona deve vivere o morire. Ma la tecnologia sta andando in quella direzione. I droni stanno diventando sempre più intelligenti. I sistemi di analisi militare sempre più automatizzati. Le decisioni operative sempre più supportate dagli algoritmi. Non significa necessariamente che i robot prenderanno il controllo dei campi di battaglia. Significa però che una parte crescente delle decisioni passerà attraverso sistemi software. Ed è per questo che la vicenda OpenAI è così significativa.
Le dimissioni di una dirigente non sono solo una questione interna a un’azienda. Sono il segnale di una frattura più ampia dentro l’industria. Da una parte c’è chi vede l’Ia come uno strumento civile, legato alla conoscenza, alla ricerca, alla creatività. Dall’altra chi considera inevitabile che una tecnologia così potente venga utilizzata anche nella sicurezza e nella difesa. Probabilmente entrambe le visioni hanno una parte di verità, ma una cosa è chiara: l’intelligenza artificiale non è più soltanto la tecnologia delle app o dei chatbot. Sta diventando una infrastruttura strategica globale. E quando succede questo, le domande etiche diventano molto più difficili da ignorare. Perché l’Ia non riguarda più solo il futuro dell’innovazione. Riguarda anche il futuro del potere.
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Guerra: chi paga il conto? - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 13 marzo, è disponibile in edicola e in app



