C’è una rivoluzione in atto, si chiama intelligenza artificiale e sta impattando in ogni ambito della nostra società, dal mondo del lavoro alle politiche globali. Le questioni etiche e di governance restano centrali: tra queste, il tema della parità di genere nel settore tecnologico è una delle sfide più complesse e urgenti. In occasione della Giornata mondiale della donna, per approfondire il suo ruolo nel contesto ampio delle nuove tech, L’Espresso ha incontrato Ivana Bartoletti, esperta di privacy e intelligenza artificiale, nominata “Donna dell'anno ai Cyber Security Awards del 2019” e autrice di An Artificial Revolution: On Power, Politics and AI, che affronta da anni queste tematiche, collaborando con aziende e istituzioni in tutto il mondo per promuovere un uso etico e responsabile delle nuove tecnologie.
In occasione della Giornata Internazionale della Donna, Bartoletti riflette sul rapporto tra AI e gender equality, evidenziando le discrepanze di percezione che ancora oggi esistono tra uomini e donne nel settore tech e il rischio che i modelli di intelligenza artificiale perpetuino stereotipi e bias di genere. Dalla necessità di una maggiore diversity nei team di sviluppo ai problemi di trasparenza negli algoritmi, fino al ruolo fondamentale della normativa sulla privacy, Bartoletti analizza i passi ancora da compiere per garantire un’AI inclusiva e rispettosa dei diritti fondamentali.
Quali sono le principali barriere per le donne nella tecnologia? Come possiamo garantire che l’intelligenza artificiale non amplifichi le disuguaglianze? E soprattutto, quale ruolo possono avere le donne nel definire il futuro dell’AI? In questo nostro colloquio, Ivana Bartoletti lancia un messaggio chiaro: solo con una leadership femminile più forte nei processi decisionali potremo costruire un’intelligenza artificiale davvero equa e trasparente.
Quali sono le principali sfide etiche che l'intelligenza artificiale pone in relazione alla parità di genere?
Il tema principale è fare in modo che i benefici dell'intelligenza artificiale raggiungano tutti. Quindi le sfide etiche riguardano due aspetti in particolare: l'AI si nutre di dati e se non stiamo attenti a come utilizzarli le disuguaglianze di genere che possono trasformarsi in indecisioni nei meccanismi predittivi. Il secondo tema riguarda l’inclusività, la sfida è fare in modo che ci sia un'intelligenza artificiale che risponde anche alle sfide locali, del territorio e delle comunità. Può essere anche un'opportunità, però dobbiamo volerlo e abbiamo bisogno di più donne, di diversity non solamente tra quelli che fanno la programmazione e il Codice ma anche fra chi decide le policy e ai vertici delle aziende.
Parliamo di diversity. A che punto siamo oggi?
Un survey del Women in Tech Policy ci racconta un dato interessante, che riguarda una discrepanza di percezione: le donne vogliono lavorare nel settore tecnologico, occuparsi di intelligenza artificiale e contribuire alla definizione delle policy. Tuttavia, dal sondaggio risulta che il 53% degli uomini non riconosce le donne come possibili leader in ambito tecnologico e non le immagina in ruoli di vertice. Questo è un aspetto cruciale: manca un contesto adeguato al riconoscimento del loro potenziale e della loro leadership nel settore. Questa discrepanza di percezione è un chiaro esempio del gender bias che caratterizza il settore tecnologico. Ci troviamo, quindi, in una situazione in cui esiste un forte desiderio di partecipazione femminile, ma il contesto non supporta questa aspirazione.
Oggi c'è sicuramente maggiore consapevolezza su questo tema. Ad esempio, quando sono stati introdotti i primi modelli di intelligenza artificiale generativa, come gli LLM (Large Language Models), si è subito notato che molti producevano contenuti basati su stereotipi di genere. Un esempio che ho personalmente riscontrato è stato quando ho chiesto a uno di questi chatbot di raccontare la storia di un ragazzo e una ragazza che devono scegliere il proprio percorso universitario: la risposta generata descriveva il ragazzo come intenzionato a studiare ingegneria, mentre la ragazza affermava di voler studiare arte perché "non capisce nulla di numeri".
La rivoluzione tecnologica in atto ha anche una matrice culturale?
L'intelligenza artificiale generativa ha reso evidente questi problemi, portando l'AI nella quotidianità delle persone e accrescendo la consapevolezza del pubblico. Oggi disponiamo di strumenti più avanzati per analizzare e ridurre questi bias, ma, soprattutto, si è compreso che il problema non è solo tecnico, bensì sociale. Certo, è fondamentale sviluppare soluzioni tecnologiche per mitigare i bias, ma questi non possono essere eliminati solo con la tecnologia: servono scelte politiche e sociali consapevoli.
Un altro aspetto cruciale è la riflessione sull’uso dell’AI in chiave "aspirazionale". Se vogliamo che l’intelligenza artificiale contribuisca a ridurre le disuguaglianze di genere, possiamo intervenire sui dati e sui parametri in modo proattivo, ad esempio attraverso l'uso di dati sintetici o la modifica delle metriche utilizzate dai modelli. Questo significa non limitarsi a riprodurre il passato nei dati, ma progettare un futuro più equo.
Anche figure politiche come Narendra Modi, primo ministro dell'India, comprendono bene questa questione: l’India, con la sua enorme diversità linguistica e culturale, è un Paese dove l’inclusività è fondamentale. Negli Stati Uniti, l’approccio è diverso, ma anche lì si stanno facendo passi avanti. In città come New York e nello stato del Colorado, ad esempio, se un’azienda utilizza un sistema di AI per la selezione del personale, è obbligata a sottoporre il sistema ad audit e dimostrare che non è discriminatorio.
Si può parlare di femminismo nello sviluppo dell’AI?
L’intelligenza artificiale è una questione di potere. Lo scrivo anche nel mio libro, l'AI è potere geopolitico, potere di ridefinire il mondo del lavoro, le relazioni internazionali e il modo in cui viviamo. E quando parliamo di femminismo, parliamo proprio di potere e di riequilibrare le asimmetrie di potere. Applicare una prospettiva femminista all’AI significa riconoscere e affrontare queste disuguaglianze. Pensa, ad esempio, all’asimmetria tra un utente e una grande azienda che possiede tutti i suoi dati e li utilizza per personalizzare la pubblicità o prendere decisioni automatizzate. Oppure all'algoritmo che decide se puoi ottenere un mutuo o meno, spesso in modo opaco e senza trasparenza. C’è una chiara disparità di potere tra il singolo individuo e il sistema algoritmico, una sorta di "black box" di cui non possiamo comprendere appieno i meccanismi. Questa asimmetria di potere è esattamente ciò su cui il pensiero femminista ci ha insegnato a riflettere e a intervenire. Per questo è fondamentale parlare di femminismo anche nello sviluppo dell’AI: per costruire sistemi più equi, trasparenti e inclusivi.
Quali misure ritiene fondamentali per garantire che l’AI venga sviluppata e utilizzata in modo etico e nel rispetto della privacy?
Data l’asimmetria di potere che esiste nell’uso dell’intelligenza artificiale, le imprese hanno il dovere di essere trasparenti e responsabili nel loro utilizzo delle tecnologie AI. Questa è la mia missione: contribuire a colmare, per quanto possibile, questa asimmetria. Nel mio lavoro, mi assicuro che i sistemi di intelligenza artificiale che sviluppiamo o utilizziamo – sia internamente che con i nostri clienti – integrino fin dall’inizio i principi di privacy, sicurezza e protezione legale by design, insieme a tutte le misure di responsabilità necessarie.
Ad esempio, se utilizzo un sistema di AI per la gestione del personale (HR management), è fondamentale che i dipendenti siano informati su come funziona, come viene utilizzato e, soprattutto, come possono contestare le decisioni prese dall’algoritmo. Lo stesso principio si applica ai clienti: il vero tema è che le imprese devono assumersi questa responsabilità, perché alla fine le persone e le aziende scelgono prodotti in cui ripongono fiducia. La domanda chiave è quindi: come costruiamo prodotti di cui le persone possano fidarsi?
Per rispondere a questa domanda, dobbiamo definire cosa significa fiducia in questo contesto. Che si tratti della regolamentazione europea sull’AI, delle leggi sulla privacy o della tutela dei consumatori, l’intelligenza artificiale non è mai esistita in un vuoto normativo. La sfida sta nell’integrare privacy, sicurezza e protezione legale direttamente nel design di queste tecnologie, affinché siano affidabili e rispettino i diritti delle persone fin dall’inizio.
Lei ha preso parte alle discussioni sull’AI Act europeo. Quali aspetti di questa legislazione ritieni cruciali per promuovere l'uguaglianza di genere nel settore tecnologico?
Il punto centrale di questa legislazione va oltre l’Europa. L’AI Act è una legge che regola i prodotti, ma con una particolarità: è strettamente legata ai diritti fondamentali. Questo è essenziale perché stabilisce una classificazione dei sistemi di intelligenza artificiale in base al rischio e, di conseguenza, definisce i controlli necessari. Tuttavia, questi controlli non sono altro che l’applicazione di normative già esistenti, come quelle sulla privacy e la trasparenza.
Per me, ci sono due questioni fondamentali. La prima riguarda la normativa sulla privacy, che è una grande alleata dell'uguaglianza. Oggi, nel mondo tecnologico, la privacy è strettamente legata alla dignità e all’equità: la domanda che dobbiamo porci è "privacy per chi?". Il GDPR (General Data Protection Regulation), spesso criticato, è in realtà uno strumento formidabile per proteggere gli individui nell'era dell'intelligenza artificiale. Ad esempio, può essere utilizzato per garantire trasparenza nei processi decisionali algoritmici. Recentemente, due sentenze della Corte di Giustizia Europea hanno ribadito il ruolo cruciale della privacy, sottolineando come l’articolo 22 del GDPR rafforzi la necessità di trasparenza negli algoritmi decisionali. Questo dimostra che la privacy non è solo una questione tecnica, ma un mezzo per difendere la dignità umana, un tema centrale in questo momento.
La seconda questione è la lotta alla discriminazione. Abbiamo a disposizione numerosi strumenti e linee guida sviluppati da organizzazioni che si occupano di pari opportunità, e credo che possano giocare un ruolo chiave nell’attuazione dell’AI Act. Ora la sfida è capire come attuare questa normativa e come coordinarla con le leggi già esistenti per garantire che tutti gli strumenti a disposizione, non solo l’AI Act, vengano utilizzati per promuovere l’uguaglianza di genere nel settore tecnologico.
Oggi è la Giornata Internazionale della Donna. Si dice spesso che l’intelligenza artificiale sia “donna”. C’è un augurio che vuole fare alle donne italiane che lavorano in questo settore, ancora troppo poche?
L’intelligenza artificiale non è né donna né uomo, è una macchina. È fondamentale evitare l'antropomorfizzazione di questi strumenti. Pensa, ad esempio, agli assistenti virtuali come Siri o Alexa, che spesso hanno voci femminili e sono programmati per obbedire a qualsiasi richiesta, senza ribattere. Questo è un aspetto simbolico, ma significativo, che riflette stereotipi di genere.
L’augurio che voglio fare per l’8 marzo è, prima di tutto, quello di riconoscere il valore immenso delle donne nell’intelligenza artificiale. Ce ne sono molte, in tutto il mondo, che lavorano con grande competenza e impegno.
Voglio anche incoraggiare una maggiore presenza femminile nei ruoli chiave, non solo nella programmazione, ma anche nei processi decisionali: non basta scrivere codice, è fondamentale decidere come e per cosa utilizziamo l’AI. Oggi viviamo in un mondo complesso, e trovare una governance globale dell’intelligenza artificiale sarà una sfida ancora più grande.
Ora più che mai, abbiamo bisogno di una leadership femminile all'interno delle imprese e degli organismi decisionali che definiranno il futuro dell’intelligenza artificiale. Perché sarà proprio la diversità a garantire che l’AI venga sviluppata e utilizzata in modo responsabile e a beneficio di tutta l’umanità.