Spesso si pensa che le macchine abbiano capacità divinatorie. E che i processi di automazione siano neutrali. Ma anche programmare è un gesto politico, spiega l’esperta di etica digitale

Produzione e apprendimento sono al centro dei discorsi sulle nuove tecnologie. Quando si parla di intelligenza artificiale sembra di immaginare un corpo estraneo venuto dal futuro, nel migliore dei casi a liberarci dal lavoro, nel peggiore a togliercelo. Diletta Huyskes, ricercatrice nel campo dell’etica delle tecnologie e dell’intelligenza artificiale (tra l’Università degli Studi di Milano e quella di Utrecht), ha fondato insieme a Luna Bianchi “Immanence”, società benefit di consulenza legale e strategica. Spiega che le IA non sono né black box né strumenti divinatori, che sono piene di passato e dei retaggi di chi le progetta. Ma, soprattutto, che programmare un algoritmo è un gesto politico.

 

Nella sua bio Instagram c’è scritto “technofeminist”. Perché l’intelligenza artificiale è una questione femminista?
«Per tantissimi motivi. L’aggettivo deriva da un libro scritto da un’autrice femminista degli anni ’80 (“Technofeminism” di Judy Wajcman, ndr.) che in quegli anni si stava già occupando del rapporto tra genere, tecnologia, femminismo. Io sto riutilizzando e riprendendo questi studi, quasi completamente sconosciuti, perché mi sembra che l’impianto concettuale e politico sia esattamente quello che ci serve per studiare, capire, criticare e analizzare il modo in cui progettiamo la tecnologia e quindi anche l’intelligenza artificiale. Occorre dare spazio a una serie di prospettive che vengono escluse, non solo a quella delle donne. Significa guardare al design e alla progettazione delle tecnologie in modo critico, perché, ad oggi, questi software, purtroppo, riproducono lo status quo. Discriminazioni incluse».

 

Diletta Huyskes

 

I pregiudizi dell’IA sono proprio quelli umani, infatti gli algoritmi riproducono le disuguaglianze presenti nella realtà. Con che conseguenze?
«Se i dati di partenza sono poco rappresentativi, è ovvio che il sistema di IA produrrà dei risultati parziali e potenzialmente discriminatori. Ciò diventa ancora più problematico per gli utilizzi che le amministrazioni pubbliche e i governi ne fanno per automatizzare alcuni servizi per i cittadini. C’è l’esempio dell’Olanda, dove ci sono stati furti di dati sensibili per identificare soggetti a rischio di frode e togliergli i sussidi per i figli. O quello della giustizia predittiva negli Stati Uniti, che reitera il rischio di recidiva per le persone nere. I data scientist, gli informatici, gli ingegneri e i programmatori, utilizzano dei criteri molto tecnici per capire se il loro sistema di intelligenza artificiale funziona. Per essi il funzionamento è sempre una metrica di fattibilità e di soddisfazione statistica. Però manca un pezzo fondamentale, quello della fattibilità e del funzionamento sociale di questi ragionamenti: vogliamo veramente che un algoritmo predichi la criminalità negli adolescenti che non hanno ancora compiuto alcun reato? Vogliamo che una donna sia considerata meno affidabile di un uomo perché per secoli le donne non hanno lavorato?».

 

Se la tecnologia è politica, cosa succede quando non è governata?
«Tutta la storia dell’innovazione e della tecnologia ci ha fatto credere che quando un processo viene delegato a una macchina o automatizzato, l’essere umano dietro a questi processi si deresponsabilizza. Lo stiamo vedendo moltissimo, ad esempio, con l’IA generativa di ChatGPT».

 

In Italia a che punto siamo con la regolamentazione dell’IA nei sistemi della Pubblica amministrazione?
«Tutti pensano che in Italia non ci siano algoritmi utilizzati dalle pubbliche amministrazioni. Ce ne sono pochi rispetto ad altri Paesi, ma ce ne sono e nessuno lo sa. A livello nazionale c’è una estrema mancanza di trasparenza, ma anche di consapevolezza da parte dei decisori. Non ci sono normative italiane che regolamentano l’utilizzo dell’intelligenza artificiale. Ci sono ovviamente i regolamenti UE che abbiamo automaticamente applicato, come il Gdpr (il Regolamento generale sulla protezione dei dati, ndr). Esiste ad esempio una moratoria sull’utilizzo del riconoscimento facciale nei luoghi pubblici che recentemente è stata estesa fino alla fine del 2024. C’era la Strategia nazionale sull’intelligenza artificiale promossa dalla scorsa legislatura, ma assolutamente insoddisfacente».

 

Si sente ottimista rispetto al futuro delle IA e alla possibilità di sviluppare una nuova etica attorno all’automazione?
«È possibile e auspicabile. Sono diventata più ottimista. Se nessuna tecnologia è neutra, inevitabile o si cala dall’alto, allora possiamo fare molte scelte per utilizzarle in un certo modo. Questo richiede uno sforzo corale, ecosistemico e strutturale. Deriva da qui il mio impianto teorico femminista».