Telesorveglianza, riconoscimento biometrico, intelligenza artificiale: con la promessa (non supportata da prove) di una maggiore sicurezza, alcuni comuni puntano su telecamere e altri sistemi di controllo grazie a una legislazione piena di buchi e senza preoccuparsi delle controindicazioni. Ma qualcosa si sta muovendo

Da luoghi d'incontro a spazi di osservazione, gli impianti di videosorveglianza rischiano di trasformare le nostre città in grandi aree di controllo. Occhi elettronici, dislocati in vari punti, con la promessa di proteggerci. Telecamere capaci di osservarci grazie all'intelligenza artificiale e ai software di riconoscimento. In grado di dividerci in categorie, riconoscere il colore del nostro cappotto e potenzialmente di pedinarci in tutti i nostri spostamenti. Nel nome di una maggiore sicurezza non basata su alcun dato - confermano gli esperti - che apre la strada a più domande che risposte.

 

Chi vede i nostri dati, quanto a lungo restano, è sicuro il database in cui vengono conservati, ai cittadini è mai stato chiesto il consenso per trattare informazioni così personali? Sono alcuni degli interrogativi da cui è partito il deputato del Pd Filippo Sensi, che ad aprile ha depositato una proposta di legge per una moratoria (temporanea, fino al 31 dicembre 2021) sull'utilizzo dei sistemi di riconoscimento facciale nei luoghi pubblici. «Sembra il Grande Fratello, ma le tecnologie lo consentono. Prendiamoci del tempo per stabilire un quadro normativo nazionale», ha spiegato a L’Espresso. Perché nel nostro Paese, al momento, non esistono leggi che specifichino l’uso di sistemi di riconoscimento biometrico (caratteristiche proprie di una persona, per esempio conformazione del volto, dell'iride, tono di voce). Né prove che queste tecnologie abbattano i tassi di criminalità. E allora, si chiede Sensi: «Siamo disposti a pagarle se il prezzo sono i nostri dati?».

 

Scattata in una chiesa di Roma, 2018. Dal progetto fotografico "Self Portrait from Surveillance Camera" di Irene Fenara. Lo sguardo dell’artista, rivolto all’obiettivo, diventa atto di resistenza per imporre la propria identità sul mondo controllato

Finora, l’Italia ha risposto «ni». Perché la fumosità dell’impianto normativo permette alle amministrazioni di muoversi in ordine sparso. Il primo caso è stato Como, in cui il Comune aveva installato dei sistemi di videosorveglianza con riconoscimento facciale. Poi bloccati in seguito all’intervento del Garante per la protezione dei dati personali, che ha imposto di disattivarli. E mentre il Parlamento europeo chiede alla Commissione di vietare la videosorveglianza biometrica e Facebook annuncia di voler sospendere l’uso del riconoscimento facciale, in Italia ancora si sottovalutano i rischi legati all'uso indiscriminato di questa tecnologia. «Manca la cultura della protezione dei dati, a differenza di altri Paesi europei», commenta l’eurodeputato Brando Benifei, membro della Commissione speciale sull’intelligenza artificiale. Per questo, forse, e cercando uno strumento facile al problema della sicurezza, a Udine sono stati investiti centinaia di migliaia di soldi pubblici per acquistare impianti al momento inutilizzabili, e cioè telecamere che potrebbero potenzialmente supportare un software per il riconoscimento facciale. Lo stesso sistema di videosorveglianza intelligente bloccato dal Garante dopo il caso di Como. «Il procuratore capo ha richiesto al Comune di ampliare il sistema di videocamere», dice l’assessore alla Sicurezza Alessandro Ciani. Eppure, all’inizio dell’anno e in seguito alla pandemia, la questora Manuela De Bernardin dichiarava «di aver registrato un calo generalizzato del numero di reati, riscontrando la crescita di quelli informatici». Impossibili da prevenire con una telecamera.

 

Non esistono dati in grado di confermare che l'abbattimento della criminalità passi attraverso la sorveglianza di occhi elettronici. «Ho a cuore la sicurezza dei cittadini, ma metterla sul piano del riconoscimento biometrico, per me, significa spostare il fenomeno, non gestirlo», dichiara la nuova assessora all’Innovazione del comune di Torino Chiara Foglietta. Nella città, secondo il progetto “Argo” voluto dall’ex sindaca Chiara Appendino, si sarebbero dovute installare centinaia di telecamere. Il programma, reso definitivo a ottobre 2020, prevedeva che il Comune stanziasse 800mila euro e il ministero dell'Interno 700mila. Ma per il momento i dubbi di Foglietta, che oltre a politica è anche ingegnera, hanno sospeso i lavori: «Ho delle grandi perplessità sull'iniziativa, sulla gara, e soprattutto su chi controllerà i dati e sul loro trattamento. Dove finiranno tutte quelle informazioni? E saranno nelle mani del pubblico o di aziende private?», si chiede. Il nodo principale, ancora una volta, ruota attorno alla raccolta dei dati biometrici, a cui l'assessora si oppone in modo categorico. Sul punto ha provato a rassicurare la società 5T srl, che già controlla la mobilità torinese e si è occupata di bandire la gara per la realizzazione di “Argo”. Finora senza successo.

Scattata in un parco a San Benedetto del Tronto, 2019. Dal progetto fotografico "Self Portrait from Surveillance Camera" di Irene Fenara. Lo sguardo dell’artista, rivolto all’obiettivo, diventa atto di resistenza per imporre la propria identità sul mondo controllato

Nel documento definitivo del progetto, scrive infatti 5T, gli unici dati salvati saranno «i metadati». Rassicurazione solo apparente, poiché gli esempi indicati sono «la distinzione tra uomo e donna, il colore di abbigliamento e scarpe, oggetti come borse, zaini, cappelli». E dunque, concordano attivisti ed esperti di tecnologie, elementi indiretti con cui risalire comunque alle caratteristiche biometriche dei passanti. Insomma, non serve necessariamente inquadrare il volto di qualcuno per raccoglierne i dati. L'Espresso ha provato a chiedere delucidazioni ad Aladina Radio – l’azienda vincitrice della gara che dovrebbe costruire l’infrastruttura tecnologica – e a 5T. Senza ricevere risposta.

 

«I metadati sono un ibrido tra riconoscimento facciale e controlli effettuati da normali telecamere» spiega Laura Carrer, responsabile dell’Unità diritti digitali di Hermes Center, organizzazione impegnata per la tutela dei diritti civili. Sottolineando come, incrociando informazioni sul genere e abiti indossati, sia possibile pedinare una persona in tutti i suoi spostamenti all’interno della città. Le implicazioni sono diverse e non solo collegate alla violazione dei dati personali: identificare i passanti in modo binario può confondere il sesso biologico con il genere e non riconosce le persone trans. 

Scattata a una fermata del bus a Milano, 2019. Dal progetto fotografico "Self Portrait from Surveillance Camera" di Irene Fenara. Lo sguardo dell’artista, rivolto all’obiettivo, diventa atto di resistenza per imporre la propria identità sul mondo controllato

Anche Diletta Huyskes, responsabile del Dipartimento advocay di Privacy network, organizzazione attiva nella promozione dei diritti digitali, riscontra le stesse criticità: «Dividere il mondo in categorie binarie significa affidarsi a principi automatizzati universalizzandoli, a prescindere dalla società e dai cambiamenti che in essa possono verificarsi».

 

La corsa indiscriminata alla sorveglianza penalizza anche i cittadini, sulla carta principali destinatari delle misure di video-sicurezza, in realtà mai coinvolti nel processo decisionale. Difficile dire se sarebbero comunque favorevoli a queste tecnologie se sapessero di pagare le videocamere intelligenti con i loro dati. Per questo, Privacy network sta lavorando alla realizzazione di un osservatorio per mappare i sistemi usati dalla pubblica amministrazione e dal governo. E, con Hermes Center e altre realtà internazionali, ha aderito alla campagna, “Reclaim your face” (oltre 60mila firme già raccolte) per bandire l’utilizzo di tecnologie biometriche nello spazio pubblico europeo.

 

L'indirizzo dell'Unione europea sembra andare verso un approccio etico al tema dell'intelligenza artificiale. Seguito – seppur con estrema lentezza – anche in Italia. Ad aprile il Garante della privacy ha bocciato il sistema di riconoscimento facciale Sari real time del ministero dell’Interno, definendolo «una possibile forma di sorveglianza e identificazione di massa». Il meccanismo, attraverso una serie di telecamere, avrebbe permesso di analizzare in tempo reale i volti dei soggetti ripresi, confrontandoli con una banca dati in grado di contenerne fino a 10mila. E pochi giorni fa Fabio Chiusi, responsabile di progetto di Algorithm watch, organizzazione che si occupa di analizzare l'impatto dei sistemi di intelligenza artificiale sulla società, è stato ascoltato alla Camera dei deputati. In esame c’era la proposta di moratoria di Sensi, limitata però al solo ban del riconoscimento facciale. Ma per Chiusi la questione è più ampia e il divieto andrebbe esteso a ogni forma di riconoscimento biometrico: caratteristiche fisiche, comportamentali, affettive ed emotive. «Non esiste forma alcuna di Grande Fratello indiscriminato in democrazia», ha commentato a L'Espresso.

 

Scattata a Milano, 2021. Dal progetto fotografico "Self Portrait from Surveillance Camera" di Irene Fenara. Lo sguardo dell’artista, rivolto all’obiettivo, diventa atto di resistenza per imporre la propria identità sul mondo controllato

È dello stesso parere anche Carlo Blengino, avvocato penalista esperto di data protection e diritto delle nuove tecnologie. I diritti impattati dalle tecnologie di videosorveglianza sono molteplici: protezione dei dati, riservatezza e rispetto alla vita privata. Tutte precondizioni per il corretto esercizio delle libertà fondamentali. «Quando siamo ripresi ci comportiamo in modo diverso, non siamo realmente liberi se sappiamo di essere sorvegliati. Non sappiamo dire quali informazioni l'algoritmo estragga dai nostri dati personali, se le finalità con cui vengono memorizzati oggi saranno le stesse anche domani, né quanto siano protetti i server su cui vengono conservati». In Italia, aggiunge Blengino, si profila un disegno di sviluppo di tecnologie estremamente invasive per fini di sorveglianza. Di cui il “decreto capienze”, in vigore e in fase di conversione, è uno degli ultimi esempi. Oltre ad allentare le misure per l'ingesso ad attività culturali e ricreative, il decreto ha infatti ampliato le possibilità della pubblica amministrazione di trattare i dati dei cittadini, riducendo di fatto il potere del Garante, l'unica autorità finora in grado di arginare l'uso indiscriminato di sistemi di riconoscimento biometrico. 

LEGGI ANCHE

L'E COMMUNITY

Entra nella nostra community Whatsapp

L'edicola

Siamo tutti complici - Cosa c'è nel nuovo numero dell'Espresso