Opinione
Sorveglianza digitale. La Ue deve fare di più
La proposta di regolamento rilasciata dalla Commissione è un primo passo. Ma il controllo dei dati biometrici di massa andrebbe bandito
La materia è a dir poco complessa; per questo la proposta di Regolamento per l’Intelligenza Artificiale rilasciata dalla Commissione europea la scorsa settimana costituisce di per sé un evento positivo. La politica continentale dimostra di aver compreso la quotidianità di questi temi, il loro impatto sulle nostre vite, e ha cominciato a porre alcuni limiti al rischio che algoritmi e forme di AI diventino strumenti di sorveglianza di massa.
L’argomento è sottoposto a costanti novità, il perimetro delle applicazioni possibili non è ancora conosciuto in tutto il suo potenziale: per questo una “regolamentazione” si presenta come un processo in divenire, tanto più in un’epoca di emergenze costanti. Secondo alcune delle organizzazioni che da tempo si occupano di questi temi, il piano della Commissione è però mancante su aspetti fondamentali. Alcuni di questi sono tecnici, altri sono politici. Innanzitutto la Commissione ha diviso le applicazioni dell’AI in diverse gradazioni di rischio, vietandone gli utilizzi più subdoli.
Un primo problema è che, però, alcuni di questi limiti non sembrano sufficienti. Secondo l’Hermes Center for Transparency and Digital Human Rights «la proposta si contraddice, permettendo alcune forme di sorveglianza biometrica di massa che però riconosce essere incompatibili con i nostri diritti fondamentali e con le libertà protette in Europa». In particolare sull’identificazione biometrica e l’uso del riconoscimento facciale, la proposta Ue lascia ampie possibilità di interpretazione e quindi di utilizzo, concentrandosi per lo più sull’uso che di questi strumenti fanno le polizie, senza dire alcunché su governi e aziende. Per questi motivi, al momento, la sorveglianza biometrica - in tempo reale o differita - dovrebbe essere semplicemente bandita.
Il percorso della proposta - inoltre – non sarà di sicuro agevole, perché dovrà essere votato dal Parlamento europeo e dai Paesi membri. Come spesso accade ogni Stato sta regolando, o lasciando correre, utilizzi sempre più invasivi di queste tecnologie. Basti pensare alla Francia: Parigi di recente ha approvato una legge sulla sicurezza che permette alle forze dell’ordine un’ampia discrezione e una straordinaria varietà di strumenti tecnologici che rischiano di trasformarsi in dispositivi di controllo (e discriminazione) totale.
Ma il limite più grande di questa proposta è di natura politica e non ha a che fare solo con l’Europa, ma con la considerazione che il capitalismo di sorveglianza possa essere emendato dal mercato o dall’attività degli Stati. È la politica a dover intervenire perché AI e algoritmi siano utili - come possono esserlo - alle nostre società. E l’origine di tutto riguarda i dati (il vero motore dell’AI), la trasparenza della loro raccolta e del loro utilizzo. Solo considerando i Big Data un’infrastruttura pubblica, un bene appartenente ai cittadini (da cui, con diverse modalità, i dati sono “estratti”) l’Europa potrà trovare davvero una via autonoma tra il dirigismo statale cinese e il liberismo della Silicon Valley americana.