Pubblicità
Opinioni
marzo, 2024

Perché è pericoloso usare l'intelligenza artificiale nei processi

Servono trasparenza e norme chiare per sapere come sono stati scritti gli algoritmi. Che spesso, a causa dell'apprendimento artificiale, finiscono per replicare tutta una serie di bias

Gli inesorabili sviluppi dei sistemi di intelligenza artificiale sono oramai visibili in quasi tutti gli ambiti della vita quotidiana e il giurista non può esimersi dal confrontarvisi.

 

Non siamo ancora (e per fortuna) al cospetto dei “giudici robot”. Ciò che più intriga e pone però i maggiori problemi etici è la cosiddetta giustizia predittiva che si occupa di prevedere la probabile decisione di uno specifico caso attraverso l’ausilio di algoritmi. E questo pone dei campanelli d’allarme soprattutto nel procedimento penale. Alcuni strumenti di valutazione del rischio sono stati utilizzati in un programma condotto dal Cipm – Centro italiano per la promozione della mediazione – nel carcere di Milano Bollate e presso il Presidio criminologico del Comune di Milano dal 2005, per la scelta del tipo di trattamento nei confronti di reati sessualmente connotati (qui la replica di CIPM). Tutto ciò sembra apparire espressione di progresso, efficienza e innovazione. Ma occorre prestare particolare attenzione. Gli strumenti di intelligenza artificiale si “cibano” di dati forniti da programmatori umani. Al di là del mero errore materiale o di calcolo, il rischio più grande è quello di incorrere in palesi discriminazioni ovvero in risultati manifestamente ingiusti. È stato evidenziato, ad esempio, come anche l’intelligenza artificiale sia viziata da un gender gap: vi è una sostanziale sottorappresentazione delle donne nella ricerca, nello sviluppo e nell’applicazione delle tecnologie di Ia. Questo divario si manifesta in diverse dimensioni, tra cui proprio i gender bias risultanti dall’algoritmo, che riflettono pregiudizi di genere che grazie all’apprendimento artificiale rischiano di essere perpetuati o addirittura accentuati.

 

Risulta fondamentale stabilire a priori e in maniera trasparente, in fase di progettazione dell’algoritmo, quali siano i criteri da seguire, quali siano gli assiomi su cui basare intere deduzioni e far sì che questi assiomi non riprendano dei preconcetti sociali. Trasparenza e accessibilità dell’algoritmo, imparzialità e non discriminazione, revisione e controllo umano, verifica delle decisioni, responsabilità e rendicontabilità, sono alcune delle caratteristiche fondamentali che non devono mancare per non eludere il principio fondamentale dell’equo processo. Solo in questo modo, una volta applicati alla giustizia, programmi del genere potrebbero essere di reale ausilio ai giudici.

 

Occorre sottolineare inoltre come non possa in alcun modo perdersi uno dei principi fondamentali del processo penale: l’oralità. Il testo europeo del cosiddetto Ai Act, in attesa di approvazione, prevede una prima regolamentazione dei sistemi di intelligenza artificiale, divisi in tre livelli di rischio, procedendo con cautela a seconda del settore a cui essa viene applicata (su tutti il settore giustizia, con delle deroghe per quanto riguarda il riconoscimento facciale). La legge sta cercando di adattarsi e modellarsi ai nuovi orizzonti e la giurisprudenza sta cercando di inserirsi in un percorso tortuoso e non privo di insidie per le garanzie fondamentali degli individui. Siamo davanti a interrogativi di natura etica ma anche e soprattutto giuridica, che si auspica potranno trovare pronta risposta da una legislazione attenta alle ragioni del diritto.

 

Paola Balducci, Avvocata, componente della Commissione per la riforma del processo penale

 

Aggiornamento 7 marzo: La replica di CIPM al nostro articolo

L'edicola

La pace al ribasso può segnare la fine dell'Europa

Esclusa dai negoziati, per contare deve essere davvero un’Unione di Stati con una sola voce

Pubblicità