Diritti

Nude ma con un corpo che non esiste: gli Stati Uniti provano a legiferare sui porno deepfake non consensuali

di Chiara Putignano   28 maggio 2024

  • linkedintwitterfacebook

Nel 2023 online ci sono 95.820 video creati con l'intelligenza artificiale, nel 98% dei casi si tratta di donne. Mentre la Casa Bianca cerca il compromesso, ecco cosa ci dice la regolamentazione europea

Perdere il controllo sulla propria immagine, anzi sul proprio corpo. Il volto è quello ma il corpo non gli appartiene. Sembra reale, ma non lo è. E lo sanno solo la vittima e l’artefice di quella riproduzione distorta della realtà. Nel 2023 i video deepfake in giro per il web, ovvero prodotti audiovisivi o fotografici creati con l’utilizzo dell’intelligenza artificiale partendo da un dato reale, sono 95.820. Secondo un report del portale "Home security heroes", il 98% dei deepfake sono a sfondo pornografico e nel 99% dei casi si tratta di donne

 

Dall’intrattenimento alla disinformazione, fino alla politica ma anche per ritorsioni a sfondo sessuale. In cima alla lista degli Stati in cui le donne vengono bersagliate di più c’è la Corea del Sud e a seguire gli Stati Uniti. Proprio questi ultimi di recente hanno lanciato una “Call to action”, ovvero un invito rivolto a settore pubblico e privato. Che vengono invitati a «collaborare per porre fine a questo abuso. Ecco perché la Casa Bianca invita le aziende tecnologiche e la società civile ad affrontare questo problema dilagante», si legge sul sito ufficiale. Sin dal primo giorno di amministrazione Joe Biden-Kamala Harris in agenda c'è stata la priorità di «affrontare la violenza di genere in tutte le sue forme. L'abuso sessuale basato sulle immagini - compresi i contenuti sintetici generati dall'intelligenza artificiale e le immagini reali distribuite senza consenso - è aumentato vertiginosamente negli ultimi anni, colpendo in modo sproporzionato donne, ragazze e persone Lgbtqi+». 

 

Tra le richieste alle aziende della Casa Bianca ci sono: l’interruzione della monetizzazione - attraverso la limitazione dell’accesso ai servizi di pagamento in siti o app in cui compaiono immagini che possano essere ricondotte ad abusi sessuali; porre un freno ai servizi web commercializzati allo scopo di creare o alterare foto senza il consenso degli individui. Ma anche prevenirne la diffusione: «Gli sviluppatori e i sistemi operativi potrebbero attivare protezioni tecniche per tutelare meglio contenuti memorizzati sui dispositivi digitali e impedirne la condivisione senza consenso». E, infine, collaborare a servizi «che forniscano soluzioni per le vittime», come per esempio la «rimozione dei contenuti dalle piattaforme». 

 

Nonostante in America ci siano alcuni Stati che hanno già provveduto a dotarsi di leggi che limitino i deepfake, non esistono ancora delle norme a livello federale. Ѐ circa un anno che i legislatori stanno lavorando per trovare una soluzione, come spiega Politico, eppure ancora il compromesso non c'è. «La legislazione - viene spiegato - è rimasta impantanata nel dibattito su chi debba essere ritenuto responsabile dei deepfake», mentre «le lobby tecnologiche che si oppongono a qualsiasi linguaggio che possa coinvolgere le piattaforme che li distribuiscono». 

 

Un paio di settimane fa il leader della maggioranza del Senato, Chuck Schumer, ha pubblicato un piano per la regolamentazione dell’intelligenza artificiale. Più che di un punto di arrivo, si tratta di una tabella di marcia verso la creazione di politiche sul tema. In cui vengono annotate priorità e campi d'azione. Riguardo i contenuti espliciti realizzati con l’utilizzo della tecnologia, tra gli obiettivi si parla di «sviluppare una legislazione che affronti la questione del materiale pedopornografico online». Per esempio adottando tutele già esistenti ed estendendole. Sulla diffusione di immagini intime di adulti senza consenso però viene solo ribadita la necessità di creare una legge. Senza però arrivare a un punto. 

[Twitter#https://x.com/SenSchumer/status/1790791381532774518]

Lo scorso marzo il Parlamento Europeo ha approvato in via definitiva l'AI Act, ovvero la legge sull'intelligenza artificiale. Una regolamentazione che punta a garantire la privacy e i diritti fondamentali delle cittadine e dei cittadini europei. Malgrado l’Unione Europea sia stata la prima istituzione a regolamentare le norme sull’uso dell’intelligenza artificiale, non dice molto sui deepfake. O meglio, qualche specifica per coloro che la utilizzano per creare e manipolare immagini o contenuti c'è. Per «audio o video che assomigliano notevolmente a persone, luoghi o eventi esistenti e che potrebbero apparire falsamente autentici a una persona, si deve rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell'intelligenza artificiale e rivelandone l'origine artificiale». 

 

Quel che emerge da questo pacchetto di leggi è una sorta di libretto delle istruzioni sul come utilizzare questi sistemi, in base al rischio che presentano. Ma non dicono molto riguardo la diffusione di materiale porno deepfake non consensuale. Per colmare l’inesistenza di leggi ad hoc, il 7 maggio il Consiglio europeo ha adottato una direttiva contro la violenza sulle donne. Il documento contiene diverse misure per prevenire la violenza di genere e stabilire standard comuni per la protezione delle vittime. Riguardo la diffusione di deepfake non consensuali, la direttiva invita gli Stati membri a punire come reato condotte come: «Produrre, manipolare o alterare e successivamente rendere accessibile al pubblico, tramite tecnologie dell’informazione e della comunicazione, immagini, video o analogo materiale in modo da far credere che una persona partecipi ad atti sessualmente espliciti, senza il consenso della persona interessata, qualora tali condotte possano arrecare un danno grave a tale persona».