Scenari

Le elezioni del 2024 dovranno vedersela con il problema dell'intelligenza artificiale

di Alessandro Longo   15 gennaio 2024

  • linkedintwitterfacebook

Nell'anno appena iniziato si terranno le tornate elottorali chiave negli Stati Uniti e in Europa. E per la prima volta c'è il forte rischio di manipolazione da parte dell’Ia. E le nuove regole in arrivo probabilmente non basteranno

Nel 2024 due miliardi di persone voteranno in cinquanta Paesi. Per il Parlamento europeo, il presidente degli Stati Uniti, a Taiwan per presidente e Parlamento, tra l’altro. Saranno le prime dove l’Intelligenza artificiale giocherà un ruolo, di propaganda ma anche di manipolazione dell’elettorato, secondo molti esperti. «Quella del 2024 sarà un’elezione basata sull’Intelligenza artificiale, proprio come quelle del 2016 e del 2020 sono state basate sui social media», riassume Ethan Bueno de Mesquita, preside ad interim della Harris School of Public Policy dell’Università di Chicago.

 

Si riferisce alle elezioni americane, ma quello che già sta succedendo lì è la cartina di tornasole delle ultime tendenze in fatto di disinformazione. L’Europa invece è banco di prova per la capacità di regole e autorità di essere antidoto: a febbraio 2024 entra in vigore appieno la prima legge europea sui servizi digitali (Digital Services Act). La prima piattaforma che rischia sanzioni miliardarie, per avere agevolato la disinformazione, è X (già Twitter) di Elon Musk.

 

«L’impressione è che l’Intelligenza artificiale – quella di tipo generativo in maniera particolare – stia facendo venire al pettine nodi formatisi e mai sciolti negli anni del boom di Internet. Quelli della costituzione degli oligopoli dei dati personali e dei servizi digitali», riassume Guido Scorza, giurista e membro del collegio del Garante Privacy. L’Ia amplifica il problema e ne è diventato al tempo stesso la punta, più clamorosa, dell’iceberg. Si vedano appunto le primarie americane, ora in corso. Dove l’ex presidente Donald Trump e il repubblicano Ron DeSantis hanno creato con l’Ia cloni della voce del rivale, per metterlo in cattiva luce. Senza nemmeno avvisare il pubblico della finzione.

 

La crescita del populismo e delle polarizzazioni sociali in Occidente si sommano alle attuali grandi tensioni geopolitiche in un mix deleterio. Cina e Russia stanno sfruttando questi elementi, infatti, per diffondere con più forza propaganda e fake news in Occidente (come testimoniano, tra gli altri, i puntuali report di Newsguard, società di New York di monitoraggio su media e informazione globali).

 

Alcuni Stati americani hanno cominciato a fare leggi per imporre, nei messaggi politici, di rivelare al pubblico se è stata usata l’Ia. Il presidente Joe Biden ha attivato una task force per monitorare il fenomeno. L’Europa imporrà trasparenza e regole sull’Ia, anche per contrastare il rischio disinformazione, con un regolamento (Ai Act) che però «non arriverà in tempo per governare gli algoritmi in campagna elettorale; la Commissione europea sembra tuttavia determinata a utilizzare sino in fondo il Digital Services Act (Dsa) e c’è da augurarsi che sia sufficiente», dice Scorza.

 

Da febbraio tutte le piattaforme digitali dovranno rispettarne le regole o rischiano sanzioni miliardarie e persino la sospensione del servizio in Europa. Ci sono anche grossi siti porno (come Pornhub) tra quelli soggetti al Dsa: dovranno essere veloci a rimuovere contenuti illegali – ad esempio è sempre più diffuso il porno non consensuale creato con l’Ia – e riuscire a impedire l’accesso ai minorenni.

 

Il Dsa, tra l’altro, impone alle piattaforme sistemi adeguati di controllo per evitare si diffondano contenuti pericolosi sui social. X è stato il primo soggetto su cui la Commissione europea ha aperto un’indagine ai sensi del Dsa, a dicembre, perché Musk è andato in direzione opposta. Ha ridotto molto il personale addetto alla moderazione contenuti, per risparmiare; persino – in nome della libertà di parola – ha riattivato gli account di cospirazionisti, razzisti e misogini. Da ultimo, a dicembre, Alex Jones. Questo supercospirazionista era arrivato a dire che la sparatoria alla scuola elementare Sandy Hook (Connecticut) del 2012 era una messinscena, imbastita per convincere gli americani a limitare il diritto al possesso di armi. Sono morte 26 persone, tra cui 20 bambini, ma per Jones erano attori pagati per recitare. Musk ha riattivato l’account proprio nell’anniversario della sparatoria.

 

Le elezioni sono banco di prova nella lotta alla disinformazione anche su altre piattaforme, però, come quelle di Meta o TikTok, usato soprattutto dai teenager. TikTok è di un’azienda cinese ed è da anni accusato dagli Usa di essere strumento nelle mani del governo di Pechino.

 

Le regole che l’Europa in primis – e più timidamente gli Usa – stanno facendo, sul digitale, segnano «la fine del principio giuridico di non responsabilità degli intermediari, che era stato sancito nell’Ue ancor prima negli Stati Uniti», spiega l’avvocato Massimo Borgobello, autore di un recente libro giuridico sul tema (“Manuale di diritto della protezione dei dati personali, dei servizi e dei mercati digitali”, Key Editore).

 

Opinione comune, tra gli esperti, è però che le regole non bastino a contrastare questa deriva. E al tempo stesso vanno maneggiate con cautela, «perché oltre a intervenire sui disinformatori e sulle Big Tech bisogna anche tutelare la libertà di espressione, fondamentale in una società democratica», dice Alessandro Chiaramonte, noto politologo, ordinario all’università di Firenze. Sarà necessario «un investimento culturale sulla reputazione delle fonti di informazione. Bisogna sostenere quelle che sposano i valori di una informazione lenta, verificata, accurata», conclude.

 

Sono temi che si dispiegheranno negli anni a venire. Ma un primissimo momento di confronto saranno proprio le elezioni europee, dove «chi è intenzionato a investire sulla disinformazione ha l’occasione per incoraggiare direttamente le performance di singoli partiti o personaggi; la vera scommessa di queste elezioni sarà quella di osservare lo schieramento ideologico che la disinformazione incoraggerà», riassume Mario Morcellini, professore emerito di Sociologia alla Sapienza di Roma.