L'intelligenza artificiale è in grado di creare contenuti del mondo ultranazionalista, complottista, antisemita e neonazista da diffondere come virus. Non solo: li può anche esprimere come un umano
Iron march. Stormfront. La diverse varianti di QAnon. E poi i forum delle milizie suprematiste, dai Proud Boys ai Boogaloo. Milioni di post, Meme, messaggi di chat, immagini, video, in un flusso dell’odio che da anni ormai invade la rete. Con un obiettivo: reclutare, formare, prepararsi allo scontro. Dietro alla macchina comunicativa - e di influenza dell’opinione pubblica - del neonazismo post ‘900 non ci sono solamente gruppi di militanti. C’è una expertise consolidata, fatta da ingegneri informatici, comunicatori e giornalisti, in grado di creare il contenuto da viralizzare, inserendolo - come un virus - nelle reti social. E, come ormai dimostrato da diverse inchieste dell’FBI, a volte c’è lo zampino di intelligence statali.
L’algoritmo sovranista Questo scenario potrebbe essere appena l’inizio di un incubo ancora peggiore. Immaginiamo di entrare in uno dei tantissimi canali Telegram legati al mondo QAnon. Leggiamo qualche post, poi proviamo a fare delle domande, spinti dalla curiosità: “Chi sono i nemici dell’umanità?”. Pochi secondi ed ecco che un utente risponde: “Il triangolo dei burattinai, la famiglia reale saudita, i Rothschilds e George Soros”. Cambiamo canale ed entriamo in qualcosa simile al Forum Iron march (chiuso nel 2017, dopo sei anni di attività). Il modello comunicativo cambia, così come il linguaggio: “L’implacabile nemico dell’umanità è l‘ebraismo organizzato. Chi potrebbe fidarsi di un popolo che si è sparso nei paesi europei dell’inizio della civiltà?”. Nessuno di questi due messaggi è stato scritto da un umano. Sono simulazioni di intelligenza artificiale, dove un algoritmo è in grado di riprodurre l’ideologia, il linguaggio, i concetti del mondo ultranazionalista, complottista, antisemita e neonazista. Un sistema chiamato GPT-3, che basandosi sull’analisi di pochi tweet o post su Facebook può riprodurre utenti apparentemente reali in una chat.
E’ il risultato di una ricerca condotta nei mesi scorsi dal Middlebury Institute of International Studies che ha utilizzato - tra le altre cose - l’archivio del forum Iron march (reso disponibile da un gruppo di hacker) come base di conoscenza per un sistema semantico basato sull’intelligenza artificiale. I risultati sono stati pubblicati in uno studio dello scorso settembre. L’algoritmo è in grado di dialogare con un umano riproducendo l’ideologia alla base di una serie di testi di un determinato gruppo politico. GPT-3 è stato in grado di impersonificare un utente reale, rispondendo compiutamente a domande basate sulle teorie cospirazioniste. In sostanza l’intelligenza artificiale è oggi in grado di automatizzare un forum, un sistema di chat (tipo Telegram), un social media (come Facebook o Twitter), interagendo, creando nuovi argomenti di discussione, convincendo gli indecisi o chi si avvicina per la prima volta ai temi cari alle organizzazioni di estrema destra. E bastano poche informazioni: “La produzione di un testo falso, ideologicamente coerente, non richiede più un ampio corpus di materiali di partenza e ore di messa a punto - si legge nel rapporto -. Basta suggerire a GPT-3 alcuni Tweet, paragrafi, thread del forum o e-mail e il modello agirà senza alcun altro addestramento”. Non servono poi super computer per vedere agire il robot sovranista: “Sebbene l'hosting del modello richieda ancora risorse a livello aziendale, la manipolazione degli output è semplice se si ha accesso ad una piattaforma, come l'API di OpenAI”.
Ti traccio e guadagno Per ora non si hanno notizie di un uso attuale dell’intelligenza artificiale per alimentare di contenuti i canali dell’estrema destra. Quello che però è ormai accertato è l’utilizzo di tecnologie sofisticate per reclutare e spargere propaganda. Uno studio dell’Università di Oxford divulgato nei giorni scorsi (“Profiting from the Pandemic. Moderating COVID-19 Lockdown Protest, Scam, and Health Disinformation Websites”) ha analizzato le infrastrutture tecnologiche utilizzate dai siti specializzati nella disinformazione sulla pandemia di Sars-Cov-2.
Mutuando le tecniche della sempre più aggressiva pubblicità in rete, i ricercatori hanno individuato i link tra le piattaforme del movimento ultradestra che nega la pandemia (o che propaganda teorie di cospirazione) e i network specializzati in pubblicità e profilazione degli utenti: “Ad esempio, Google Ads Remarketing e Facebook Pixel consentono ai siti web di indirizzare gli annunci a persone che hanno visitato il loro sito web. Un utente che visita un sito Web di disinformazione può essere reindirizzato quando naviga su YouTube o Instagram in un secondo momento”. Una tecnica che consente l’acquisizione dei comportamento dei navigatori, ottimizzando la pubblicità. L’odio diventa così una potente macchina economica: “In media, i siti web che protestano contro le precauzioni di salute pubblica e quelli che approfittano della crisi - si legge nel rapporto dell’università di OXFORD - hanno più o meno le stesse proporzioni di tracker. Circa un terzo dei loro tracker sono per la pubblicità, un terzo per l'analisi e un terzo è una miscela di tracker e widget essenziali”. Nel caso dei siti di disinformazione sono presenti soprattutto “tracker pubblicitari, che rivelano quanto dipendono dalla pubblicità come fonte di entrate”.