Philip Howard: «La battaglia politica oggi si fa con gli algoritmi. Ed è in grado di alterare il consenso o di isolare un oppositore. Spesso questi attacchi sono coordinati dai miliari». Parla lo scienziato che studia da anni la propaganda automatica on line

Sui social media abbondano da tempo profili automatizzati intenti a diffondere contenuti propagandistici. In gergo vengono definiti “bot politici” e Philip Howard, docente di Internet Studies a Oxford, li studia dal 2012 all’interno di un progetto di ricerca su quella che chiama “propaganda computazionale”: l’insieme, cioè, delle tecniche che si propongono di manipolare l’opinione pubblica tramite tweet, automazione e Big Data. Il suo team, che coinvolge anche l’Università di Washington, si è concentrato di recente sull’uso che ne è stato fatto per promuovere l’uscita della Gran Bretagna dall’UE e l’elezione di Donald Trump alla Casa Bianca, con studi che hanno riempito le pagine dei giornali di tutto il mondo. Ma se analizzare milioni di tweet è utile a misurare i rapporti di forza tra le diverse campagne propagandistiche in rete, non è ancora chiaro come e quanto serva a comprendere il loro impatto sulle reali intenzioni di voto.

Howard, quanto sono efficaci i “bot” politici e la “propaganda computazionale” nel modificare davvero l’opinione pubblica? È possibile misurarne l’effetto per elezioni o referendum?
È una domanda difficile. Non siamo in grado di collegare l’attività dei “bot” politici a mutamenti reali dell’opinione pubblica o il risultato elettorale. Ciò che invece sappiamo è che i “bot” politici sono un efficace strumento per mettere nel mirino giornalisti e intellettuali influenti, e che sono stati usati con efficacia per reprimere il dibattito su precise questioni.

Come si fa?
Basta inondare il profilo di un utente con spam o espressioni d’odio, o intasare tutto il traffico inerente un hashtag con messaggi spazzatura, così che l’utente non riesca più a usare il suo profilo per far parte della conversazione.

Funziona allo stesso modo in regimi autoritari e democrazie?
Abbiamo reperito “bot” politici in ogni tipo di paese. E sì, vengono usati per la stessa tipologia di operazioni. Le élite politiche li usano per bersagliare i loro oppositori, ma ci sono esempi di democrazie e governi autoritari intenti a ordinare a unità militari di svolgere attività di propaganda automatizzata contro i loro stessi cittadini, o quelli di altri paesi.

Ne ha trovato anche usi in funzione anti-governativa o di controllo del potere?
Ci sono alcuni esempi di attivisti e giornalisti che ricorrono a “bot” per attività creative e concepite per il bene pubblico. Di norma si trovano nelle democrazie. Per esempio, in molti paesi ci sono “bot” che controllano le pagine Wikipedia dei politici. Se qualcuno cerca di modificare una voce politica da un computer governativo, il “bot” pubblica un tweet che lo segnala. Ce n’è probabilmente uno anche per l’Italia.

Sì, c’è . Quali paesi invece sono più attivi nella “propaganda computazionale”?
Oggi qualunque paese disponga di un budget militare significativo impiega una certa quantità di risorse organizzative - o preparandosi a un attacco, o imbastendo una difesa contro la “propaganda computazionale”. In certi casi, l’esecutivo e gli agenti della sicurezza nazionale sono dotati di uffici dedicati proprio a questo tipo di attività, all’interno delle più generiche “operazioni psicologiche”.

Quanta di quella “propaganda computazionale” proviene direttamente dagli uffici governativi e quanta, invece si produce in modo spontaneo “dal basso”? E di nuovo, come facciamo a saperlo per certo?
È difficile collegare specifici profili “bot” con chi dirige una campagna elettorale o figure politiche di spicco. Su questo stiamo conducendo della ricerca computazionale, ed etnografica, e ciò che possiamo dire con certezza è che algoritmi e automazione sono attualmente strumenti di uso comune per i campaign manager. Comunque sì, a volte i “bot” vengono organizzati da programmatori o attivisti che non lavorano direttamente per un candidato, ma a supporto della campagna in favore di quel candidato.

Come si è evoluto l’uso di questi “bot”?
Inizialmente, i “bot” erano utili semplicemente a rendere un politico, o un artista, più popolare. Servivano a comprare follower per far sembrare avessero una platea di fan più ampia di quanto non lo fosse davvero. Oggi invece i “bot” vengono usati più per creare engagement civico, per retwittare attivamente contenuti e far credere che ci sia un qualche tipo di consenso intorno a una questione; per esempio, all’adeguatezza di un certo candidato nel ricoprire la carica che vuole ottenere.

Più in generale, come collocherebbe la “propaganda computazionale” all’interno dell’evoluzione storica della nozione? Cos’è che possiamo imparare dalla ricerca svolta in passato sull’argomento, così che ci possa aiutare a riconoscere e magari sconfiggere le forme di propaganda attualmente in uso?
Credo ci sia una quantità rilevante di ricerca sul negative campaigning, che è una vecchia tecnica in cui opposte campagne attaccano i reciproci staff, diffondendo dicerie. Non solo: attaccano le infrastrutture informative l’una dell’altra, fanno “push poll”, e pagano pubblicità contenenti accuse e critiche smisurate all’avversario. Visto che il linguaggio politico negli Stati Uniti è in larga parte non regolamentato, ai politici non è richiesto dicano la verità. Così attualmente fare negative campaigning significa anche diffondere volontariamente bugie.