Molte persone utilizzano motori di ricerca e social per trovare soluzioni e risposte, e lo stesso fanno con le nascenti Inteligenze artificiali. Ma gli algoritmi indirizzano opinioni e azioni, alterando il funzionamento della società

Il 23 febbraio 2017 Peter Shulman, professore di Storia alla Case Western Reserve University di Cleveland, stava raccontando la rinascita del Ku Klux Klan negli anni ’20, quando uno studente prese la parola: «È vero che il presidente Harding era nel Klan?». Un altro ragazzo tirò fuori il telefono e aggiunse che non solo Harding, ma anche altri quattro suoi omologhi avevano fatto parte dell’organizzazione. «Qual è la fonte?», chiese il professore. «Google», fu la risposta.

Né Warren Harding né altri presidenti hanno mai fatto parte del Kkk. Eppure, se si digitava «presidenti nel Klan», il motore di ricerca mostrava un box con una lista di nomi ricavata da thetrentonline.com, un sito che si presentava come «uno dei principali giornali online della Nigeria».

Il caso di Cleveland, raccontato dalla testata The Outline, non è l’unico. Un box sosteneva che Snoopy avesse strangolato Abraham Lincoln. Un altro pescava da un sito di fondamentalisti cristiani e suggeriva che i dinosauri fossero «lo strumento più utilizzato per indottrinare bambini e adulti e convincerli che la Terra esista da milioni di anni». Un terzo box spiegava che Barack Obama «potrebbe preparare un colpo di Stato comunista». Nel tempo Google ha corretto questi errori. Ma restano dozzine di algoritmi che indirizzano opinioni e azioni fino ad alterare il funzionamento della società.

Danny Sullivan, volto pubblico del motore di ricerca di Google, ha sottolineato che quello della sua azienda non è «un motore di verità». Parole simili a quelle del fondatore di Facebook, Mark Zuckerberg, che — quando Twitter aggiunse una nota di fact checking sotto un tweet di Donald Trump — affermò che le piattaforme internet «non devono essere arbitri di verità».

Molti hanno delegato a social e motori di ricerca parti essenziali delle loro vite. Google è il sito più visitato al mondo, secondo la classifica di Similarweb. Segue YouTube, sempre di proprietà di Google. Facebook e Instagram — marchi Meta — sono al terzo e quinto posto. Nel mezzo c’è Twitter. E la ricerca online è anche un surrogato del medico. Nonostante, nel 2020, una ricerca pubblicata sul Medical Journal of Australia abbia rilevato che appena il 26 per cento delle volte il primo risultato su Google fornisce una diagnosi corretta e che solo nel 52 per cento dei casi la risposta giusta è in uno dei primi tre link.

Le piattaforme cercano di carpire i nostri interessi e la nostra attenzione, la vera moneta dell’economia digitale. «L’algoritmo di un social come Instagram, per idea di fondo, non è diverso da quello di Netflix: deve vendere contenuti», spiega Walter Quattrociocchi, professore di Informatica della Sapienza di Roma. I risultati, però, sono fenomeni come le echo chamber (camere d’eco): chi ha una certa opinione finisce all’interno di una cerchia di contenuti e persone che confermano ed estremizzano il suo punto di vista. «Se si fornisce a questi utenti un’informazione non gradita, si finisce per rafforzarne la posizione», continua Quattrociocchi: «Se si dice a un no-vax che i vaccini fanno bene, lui corre a cercare fonti che confermano il contrario».

 

In alcuni casi le grandi piattaforme intervengono manualmente per indirizzare gli utenti. Talvolta con effetti positivi: Google, Meta e la cinese TikTok, per esempio, hanno collaborato con le autorità sanitarie per promuovere informazioni corrette sul Covid-19. Altre volte i fini sono meno nobili. TikTok ha ammesso di avere censurato critiche nei confronti del governo di Pechino, in particolare sul genocidio della minoranza degli uiguri. La Commissione europea ha inflitto a Google una multa da 2,4 miliardi di euro per avere favorito i link al suo Google Shopping nei risultati delle ricerche.

 

E troppo spesso le multinazionali hanno fomentato divisione sociale e tollerato estremismi. Mentre un’orda di trumpiani assaltava Capitol Hill, il 6 gennaio 2021, un dipendente di Facebook scriveva su un forum aziendale: «Abbiamo alimentato l’incendio per molto tempo. Ora non possiamo sorprenderci se è fuori controllo». Chris Wetherell, l’inventore del tasto Retweet, ha ammesso che quella piccola modifica «è stata come dare una pistola carica a un bambino di quattro anni».

 

Intanto, gli algoritmi diventano sempre più complessi. Negli ultimi mesi si è parlato molto di ChatGpt, il chatbot intelligente del consorzio OpenAi, capace di emulare il linguaggio naturale e fornire risposte che sembrano umane. Uno strumento che ha generato una valutazione di mercato di 29 miliardi di dollari. «L’algoritmo di un chatbot imita, studia, si adatta», dice Quattrociocchi: «ChatGpt cerca le parole migliori in un contesto e le sceglie in base alla mole gigantesca di dati che ha studiato. Non è un meccanismo molto diverso da quello che suggerisce le parole mentre scriviamo». Le scuole di New York hanno già proibito agli studenti di usarlo: temono che sia una pietra tombale sulla loro formazione.

 

La nuova frontiera è l’intelligenza artificiale. Microsoft intensifica gli investimenti nella stessa OpenAi, Meta quelli nei sistemi che raccomandano contenuti su Facebook e Instagram. Google sembra pronta a lanciare un chatbot di ultima generazione capace di risolvere il grande limite del concorrente: risposte sbagliate pronunciate con sicurezza. Soprattutto quando si tratta di matematica. Qualcuno, infatti, ha convinto ChatGpt a riferire che 2+2 fa 5. Scrive su Twitter Avner Strulov-Shlain, della Chicago Booth: «È come gli economisti, mostra sempre fiducia in sé stesso e qualche volta ha persino ragione».