Innovazione
4 luglio, 2025L’assistente virtuale può fare tante cose ma non tutte. Avete provato a chiedere un numero di telefono? Poi però verificatelo online, perché potrebbe essere sbagliato. Bugie bianche e allucinazioni di AI sono il nuovo problema della privacy ai tempi dell’AI
Alexa e Siri ci hanno un po' viziati. "A domanda rispondo" è il loro motto, e questo è stato l’imprinting che in molti hanno ricevuto rispetto alla "relazione" con gli assistenti virtuali. Tendiamo cioè a chiedere per ottenere, e applichiamo il metodo a tutti gli assistenti virtuali, Meta AI incluso. Ma cosa accade se gli assistenti tecnologici ci danno risposte sbagliate? È accaduto con Meta AI - il chatbot che Meta ha inserito d’imperio in WhatsApp – che alla richiesta del numero di telefono di un servizio di trasporti ha fornito, invece, il cellulare di un utente privato. Il problema di privacy che ne consegue è decisamente inquietante.
La vicenda
A sollevare il problema è stato Barry Smethurst, cittadino britannico di 41 anni, in attesa di un treno che non arrivava alla stazione di Saddleworth. Sulla base dell’imprinting tecnologico che ci lega agli assistenti virtuali, Barry ha chiesto a Meta AI di fornirgli il numero del customer care della compagnia ferroviaria TransPennine Express. La risposta è stata rapida, ma sbagliata e, sotto alcuni aspetti, inquietante. Il chatbot ha fornito il numero di cellulare di James Gray, un agente immobiliare dell’Oxfordshire che non ha nulla a che fare con la compagnia ferroviaria.
Meta, ma che fai?
Barry ha verificato l’errore, e la risposta dell’IA è stata spiazzante: inizialmente Meta AI ha affermato di aver ‘inventato’ quel numero, poi ha detto che il recapito era reale e che poteva essere stato estratto da un ‘database’. Chi ha già usato gli assistenti virtuali AI lo sa, se li metti alle strette provano a fare i vaghi: MetaAI ha poi smentito se stessa, sostenendo di aver generato un numero casuale usando il modello dei cellulari britannici, ma senza riferimento a dati autentici.
L'allucinazione pericolosa
Quello che è successo si riferisce al fenomeno che gli esperti chiamano "allucinazione dei modelli generativi" I sistemi di intelligenza artificiale come Meta AI, ChatGPT o Gemini tendono a completare le risposte basandosi su schemi appresi durante la fase di addestramento, colmando eventuali lacune con informazioni inventate che però appaiono credibili. Meta ha dichiarato che la sua IA non accede a conversazioni private di WhatsApp e utilizza solo dati pubblici o con licenza, è possibile che durante l’addestramento siano finiti per errore contenuti contenenti recapiti personali reperibili online, come pagine web o profili professionali.
Privacy a rischio
Su tutto rileviamo una criticità: quando un’AI fornisce un numero "inventato" che però coincide con un contatto reale, si può ravvisare una grave violazione della privacy. Se un chatbot è in grado di condividere un numero privato, in teoria potrebbe divulgare anche dati più sensibili come coordinate bancarie o codici riservati, senza che l’utente se ne renda conto. Meta ha voluto rassicurare gli utenti, sostenendo che l’errore è dipeso da un allineamento statistico dei numeri più comuni nel Regno Unito e ribadendo che la base di dati utilizzata dall’IA non comprende informazioni private estratte dalle conversazioni personali di WhatsApp.
Bugie bianche
Siamo tutti più preoccupati. C’è chi crede alla storia della coincidenza – il numero di telefono è stato generato dall’AI, e per caso corrisponde ad un numero reale - ma il caso ha scatenato diverse preoccupazioni. Si teme che i chatbot possano replicare dati privati incontrati durante la loro formazione, anche senza intenzione. E si fa strada il sospetto che l’intelligenza artificiale possa essere progettata per fornire risposte verosimili anche a costo di "inventare" dettagli delicati.
Allucinazioni digitali
Quello di MetaAI e del numero di telefono "inventato" non è l’unico caso di allucinazioni IA. In giro per l’Europa si sono registrati i casi del cittadino norvegese che ha denunciato ChatGPT per aver collegato il suo nome, senza ragione, a un duplice omicidio, mentre una scrittrice si è vista attribuire citazioni mai scritte nei suoi libri. La lezione è che le IA generative possono generare contenuti erronei con conseguenze anche pesanti sulla reputazione delle persone coinvolte.
Addestramento adeguato
La metafora di questa storia è chiara: serve maggiore trasparenza sui dati di addestramento, filtri più rigidi per i contenuti sensibili e la capacità di tracciare con precisione la provenienza delle informazioni generate. E noi utenti, dal canto nostro, dovremmo fare attenzione a non affidare completamente alle IA la gestione di dati personali o richieste che possono mettere a rischio la nostra privacy.
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Imbucati di Stato - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 4 luglio, è disponibile in edicola e in app