Innovazione
27 novembre, 2025Nato per fornire un potente alleato ai designer e creatori di contenuti pro, ha subito mostrato una “potenza distorsiva”: Nano Banana Pro è in grado di produrre immagini realistiche di eventi storici, anche tragici, col rischio di alimentare la manipolazione e fake news
Le fake news viaggiano sull’onda dell’emozione. E Nano Banana Pro – l’ultimo tool nato in casa Google per la generazione di immagini con AI (ne avevamo parlato qui) – si piazza al primo posto fra i “fake image maker”. Il dato è ancora più allarmante se si considera la capacità di generare immagini partendo, per esempio, da un’indicazione di latitudine, longitudine e una data precisa: la macchina riesce a riconoscere l’evento storico a cui gli input si riferiscono, e riproduce esattamente immagini relative a quell’evento, ma false.
Basato su Gemini 3 Pro, il più recente motore di intelligenza artificiale del gruppo, Nano Banana è nato per offrire strumenti professionali a creativi, aziende e sviluppatori, con risoluzione in 4K. Sembra la descrizione di un potente alleato per designer, marketer, creatori di contenuti e professionisti dell’immagine. Ma uno strumento simile messo in rete, ha prodotto l’inatteso. Nei test indipendenti, condotti da chi ha provato Nano Banana Pro attraverso Gemini, sono emersi i profili più critici. Il sistema è in grado di produrre immagini estremamente delicate sul piano etico e storico. Non si tratta soltanto di scene vagamente ispirate a vicende del passato: basta ad esempio fornire una combinazione di coordinate geografiche, data e ora per ottenere rappresentazioni visive che richiamano in modo evidente episodi reali.
L’esperimento che abbiamo fatto noi è partito da questo prompt: Create an image 48° 48' 0" N latitude and 2° 8' 0" E longitude on 14 july 1789. Nano Banana Pro ha ricostruito il contesto della presa della Bastiglia, come se fosse un dipinto dell’epoca. L’immagine si riconosce come “fake” dal logo in grigio posto alla base destra dell’immagine, ma talmente tanto poco visibile che passa facilmente inosservata.
L’immagine è finta, ma poggia su ciò che il modello “sa” da testi, foto e video che ha elaborato in fase di addestramento. Il risultato è una ricostruzione plausibile, visivamente convincente, che agli occhi di chi la vede sui social potrebbe apparire come un documento autentico.
Una caratteristica particolarmente allarmante è la capacità del modello di interpretare allusioni implicite. Anche senza menzionare esplicitamente espressioni come “11 settembre” o “assassinio di Kennedy”, l’AI riuscirebbe comunque a cogliere il riferimento storico e a generare l’immagine corrispondente: un aereo che colpisce due grattacieli iconici, un uomo armato in un luogo subito associato al complotto. In alcuni casi, il sistema aggiungerebbe autonomamente elementi di contesto – abbigliamento dell’epoca, modelli di automobili, dettagli architettonici – proprio come farebbe un illustratore esperto che conosce bene il periodo storico.
I test fatti dagli utenti riportano anche la generazione di immagini in cui personaggi di fantasia, come protagonisti di cartoni animati, inseriti in scenari reali di tragedie contemporanee o momenti politici chiave, con l’effetto di una ibridazione fra memoria collettiva e immaginario pop, che può suscitare confusione, ridicolizzare eventi drammatici o, nel peggiore dei casi, essere sfruttata per distorcere la percezione del pubblico.
Molte di queste immagini non contengono violenza grafica esplicita, sangue o ferite in primo piano. È proprio questa “pulizia” estetica a renderle più difficili da intercettare da parte di filtri automatici e, al tempo stesso, perfettamente condivisibili su piattaforme che vietano contenuti troppo crudi. Il problema non è tanto la brutalità visiva, quanto l’ambiguità: scene credibili, tecnicamente impeccabili, ma totalmente inventate. Dal punto di vista giuridico e deontologico, si intrecciano almeno tre fattori critici: la potenziale violazione del copyright, la manipolazione della memoria storica e la costruzione di narrazioni fuorvianti.
Google, nelle proprie linee di principio, afferma che l’obiettivo di Gemini è fornire un servizio utile evitando allo stesso tempo contenuti che possano provocare danni o offese nella vita reale. Eppure, di fronte alle segnalazioni sui test che dimostrerebbero la facilità con cui Nano Banana Pro genera queste immagini sensibili, l’azienda non avrebbe ancora rilasciato un commento ufficiale. Il contrasto tra le dichiarazioni di intenti e il comportamento effettivo del sistema, così come viene osservato dagli utenti, apre interrogativi sul livello di controllo effettivo e sull’efficacia dei filtri implementati.
A noi sembra di essere tornati “indietro nel tempo”, quando fu Orson Welles a generare il panico in America creando un’involontaria “fake news”. Alla vigilia di Halloween, alle 8 di sera del 30 ottobre 1938, alla CBS lo speaker annuncia la performance radiofonica di “La Guerra dei mondi”, tratta dall’omonimo romanzo di fantascienza di George Wells. L’interprete di questa performance fu, appunto, l’allora ventitreenne Orson Welles: la sua finta cronaca giornalistica che annunciava un’invasione aliena in America fu resa con un stile così veritiero che - nonostante gli allert che anticiparono e seguirono il programma - fu interpretata come “narrazione reale”, generando panico in tutta l’America.
Ecco, forse la storia si ripete, con strumenti e dimensioni diverse. Ma se l’allert non basta a metterci in allarme, sta agli utenti finali armarsi della forza dello scetticismo anche davanti al più veritiero dei fake in circolazione, e ce ne saranno sempre di più.
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Bella, ciao - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 21 novembre, è disponibile in edicola e in app



