Il software crea modi di dire inesistenti, crede morte persone ancora vive e altera la realtà pur di compiacere l’utente. Errori e incongruenze che dimostrano l'inadeguatezza dei modelli linguistici come motori di ricerca

L’integrazione di Gemini nei risultati di Google può generare effetti paradossali

"Dare un calcio al polpo fritto” non vuol dire niente. Non è un'espressione di uso comune né una frase che capita di dover pronunciare. Eppure, se si digitano queste parole nella barra di ricerca di Google seguite da “significato” e si preme invio, la prima risposta potrebbe essere questa: «Dare un calcio al polpo fritto è un'espressione idiomatica che significa non fare nulla di utile per risolvere un problema, o per colmare una situazione difficile. È un’immagine che evoca una mancanza di efficacia e una tendenza a non affrontare le cose in modo serio». Succede lo stesso con altre espressioni inventate. Uno “stagno di ceramica” è l’anniversario di matrimonio che ricorre dopo nove anni, un “muro di maionese” un ostacolo insormontabile. Ci si può sbizzarrire con gli esercizi di dadaismo. 

 

A trovare un senso, tirando per i capelli sintassi e semantica, è l’Ai overview di Gemini, la rielaborazione dell’intelligenza artificiale di Google. Lanciata a maggio 2024 negli Stati Uniti e arrivata in Italia lo scorso marzo, è diventata il primo risultato della maggior parte delle ricerche. È un primato non banale, che sembra aver cambiato il comportamento degli utenti del motore di ricerca: sarebbero già diminuiti del 20-30 per cento i clic di ingresso su siti esterni, gli stessi che nutrono Gemini. La “pesca a strascico” dell’intelligenza artificiale è essenziale per formulare una sintesi di tutte le fonti disponibili.

 

«I modelli linguistici di grandi dimensioni (Llm) sono stati addestrati su una quantità enorme di dati testuali e il loro obiettivo è generare risposte che siano coerenti, pertinenti e informative», spiega Giuseppe Italiano, prorettore e professore di informatica all’Università Luiss: «Gli errori o le “allucinazioni” sono la conseguenza di come questi modelli elaborano e generano le informazioni, a volte traendo conclusioni errate o combinando dati in modo inappropriato».

 

Se il compito è trovare un significato, l’Ia è programmata per usare tutta la sua potenza di calcolo per dare una spiegazione. Per farlo, a volte ignora una premessa illogica o fallace. Così, ogni accozzaglia di parole può diventare un rebus da risolvere e un’informazione falsa può essere considerata vera, se ad ascoltarla c’è un assistente virtuale, nato per rispondere e non per contraddire. Questa promiscuità tra verità e menzogna genera confusione perfino tra la vita e la morte. Se si chiede la causa del decesso di una persona ancora in vita, può capitare che Gemini inventi una malattia, un incidente e la data di una scomparsa che non è mai avvenuta. Altre volte, invece, si ravvede e ricorda all’utente che quel personaggio è “vivo e vegeto”. «L'incoerenza dell’Ai overview», continua Italiano, «deriva dal fatto che non è un “cervello” che conosce la verità, ma un sistema che sintetizza enormi quantità di dati in base a modelli probabilistici. Questo processo non è perfetto. Gli Llm potrebbero selezionare una fonte apparentemente autorevole che contiene un’informazione errata o che loro stessi interpretano male, estrapolandola dal contesto». 

 

Al di là dell’aspetto macabro o surreale di alcune risposte, la fallibilità di Gemini può mettere in crisi l’autorevolezza del primo risultato di Google e apre un dibattito su quanto i modelli linguistici siano adeguati a fungere da motori di ricerca. Secondo Giuseppe Italiano, non sono in grado di sostituirli completamente: «Sono strumenti potenti e complementari, ma presentano limiti significativi che li rendono inadatti come unica fonte di informazione per tutte le esigenze». La tendenza a seguire la premessa implicita nella richiesta, anche se errata, può creare «il rafforzamento della disinformazione e delle false credenze e una perdita nello sviluppo di pensiero critico». Per i compiti che richiedono massima accuratezza, verifica delle fonti e comprensione di prospettive multiple, «i motori di ricerca tradizionali restano a mio avviso insostituibili».

 

Gemini, forse, non era pronto a fare questo salto, ma è stato lanciato lo stesso. A raffinarlo, ci pensano gli utenti. «La fase post-lancio è quella di “apprendimento continuo”, dove i nostri feedback hanno un ruolo fondamentale». L’introduzione di Ai overview è stato un passo strategico dettato dal mercato. La concorrenza creata da ChatGpt ha avuto un impatto enorme, innescando, secondo Italiano, «una “crisi di identità”, che ha accelerato l’integrazione dell’Ia generativa nei motori di ricerca. È una transizione complessa, piena di incognite tecniche, etiche e commerciali, ma sembra ormai una direzione inevitabile per il futuro della ricerca online».

 

La prima sfida per gli sviluppatori sarà quella di mitigare la tendenza alla condiscendenza attraverso la capacità di ammettere l’incertezza o richiedere chiarimenti se la premessa è dubbia o falsa. La seconda, ancora più critica, è imparare ad aggiornarsi di continuo ed evitare di fare confusione tra informazioni inizialmente date per buone e poi smentite. «La dinamicità e la velocità con cui le informazioni vengono modificate online rappresentano un’area di ricerca molto attiva, ma», chiarisce il professore, «al momento gli utenti devono mantenere un elevato spirito critico e verificare sempre le informazioni, soprattutto quelle che hanno implicazioni importanti o che sembrano essere “fatti in evoluzione”». La pervasività dell’Ia generativa nel web di certo non può essere ignorata. Ma affidarvisi acriticamente sarebbe come non fare nulla di davvero utile per risolvere il problema o colmare una situazione difficile. Insomma, sarebbe come dare un calcio al polpo fritto.

LEGGI ANCHE

L'E COMMUNITY

Entra nella nostra community Whatsapp

L'edicola

Garlasco Horror Show - Cosa c'è nel nuovo numero de L'Espresso

Il settimanale, da venerdì 6 giugno, è disponibile in edicola e in app