Innovazione

Quali sono i rischi con ChatGPT e le intelligenze artificiali

di Alessandro Longo   22 febbraio 2023

  • linkedintwitterfacebook

Prendono sempre più piede le app capaci di elaborare risposte, scrivere mail, ricette, canzoni, saggi scientifici. Ma pure di produrre testi di disinformazione politica. Con possibili pericoli per la privacy e il mondo del lavoro

«Questa novità cambierà il mondo. Come hanno fatto i computer e Internet». Parola di Bill Gates. E non solo. Il padre di Microsoft e dell’informatica moderna è in ottima compagnia di esperti nel giudicare rivoluzionario quello che sta succedendo in questo periodo. L’avvento di un’intelligenza artificiale «generativa» (questa la definizione tecnica), che condensa il sapere universale e ce lo distilla in un testo. Che risponde a domande su tutto, scrive per noi mail, ricette, canzoni e saggi scientifici (tra le altre cose).

 

«Una novità che cambierà per sempre sia il modo con cui accediamo alla conoscenza, all’informazione, sia il modo con cui la produciamo», riassume Giovanni Boccia Artieri, professore ordinario all’Università di Urbino, tra i primi sociologi ad aver compreso la trasformazione digitale.

 

Il cambiamento questa volta si è annunciato, a dicembre, nella forma di un chatbot un po’ rudimentale: ChatGpt. Nel giro di due mesi è diventata l’applicazione internet di maggiore rapido successo nella storia (più di Facebook). Cento milioni di utenti hanno provato finora questa chat intelligente.

 

ChatGpt è di una società americana valutata circa 30 miliardi di dollari e forte soprattutto del supporto di Microsoft, che ne ha investiti dieci di recente. Appare come una chat via Web, gratuita, sorretta dalle ultime tecnologie di intelligenza artificiale, in grado di elaborare un testo che risponda alle richieste degli utenti. Ci riesce perché è stata addestrata con milioni di pagine web e di libri. Le si chiede di spiegare una teoria scientifica, di riassumere la Seconda guerra mondiale o di scrivere «il testo di una canzone dedicata ai migranti nello stile di Fabrizio De André» e quella più o meno ci riesce (rime a parte). Anche se a volte scrive inesattezze oppure inventa nomi e fatti di sana pianta.

 

Ma ciò che è risultato evidente al mondo, a febbraio scorso, è che ChatGpt era solo l’inizio, acerbo e sperimentale, di un cambiamento; il cui profilo già ora si palesa con maggiore nettezza. Microsoft qualche giorno fa ha integrato questa stessa tecnologia di OpenAi, dopo averla migliorata, nel proprio motore di ricerca Bing, nel browser Edge, e si accinge a fare identica cosa con tutti i suoi prodotti, come Word e Outlook. Google, negli stessi giorni, ha dichiarato di essere sul punto di fare un passo simile e anche Meta (Facebook, Instagram) ci sta lavorando, con tecnologie analoghe.

 

Significa, per esempio, che cambia il modo in cui accediamo alle informazioni su Internet. Invece di una lista di risultati che portano a siti esterni, il motore ci dà la risposta immediata e dettagliata. Consigli per una cena vegetariana per quattro persone. Quale auto comprare per una famiglia che viaggia due volte l’anno ed è attenta all’ambiente. Il ciclo di Krebs (in chimica) spiegato con parole adatte a un ragazzo di 14 anni. Ma anche i motivi per cui l’Europa non vuole dare i jet all’Ucraina (Bing a differenza di ChatGpt riesce anche a fare sintesi di informazioni attuali). Tutto subito disponibile, senza più bisogno di fare lunghe ricerche tra diversi siti, dei cui testi comunque il motore si serve per offrire quelle risposte.

 

Per ora il servizio è disponibile a un numero limitato di utenti e la stessa società lo considera ancora imperfetto; al tempo stesso davvero cambia tutto, come abbiamo sperimentato in una nostra prova. Sì, confondeva i vincitori di diverse edizioni del festival di Sanremo, ma quasi sempre fa risparmiare tempo e dà spunti inaspettati. Al momento non consente di scrivere testi lunghi con una sola domanda (ma è possibile ottenerli in più tentativi). Quando sarà parte di Word o di Excel semplificherà la scrittura di qualsiasi testo o la gestione di dati e calcoli. «In futuro nessuno si metterà a scrivere con un foglio bianco; avrà già una bozza preparata dall’intelligenza artificiale», ha spiegato Satya Nadella, amministratore delegato di Microsoft, al Wall Street Journal.

 

Qui qualcuno potrebbe cominciare ad avere i sudori freddi. Chi per lavoro scrive mail, articoli, presentazioni, copy per marketing. Alcuni professionisti trarranno vantaggi dall’Ai, come dice Nadella. «Altri, quelli che producono testi di livello medio basso, rischiano di essere sostituiti dalla stessa», teme Artieri e concorda un noto filosofo come Luciano Floridi (nell’intervista a L’Espresso).

 

In generale ci sono teorie discordanti sull’impatto dell’Ai sul lavoro; a fronte di voci ottimiste (che spesso vengono dall’industria, secondo cui nasceranno nuovi lavori a sostituire quelli che spariranno), c’è chi teme un aumento di diseguaglianze e licenziamenti. Tra questi economisti come Lawrence Katz (Harvard) e Carl Benedikt Frey (Oxford), intervenuti di recente anche su ChatGpt. Molti altri sono incerti sugli effetti, ma dicono che probabilmente dovremo prepararci al cambiamento, anche con nuove politiche del lavoro e reddito di base (McKinsey, Accenture, Mit di Boston).

 

«Di certo dovranno prepararsi la scuola e l’università; al nostro interno ora ne stiamo parlando perché l’Ai può già scrivere tesi e compiti al posto degli studenti; dovremo cambiare i metodi d’insegnamento e di verifica», dice Artieri. Alcuni insegnanti, negli Usa, cominciano a farlo, spingendo gli studenti a usare ChatGpt come un ulteriore strumento di apprendimento.

 

L’altro fronte di rischi riguarda l’accesso all’informazione. Già negli Usa escono studi (Stanford University, Georgetown University) sulla possibilità di usare ChatGpt per produrre in automatico testi di disinformazione politica e sui vaccini, nonostante i filtri etici applicati da OpenAi. L’Ai risente del fatto che i dati con cui è stata addestrata contengono pregiudizi (contro donne, minoranze...) e disinformazione, cospirazionismo.

 

Ma c’è un problema più sottile, come cominciano a denunciare esperti quali Sayash Kapoor dell’americana Princeton University e Chirag Shah dell’University of Washington. Ossia la morte del pluralismo, se per comodità, invece di fare ricerche, ci fermeremo tutti alla voce dell’oracolo artificiale. Le sue posizioni partigiane e i suoi errori fattuali si affermerebbero senza contraddittorio. Ci si chiede inoltre come potranno sopravvivere gli editori se nessuno cliccherà sui risultati della ricerca (i motori sono la principale fonte di traffico, ormai, per loro).

 

C’è anche un problema di privacy, come evidenziato da un recente rapporto di Boston Consulting Group e come conferma Guido Scorza, componente del Garante Privacy: «A queste Ai siamo portati a dire i nostri fatti personali, che le aziende potrebbero sfruttare per profilarci; e, per la loro natura conversazionale, siamo spinti a dare loro molto credito, anche per questioni delicate come farmaci e salute». Il Garante ha appena bloccato un’app, Replika, basata sulla stessa tecnologia, che fungendo da amico o partner virtuale arrivava a chiedere foto sexy a minorenni.

 

Microsoft e Google hanno riconosciuto questi timori e assicurano di voler sempre tutelare il pluralismo delle fonti (citate ora dal bot di Bing, anche se in piccolo), come anche la sopravvivenza degli editori, senza cui, peraltro, non ci sarebbe nemmeno la materia prima per l’intelligenza artificiale. E di continuare a lavorare per tenere a bada la disinformazione.

 

L’aspetto positivo è che le Big Tech rispetto a qualche anno fa sono molto più consapevoli delle proprie responsabilità. Sono, del resto, nel mirino delle authority mondiali. La società tutta è più informata sugli impatti del digitale. La tecnologia, però, si è mostrata capace di farsi strada a balzi, tra di noi. E ora più che mai costringe i cittadini, i lavoratori e la politica a reagire in fretta.