Le nuove tecnologie applicate alla medicina e alla sanità offrono grandi opportunità. Ma portano anche grandi rischi. Come spiega uno dei massimi esperti

La Fondazione Giorgio Cini ha incaricato Luciano Floridi, direttore del Digital Ethics Center a Yale University e professore ordinario all’università di Bologna, di organizzare un convegno di quaranta esperti sulla Global Health in the Age of Ai, tenutosi tra il 7 e il 9 novembre a San Giorgio Maggiore, Venezia. Il professore racconta a L’Espresso le implicazioni che l’utilizzo dell’intelligenza artificiale avrà nel mondo della sanità e oltre.

 

Professore, quali obiettivi avete raggiunto con questo simposio? In cosa è consistito il simposio e quali erano gli obiettivi del congresso?

«Il simposio ha avuto un formato un po’ originale. Abbiamo raccolto nel gruppo i più importanti studiosi e studiose di intelligenza artificiale, applicata al mondo della salute, per raggiungere due obiettivi al contempo. Il primo, di avere un quadro della situazione attuale, cioè dove siamo oggi nel mondo delle applicazioni dell’intelligenza artificiale nel contesto della salute. Tutto ciò con una visione internazionale, dall’Australia agli Stati Uniti, dall’Uganda alla Germania. Il secondo fine è stato quello di elaborare alcune raccomandazioni su che percorso dovremmo fare come società del ventunesimo secolo per raggiungere il massimo dei benefici di questa tecnologia e minimizzare al contempo tutti i possibili problemi». 

 

Quali sono i benefici che l’intelligenza artificiale potrebbe portare nell’ambito della sanità?

«Le opportunità sono davanti agli occhi di tutti, ormai. Sia a un livello globale, sia al livello dell’esperienza dell’individuo. Oggi l’intelligenza artificiale aiuta nella prevenzione, nella diagnosi, nella prognosi. Lo abbiamo visto durante la pandemia. Ma non dimentichiamo che questa tecnologia non aiuta soltanto, ad esempio, per la lastra o l’esame del sangue o altre applicazioni che possono essere fatte con più efficienza, ma aiuta anche tutto il contesto. Ad esempio tutta la gestione dei documenti, cioè cosa succede nella mia cartella clinica quando magari passo da un ospedale all’altro e la gestione poi delle informazioni che tutto questo genera». 

 

Quali sono i potenziali rischi etici nell’introdurre l’intelligenza artificiale in grandi organizzazioni?
«I rischi sono un po’ classici ormai, ne abbiamo sentito parlare tanto. Ci sono i rischi di cattivo utilizzo di queste tecnologie, ovviamente. Paesi che li utilizzano nel modo sbagliato oppure aziende che li sfruttano nel modo errato per discriminare, per magari ridurre i costi lì dove non andrebbero ridotti. Ce ne sono altri che in realtà sono rischi indiretti, cioè nel voler far bene si finisce anche per avere degli effetti collaterali negativi».

 

Ci può fare un esempio?

«Ad esempio una app che cerca di migliorare la gestione delle visite mediche anticipando chi questa visita medica potrebbe cancellarla. Mentre l’app fa qualcosa di buono ottimizzando il tempo che possiamo utilizzare per i pazienti con i medici, con gli infermieri, potrebbe in realtà cominciare a discriminare, perché è chiaro che poi chi più frequentemente cancella una visita potrebbe essere esattamente la persona che è più frequentemente malata. Essendo più frequentemente malata, più facilmente potrà cancellare a causa della malattia. Allora, paradossalmente, finiremo per cancellare e per anticipare la cronologia delle visite e limitare il tempo con il medico proprio alla persona che ne ha più bisogno. Ora nessuno ha disegnato quell’app per avere un risultato negativo. Il negativo emerge dall’utilizzo dello strumento. Un altro rischio è quello di perdere di vista il malato. Anche questo è un effetto collaterale negativo di una intenzione positiva: collezionare più dati, più informazioni, più gestione automatica per arrivare a più prevenzione e previsioni migliori da parte dell’intelligenza artificiale. Ma questo vuol dire anche affidarsi sempre di più al profilo digitale dell’individuo. Il rischio è che poi l’individuo venga perso di vista e che quindi si finisca per gestire soltanto un profilo digitale. Questo avviene ovunque. Avviene nel settore medico, ma avviene anche nel settore della formazione, dell’educazione, del business. I rischi di effetti collaterali sono più insidiosi perché è più difficile identificarli subito, cioè sono quelle cose di cui ci accorgiamo soltanto nel momento applicativo. Su questo c’è molto da lavorare». 


Anche a questi effetti collaterali si riferiva l’Organizzazione Mondiale della Sanità nel rapporto pubblicato nel 2024 sull’etica e l’amministrazione dell’Ia, riportando che errori, abusi e danni saranno inevitabili. Come si può giustificare a livello etico l’introduzione di una tecnologia che provocherà anche danni agli utenti? 

«Qualsiasi tecnologia comporta dei rischi. L’introduzione dell’elettricità nel contesto della sanità ospedaliera per esempio risale a circa un secolo fa e all’epoca fu molto pericolosa - contatti sbagliati, errori di calcolo comportarono rischi mortali. Non per questo abbiamo smesso di introdurla e di utilizzarla. Sono rischi calcolati. Quando si identificano i rischi dell’Ia bisogna capire quali sono calcolabili, quali si possono prendere e quali no. Per questo c’è bisogno di studiarli meglio. Ma immaginare un contesto in cui non ci sono rischi è fantascienza. Tutte le tecnologie, proprio perché incidono sulla realtà e lo fanno in maniera significativa, inevitabilmente comportano dei rischi. La questione non è rischio o non rischio, ma quale rischio e se ne vale la pena. E poi come riparare quando purtroppo ogni tanto quello che noi pensavamo fosse solo un rischio diventa realtà. In questi giorni ne abbiamo parlato in termini di cosiddetta “liability”, cioè di responsabilità penale. Quando un ospedale utilizza l’Ia in modo rischioso o addirittura quando avrebbe dovuto utilizzare l’Ia e non l’ha utilizzata e si sono corsi dei rischi, di chi è la responsabilità?».

Parlando di fantascienza, convegni come quello che ha organizzato lei dimostrano che il futuro dell’AI risiede nel creare tecnologie molto specializzate che ci possono aiutare in contesti specifici come la sanità. La paura di creare una macchina super intelligente che porterà l’umanità alla rovina rimarrà qualcosa frutto solo di fantascienza?
«Sì. Temi così fantascientifici per fortuna non sono proprio emersi durante il convegno, perché abbiamo parlato in maniera molto seria, molto scientifica, molto concreta di quella che è la realtà e di quella che sarà la realtà dell’Intelligenza Artificiale. Il mondo della salute è uno dei settori più ricchi sia di risorse sia di problemi, la punta delle applicazioni di Intelligenza Artificiale. Questo ci mostra come tutte le preoccupazioni fantascientifiche non abbiano alcun fondamento. Tutto il discorso su un’intelligenza generale universale, di tipo biologico o superiore a quello biologico, ha soltanto ragion d’essere in qualche film di Hollywood. Quello con cui ci confrontiamo sono tecnologie molto sofisticate che richiedono grandissime competenze per la loro gestione, e che generano nuove problematiche ma anche nuove professioni»

 

Ci sono professioni in cui l’Ia non potrà mai sostituire l’essere umano? 

«“Sostituzione” è il termine sbagliato. In realtà se la domanda si pone in questo modo, cioè quali sono risultati che possono essere ottenuti soltanto da un essere umano, la risposta è quasi niente. Qualunque risultato in teoria può essere raggiunto da un sistema tecnologico. Il punto è su come e poi che cosa si fa con tutto questo. Lì sta tutta la differenza. Chi lo gestisce? Questo resta soltanto umano. E che cosa si fa poi col risultato? Quindi in realtà quello che è emerso in questi giorni è tutta la gestione, la cosiddetta governance di questa tecnologia, che richiede competenze, personale, strutture, infrastrutture, finanziamenti, legislazione completamente nuovi. Lì c’è un mondo che deve crescere e sul quale bisognerebbe concentrarsi».

 

L’intelligenza artificiale cambierà anche il nostro rapporto con l’internet. Si vedrà per esempio una diminuzione nell’uso di Google come motore di ricerca?

«Sì, è probabile che tutto il mondo delle informazioni, quindi web incluso, subirà e stia già subendo una rivoluzione notevole. C’è già appunto una ibridizzazione della ricerca online oggi, con Gemini e Google che cominciano a lavorare insieme. Io vedrei più una sinergia, una ibridizzazione piuttosto che un rimpiazzamento. La cosa importante è ricordare che poi, se si vogliono controllare le informazioni che ci ha dato il bot, andiamo sul search engine. Andiamo a vedere proprio la pagina. Su questo quindi io vedrei un sistema diciamo collaborativo di informazione molto più interessante». 

 

Da italiano che lavora e vive all’estero, ma che mantiene forti rapporti con l’Italia, come vede il ruolo che l’Italia si sta creando nel mondo della ricerca sull’Intelligenza Artificiale?

«Possiamo dire che ci sono settori molto avanzati. Quello della robotica in Italia è sempre stato molto forte e per robotica intendo proprio quella fisica, per esempio il robot per tagliare l’erba, o il robot industriale. Sull’Intelligenza Artificiale in senso molto più ampio c’è margine di miglioramento notevole. Però l’Italia ha delle punte di eccellenza in alcuni settori, come per esempio quello delle piccole e medie imprese, dove la robotica industriale è molto importante. Andrebbero sostenute e messe a sistema».