Un filosofo italiano ha fatto parte del comitato per dare regole all’intelligenza artificiale promosso dal motore di ricerca. Qui ne racconta i retroscena, gli errori, la definitiva chiusura: troppe polemiche per la scelta di inserire nel team fornitori di droni per il Pentagono e consulenti di Trump omofobi e negazionisti sul clima

google
Il 26 Marzo, nel corso di EmTech Digital 2019, Kent Walker, Google Senior Vice President for Global Affairs, ha annunciato la creazione del comitato consultivo esterno sulle tecnologie avanzate di Google (ATEAC, Advanced Technology External Advisory Council). L’iniziativa era significativa e ambiziosa: organizzare per un anno un gruppo indipendente di otto esperti internazionali (incluso chi scrive), per consigliare a Google come affrontare alcune delle sfide etiche più importanti sollevate dallo sviluppo dell’Intelligenza Artificiale (IA), come ad esempio l’uso del riconoscimento facciale automatico per identificare una persona o verificarne l’identità.

Era un’iniziativa non priva di coraggio. Quando si chiede consiglio pubblicamente si segnala che l’argomento impensierisce, si ammette che si ha bisogno di aiuto, e si accetta che qualcun altro - per esempio i propri dipendenti o l’opinione pubblica - possa valutare i consigli offerti e giudicare il loro impatto sul proprio operato. È un’operazione delicata, che in genere richiede discrezione. Per questo Google avrebbe potuto svolgere una consultazione del tutto riservata. Sarebbe stata un’iniziativa meno rischiosa, ma anche meno coraggiosa e significativa. Perciò ho apprezzato e sostenuto l’approccio di Google a favore di un comitato consultivo pubblico, di cui si conoscesse la composizione, la durata, e lo scopo generale. È stata una scelta coerente con i sette principi etici che l’azienda intende applicare nello sviluppo dell’IA, presentati nel giugno del 2018 da Sundar Pichai, l’Amministratore Delegato di Google.

Nel 2015, Google aveva creato un comitato consultivo (Advisory Council), di cui ero membro, per elaborare le linee guida etiche per l’implementazione del diritto all’obblio. Speravo che avremmo ripetuto o migliorato quell’esperienza. E mi aspettavo che anche questa nuova iniziativa, come quella del 2015, sarebbe stata criticata a priori. Le aziende, quando fanno qualcosa che ritengono meritevole, tendono a pubblicizzarla per trarne un vantaggio anche reputazionale. Insomma, fanno sapere alla mano sinistra ciò che fanno di buono con la mano destra. Non è quello che suggerisce il vangelo, ma è comprensibile. Il guaio è che, per gli scettici “a prescindere”, qualunque iniziativa etica che un’azienda presenti pubblicamente è sempre e solo un’operazione (della mano) sinistra, una cinica strategia pubblicitaria, che non fa mai niente di buono con la mano destra, sempre vista come vuota. Prevedevo quindi di sentire le solite critiche: mera operazione di relazioni pubbliche, solo pubblicità, tentativo di evitare la legge attraverso l’etica, manipolazione dell’opinione pubblica, una copertura e distrazione da altri guai (Google ha avuto notevoli problemi etici, dall’ipotetica riapertura in Cina alla collaborazione con il Pentagono), e così via. Critiche superficiali, alle quali prevedevo che avremmo risposto con la serietà dell’impegno e la realizzazione di qualche risultato utile e soddisfacente, per dimostrare concretamente la bontà del progetto.

Non è andata così, perché purtroppo Google ha commesso un grave errore nella composizione del gruppo di esperti. Si è trattato della nomina di Dyan Gibbens e di Kay Coles James. Gibbens è l’Amministratrice Delegata di Trumbull Unmanned, azienda americana produttrice di droni, che opera nei settori dell’energia e della difesa americana. Nominare Gibbens è stata una scelta infelice, soprattutto alla luce di un recente scontro, molto aspro, tra l’amministrazione e i dipendenti di Google proprio sul tema dei droni e della collaborazione militare con il Pentagono. Se fosse stata l’unica scelta malaccorta, forse l’iniziativa sarebbe sopravvissuta. Ma il danno causato dalla nomina di Coles James è risultato fatale. Coles James è un’esponente della destra trumpiana radicale. È la presidentessa di The Heritage Foundation, un think tank conservatore che fornisce idee e personale all’amministrazione Trump. Lei e la fondazione sostengono posizioni negazioniste nei confronti del riscaldamento globale, anti-immigrazione, pro-muro con il Messico, contro la parità di genere, contro i diritti umani delle persone LGBTQIA, e molto altro. Non riesco ad immaginare un punto di vista più distante dal mio. Ho argomentato contro simili opinioni nel corso di tutta la mia carriera. Sono pregiudizi che contraddicono la posizione che Google ha assunto ufficialmente e ripetutamente su questi argomenti da molto tempo.
FLORIDI2_WEB

Torniamo alla cronaca. Sin dal primo giorno, soprattutto la nomina di Coles James, e in parte quella di Gibbens, scatenano le ire delle comunità che si sentono direttamente attaccate, in particolare quella transgender. In poco tempo si alza una bufera sui social media, con punte di intolleranza e violenza verbale a volte eccessive. Il 30 marzo, uno dei membri del comitato consultivo cede alla pressione mediatica e si dimette inaspettatamente. A quel punto, alcuni amici e colleghi mi suggeriscono la scelta più facile: protestare con le mie dimissioni, fare bella figura, ed essere il prossimo ad abbandonare la nave che affonda. Il 1° aprile, i dipendenti di Google promuovono una petizione online per indurre l’azienda a rimuovere Coles James dall’ATEAC. Arriveranno oltre 2500 adesioni. La polemica dilaga anche sulla stampa. Il 3 aprile, spiego sulla mia pagina ufficiale di Facebook, perché ho accettato l’invito e che intendo restare nell’ATEAC per contrastare Gibbens e Coles James. Il 4 aprile, Google annuncia la chiusura del progetto, ammettendo la necessità di ripensare del tutto l’iniziativa. Il comitato è durato nove giorni.

Paradossalmente, il fallimento dell’iniziativa ha dimostrato almeno in parte la sua bontà: esporre l’ATEAC anche alle critiche pubbliche era implicito nel renderlo così visibile. E dal fallimento del l’ATEAC si possono estrarre almeno due lezioni per il futuro.

Partiamo dalla composizione del comitato. È chiaro che Google non avrebbe dovuto dare spazio a Gibbens e soprattutto a Coles James, indicandole come fonti autorevoli dalle quali intendeva attingere per farsi dare qualche buon consiglio su temi etici così delicati e importanti. È essenziale che in una società democratica ciascuno sia libero di avere le opinioni che preferisce. Ma la libertà di pensiero e di parola ha come controparte la libertà di ignorare o controbattere, non il dovere di ascoltare e eseguire. La tolleranza non è sinonimo di accettazione, ma di pazienza nella speranza che chi ha torto cambi idea. Alcuni sospettano che, nominando Gibbens e Coles James, Google volesse tacitare in anticipo possibili critiche provenienti dai conservatori repubblicani e dall’amministrazione Trump. Forse è così. Ma è possibile mantenere un buon equilibrio tra posizioni più progressiste e posizioni più conservatrici senza concedere spazio agli estremismi. Come è prassi ordinaria, sono venuto a sapere chi fossero gli altri membri dell’ATEAC pochi giorni prima del suo lancio. Inizialmente, ho riconosciuto tra loro solo una collega informatica. Mi sono detto: bene, per fortuna non siamo i soli noti, ci sarà da imparare da altri esperti. Invece, la critica è stata che la competenza sul tema dell’etica dell’IA fosse stata solo una variabile nella selezione dei membri, e che la politica avesse giocato un ruolo importante. Questo ha generato il sospetto che Google non facesse sul serio. Credo sia falso, ma dileguarlo è risultato impossibile.

Veniamo alle attività del comitato. Google aveva fatto bene a lasciare al comitato la formulazione dell’agenda dei lavori, altrimenti sarebbe stata accusata di manipolare un comitato esterno e indipendente. Ma avrebbe potuto chiarire meglio il mandato, le modalità operative, gli scopi da perseguire, i temi da trattare, il grado di trasparenza e le modalità di comunicazione del lavoro del comitato, e in fine quanta responsabilità si sarebbe assunta l’azienda nel seguire i consigli ricevuti. Il risultato è stato quello di dare la falsa ma diffusa impressione di un po’ di vaghezza nel lavoro da svolgere e una certa opacità nei fini. Di qui le accuse, che ritengo infondate, di una mera operazione pubblicitaria.

Avevo accettato con entusiasmo di fare parte dell’ATEAC perché ritengo che la legislazione e l’autoregolamentazione funzionino meglio insieme: entrambe sono necessarie e nessuna delle due è sufficiente da sola. Sono certo che tutti gli stakeholders debbano essere coinvolti, incluse le grandi aziende produttrici di IA, se vogliamo uno sviluppo tecnologico eticamente migliore. Credo profondamente nel sostenere qualsiasi sforzo sincero e significativo per migliorare il modo in cui progettiamo, implementiamo e usiamo le tecnologie digitali, inclusa l’IA. Ero, e sono ancora convinto, che creare un consiglio consultivo etico sull’IA per un’azienda come Google sia una buona idea. Ritengo che Google credesse molto e seriamente nel valore dell’iniziativa e nel suo possibile successo. Purtroppo le cose sono andate diversamente da come speravo.

Nonostante la pressione mediatica, molto aggressiva e a volte anche personale, e il fatto che fosse la cosa più facile e scontata, nel corso della polemica ho deciso di non dare le dimissioni. Se qualcuno chiede un consiglio, sinceramente e con buone ragioni, e uno può aiutarlo, allora è un dovere morale dare una mano. Se la richiesta si dimostra insincera, uno potrà essere deluso, ma non dovrà avere rimpianti, perché avrà fatto la cosa giusta. Se uno può dare un buon consiglio, ma non viene mai ascoltato, e tutto finisce per essere solo un’operazione superficiale di relazioni pubbliche, si potrà essere frustrati, ma non dispiaciuti, perché uno avrà comunque fatto la cosa giusta. Se poi si scopre che in realtà non si può essere d’aiuto, allora la cosa giusta da fare sarà dimettersi, ma non prima di aver provato a dare una mano. Ma soprattutto, se tutto va bene, e chi si sta consigliando consulta anche altre persone, come è del tutto libero di fare, e uno capisce che queste altre persone hanno idee sbagliate, che potrebbero portare a cattive scelte, allora la cosa giusta da fare è cercare di aiutarlo di più e meglio, non gettare la spugna. Perché sarà ancora più importante opporsi e sradicare gli errori e i pregiudizi che cercano di ammutolire la ragione e logorare il bene. L’ignoranza e l’intolleranza prevarranno finché non le affronteremo. Non possiamo permetterci di abbassare la guardia. Il male non scomparirà mai. Fa parte della natura umana. Ma possiamo sconfiggerlo, ogni volta di nuovo, se resistiamo e non gli concediamo terreno. In questo periodo di rigurgiti nazionalistici, egoistici negli interessi e intolleranti verso la diversità, bigotti nei valori e ignoranti verso il sapere, irrispettosi verso il passato e menefreghisti verso il futuro, il problema del male è la debolezza del bene. Bisogna rinnovare la lotta, vincere di nuovo ogni battaglia, sapendo che la guerra con gli aspetti peggiori dell’animo umano non avrà mai fine. Una volta che l’intolleranza riceve una piattaforma, abbandonare, fare la bella figura di chi protesta lavandosene le mani, è un lusso che non possiamo permetterci. Durante la polemica su Twitter mi sono tornate in mente memorie liceali di Dante sull’ignavia. Per vincere bisogna combattere, non scappare e lasciare ad altri i rischi e la fatica di fare la cosa giusta.

Nel corso delle discussioni sui social media, alcuni hanno obiettato che interagire con certi estremismi li legittima. Questo non è sbagliato, ma è solo superficialmente vero. Ci sono errori troppo sciocchi per essere presi sul serio. Possiamo scherzarne, ma non dobbiamo impegnarci a correggerli, o li eleveremmo a un serio dibattito che non si meritano. L’astrofisica non si preoccupa di confutare l’astrologia, la ignora. Tuttavia, altri errori sono troppo gravi per non essere contrastati. Se hanno voce, dobbiamo rispondere con un coro; se serpeggiano, dobbiamo schiacciarli per dimostrarne la nullità; se sollevano un’obiezione, dobbiamo impegnarci a confutarli. Qualsiasi forma di umanofobia (in tutte le sue declinazioni: islamofobia, omofobia, transfobia, xenofobia…) è troppo grave per non essere combattuta inesorabilmente ovunque e ogni volta che la individuiamo, come un virus da eradicare. Per questo ho dichiarato che non avrei evitato il confronto, ma che avrei raddoppiato i miei sforzi, per contribuire a sostenere la voce della ragione e della conoscenza, e promuovere la tolleranza e il rispetto reciproco.

L’iniziativa di Google per creare un comitato etico per l’IA è terminata. Chi l’ha criticata duramente può considerare questo un successo. Ma è importante riflettere sulle conseguenze negative di questo fallimento. Google continuerà a sviluppare le sue tecnologie digitali, inclusa l’IA, senza chiedere consiglio a nessuno, almeno pubblicamente. Abbiamo perso un’opportunità di collaborazione con un’azienda leader nel settore, per cercare di migliorare lo sviluppo etico dell’IA. Ma non è l’unica perdita ed è forse la minore. L’ATEAC avrebbe potuto essere un apripista, una sorta di progetto pilota. Data la visibilità e l’influenza di Google, altre aziende avrebbero potuto seguire il buon esempio, avrebbero forse sentito la pressione sociale di non poter restare indietro, e forse la stessa Google avrebbe potuto rilanciare, alla fine dell’anno di lavoro. Abbiamo anche perso la grande opportunità di contribuire a migliorare, anche solo di poco, come la Silicon Valley approccia eticamente lo sviluppo dell’IA. E vista l’enorme polemica, la reazione negativa sarà un minore impegno etico pubblico da parte di altre aziende digitali, che guarderanno a questa esperienza di Google e se ne terranno a notevole distanza. A chi recentemente elencava tutte le cose che un’azienda deve fare, quando crea un comitato consultivo etico, bisogna ricordare una cosa fondamentale: un’azienda non è affatto obbligata a crearlo. È un gesto volontario e, dopo questo fallimento, a Silicon Valley ci penseranno due volte prima di prendere simili iniziative.

L’auto-regolamentazione è troppo importante per pensare che tutto si possa risolvere solo con buone regole legislative, come qualcuno argomenta. Soprattutto nello sviluppo di tecnologie così influenti come l’IA, è necessario anche un approccio etico, responsabile, e di deontologia professionale, non per sostituire o scavalcare le regole, ma per applicarle al meglio e vincere secondo le regole, con strategie aziendali e di settore che abbiano a cuore tutta l’umanità e il nostro pianeta. Le strade ancora aperte sono diverse. Le aziende potrebbero adottare soluzioni meno visibili e più riservate, con comitati etici interni. Terze parti, incluse organizzazioni nazionali, sovranazionali, di settore (si pensi alla Partnership on AI) o appartenenti alla società civile, potrebbero impegnarsi con comitati etici pubblici. O i comitati etici per il digitale potrebbero diventare un obbligo di legge per il mondo aziendale. Qualunque sia la strada che sarà intrapresa, mi auguro che il fallimento dell’iniziativa presa da Google ci insegni a come fare meglio, e non a desistere.