Solo la coscienza ci divide dall'intelligenza artificiale
Il computer viene costruito per simulare alcune facoltà disponibili alla coscienza umana, come memoria e inferenza. Ma coscienza è innanzitutto presa di posizione verso il mondo con atti come preferire, desiderare, godere, soffrire. E questo, per ora, non può essere imitato
Da Hal di '2001: A Space Odyssey' a Dolores di 'Westworld', uno dei grandi temi dalla fantascienza contemporanea è la possibilità di acquisire coscienza da parte di computer (automi) altamente sofisticati. Questa prospettiva diviene però controversa quando travalica la fantascienza e viene ripresa in ottica futurologica, ad esempio quando movimenti ‘transumanisti’ vagheggiano una novella escatologia dove forme d’intelligenza artificiale rimpiazzeranno la coscienza umana, e dove, delegando a queste intelligenze artificiali la costruzione di intelligenze ancora superiori, l’umanità verrà evolutivamente superata (singolarità tecnologica).
Posto che di motivi per soppiantare l’umanità con qualcosa di meglio non ne mancherebbero, la domanda interessante è un’altra: in che misura possiamo reputare possibile (prima che eventualmente auspicabile) che una macchina con straordinarie capacità computazionali possa diventare cosciente, ereditando la mente umana per superarne i limiti?
Prima di rispondere va chiarito cosa intendiamo qui con possibile o impossibile. In un certo senso di possibilità è perfettamente possibile che Dio rovesci domattina ogni legge di natura, o che tra un quarto d’ora il pianeta Terra venga spazzato via dai Vogon per far passare una superstrada galattica. Sono possibilità che nessuno può escludere, ma sono anche possibilità inservibili per guidare la nostra azione, prive di ragioni che le rendano plausibili. Le possibilità di cui ci interessiamo qui sono invece solo quelle dove abbiamo ragioni per credere che possano realizzarsi.
Ora, in questo senso di possibilità, è possibile che una macchina particolarmente complessa possa pervenire alla coscienza in senso umano?
Consideriamo in prima istanza l’idea che il cervello umano e il computer siano distinti essenzialmente dalla complessità delle connessioni. Sotto queste premesse si potrebbe supporre che in un computer particolarmente sofisticato la coscienza possa sorgere spontaneamente. Se il cervello umano è semplicemente un’entità con maggiori scambi tra neuroni, dendriti e sinapsi rispetto ai bit disponibili in un cervello artificiale, allora è sensato ritenere che, raggiunto un certo grado di complessità, il cervello artificiale possa esercitare le medesime funzioni di quello umano.
* * *
Il problema qui è che ciò che chiamiamo coscienza sopravviene ad un particolare sostrato materiale, un cervello, anzi un cervello organicamente inserito in un corpo agente e senziente (un cervello da solo è un pezzo di carne). Ora, che ragioni abbiamo per ritenere probabile che le stesse caratteristiche supportate dalla materia biologica di un corpo vivente possano spontaneamente emergere in un sostrato costituito di rame, silicio, tungsteno, ecc.?
Siamo naturalmente liberi di immaginare che ciò accada, così come siamo liberi di immaginare che un’invasione aliena di pecore guerriere rovesci l’ordine mondiale, ma quanto a ragioni per crederci è decisamente più probabile che un cadavere riprenda spontaneamente coscienza, rispetto all’opzione che quella materia inorganica lo faccia. La coscienza infatti si presenta come una funzione della vita, e un cadavere, almeno, è costituito da materia che sappiamo predisposta a ospitare la vita, diversamente dal sostrato di un computer.
Le ‘finalità’ che attribuiamo ai sistemi computazionali non somigliano affatto alle motivazioni di un vivente. Si tratta di stringhe di informazione, di sintassi senza semantica. Tali “fini” non appartengono alla macchina e una volta ‘realizzati’ lasciano la macchina ‘vuota’, senza ‘motivazione’ alcuna. La volontà che pervade i viventi infatti non è la mera tendenza a realizzare qualcosa, poiché ogni realizzazione particolare è parte di quel contenuto motivazionale generale che è il vivere in sé. È questa tensione a definire per una coscienza vivente la sensatezza o insensatezza dei suoi atti. L’errore ‘stupido’ che occasionalmente incontriamo in un correttore di bozze o in un traduttore automatico è stupido per noi, ma per il computer non è né stupido né intelligente, perché non ne va di nulla di rilevante per la ‘propria vita’, per l’ottima ragione che qui vita non c’è.
* * *
Un computer è qualcosa che è stato costruito per simulare alcune facoltà disponibili alla coscienza umana, come memoria e inferenza (deduzione). Ma coscienza è innanzitutto presa di posizione verso il mondo con atti come preferire, desiderare, godere, soffrire, ecc. Questi tratti ‘valoriali’ precedono (sia filogeneticamente che ontogeneticamente) lo sviluppo di capacità raziocinanti, le indirizzano, orientano e motivano. Perciò, ricreare facoltà di registrazione o deduzione è utile a esseri che possiedono già quei tratti, ma non avvicinano di un passo la sostituzione della coscienza con dispositivi artificiali.
Di fatto un computer può stupirci per la capacità di accrescere alcune nostre facoltà, così come l’invenzione storica della scrittura stupì per la sua capacità di potenziare le facoltà di memorizzazione e di analisi precedentemente disponibili. Ma nel caso del computer come della scrittura ci troviamo di fronte a estensioni di facoltà umane che dipendono integralmente per esercitarsi dal potersi affidare a facoltà umane. Così come un libro senza un lettore competente è solo una sequenza di segni neri su sfondo bianco, così un computer senza una mente umana che a monte pone problemi e a valle interpreta le soluzioni è solo un sistema di trasmissione di impulsi elettromagnetici.
* * *
Che dire infine della possibilità di forgiare intelligenza artificiale manipolando direttamente materia biologica, secondo il modello fantascientifico dei cyborg? In quest’ultimo scenario è pensabile che si possano assemblare entità capaci di coscienza; il problema diventa un altro: come garantire che si tratterebbe di una coscienza ‘umana’, nei vari sensi che la parola richiama. Infatti il controllo che possiamo avere su un artefatto costruito seguendo nozioni fisiche scomparirebbe di fronte ad una ‘mente’ ottenuta assemblando materia vivente (cerebrale, nervosa, ecc.). Anche se avessimo piena conoscenza di come dev’essere strutturato fisicamente un organismo (un cervello) per ospitare atti mentali, non avremmo comunque controllo su quegli atti proprio in quanto sono atti. C’è uno iato esplicativo tra i processi che implicano ‘prese di posizione’ (intenzioni, atteggiamenti, volontà) e i processi descrivibili in termini meramente fisici (cause efficienti).
Conoscere i secondi non garantisce di prevedere i primi. Perciò, il giorno in cui portassimo alla luce un cyborg dotato di intelligenza artificiale e coscienza, nulla potrebbe garantirci che quella coscienza sia congenere alla nostra. Potrebbe trattarsi di una coscienza che con le propensioni empatiche di un rettile, gli istinti di un parassita, o altro. Nessun ‘test di Turing’ potrebbe mai escluderlo, giacché una coscienza con fini propri potrebbe dissimulare la propria natura. Affidare a una tale coscienza artificiale le nostre sorti ed eredità non sembra possa diventare mai altro che una distopia.