Le stesse tecnologie utilizzate per il riconoscimento facciale, spesso aspramente criticate, servono per individuare un melanoma sulla pelle o il rischio valanghe. Ma è vero che diventa necessario comprenderne le potenzialità e limitarne l'uso, se possono ledere le libertà fondamentali dell'individuo e il diritto alla privacy. Colloquio con Rita Cucchiara

Non molti sanno che, nel campo dell’intelligenza artificiale, l’Italia è all’ottavo posto nel mondo per numero di pubblicazioni scientifiche e citazioni ricevute in altri studi. La ricerca italiana è all’avanguardia nel “deep learning”, uno dei processi che consentono alle macchine di apprendere da sole, e in altri settori, malgrado i finanziamenti pubblici siano scarsi rispetto ad altri Paesi avanzati. Rita Cucchiara, professore ordinario di Ingegneria Informatica all’Università di Modena e Reggio Emilia (Unimore), è tra i massimi esperti mondiali di visione artificiale. Coinvolta in mille progetti, dirige il Laboratorio nazionale di Intelligenza artificiale e sistemi intelligenti (Cini-Aiis), un network che coordina decine di dipartimenti universitari ed enti come il Cnr e l’Istituto Italiano di Tecnologia.

Professoressa Cucchiara, Ibm e Microsoft si apprestano a firmare in Vaticano una Carta etica sull’intelligenza artificiale. È un passo importante?
«La ricerca nel campo dell’intelligenza artificiale, in Italia e in Europa, non può prescindere dagli aspetti etici. È un elemento che caratterizza la nostra visione della vita e ci rende orgogliosi della nostra società. Coniugare l’etica con l’intelligenza artificiale, tuttavia, non vuol dire porre limiti alla ricerca scientifica. Dall’epoca di Galileo Galilei nessuno pensa di bloccarla, ma oggi è necessario comprendere le potenzialità delle nuove tecnologie e limitarne l’uso, se possono ledere le libertà fondamentali dell’individuo e il diritto alla privacy. Le grandi aziende tecnologiche si rendono conto che, se vogliono lavorare in Europa, devono rispettare i fondamenti del nostro diritto e i nostri valori. Quindi plaudo a questa iniziativa, che dovrebbe essere estesa a tutte le aziende americane e soprattutto a quelle asiatiche».

Oggi la tecnologia viene criticata da ampi settori dell’opinione pubblica, sotto diversi aspetti: diritti umani, privacy, etica.
«Tralasciamo i dibattiti sui social, sono peggio dei dibattiti da bar. Qualcuno ha deciso di seminare odio, terrore, paure e pregiudizi. Faccio un esempio che riguarda le fake news. Da un anno alcuni sistemi di generazione di testi - proposti nel 2017 da Google Brain - stanno imparando a funzionare perfettamente, li utilizziamo anche nel nostro laboratorio. Ciò significa che esistono sistemi capaci di generare semplici frasi, e anche testi molto lunghi, assolutamente credibili. Si tratta di testi “falsi”, nel senso che non sono stati creati dall’uomo, per ora è come se parlassero a vanvera. È un pregiudizio, tuttavia, ritenere che questi sistemi siano impiegati per produrre fake news. Forse lo saranno in futuro, ma solo se verranno addestrati in tal senso. È importante che si sviluppi un sano dibattito su come ingegneri, informatici ed esperti devono mettere a punto sistemi intelligenti, per evitare che si possano pregiudicare i diritti umani, la libertà di espressione, il diritto alla vita, alla religione o alla inclinazione sessuale».

La Commissione europea, che fino a qualche giorno fa sembrava in procinto di mettere al bando la tecnologia del riconoscimento facciale, ha fatto dietrofront. A quanto risulta, i singoli Stati potranno legiferare sull’argomento in maniera autonoma. In ogni caso, alcune associazioni impegnate nella difesa dei diritti civili denunciano il rischio di sorveglianza di massa sui cittadini.
«Dopo anni di sperimentazione, i sistemi di riconoscimento, come tutti i sistemi di intelligenza artificiale, finalmente cominciano a funzionare alla perfezione. Per fortuna aggiungo, perché gli stessi algoritmi servono a individuare un melanoma sulla pelle o il rischio di valanghe. Il problema, come sempre, non è la ricerca ma il suo utilizzo. Ad esempio, già da diversi anni gli algoritmi di visione artificiale per il riconoscimento del volto umano funzionano, tranne casi estremi. Sono un ottimo strumento biometrico, che serve ad accendere lo smartphone o il laptop, presto lo useremo al posto delle chiavi di casa o dell’auto. Tuttavia, ciò non vuol dire che lo Stato ne possa disporre per controllare i cittadini. Quando a Hong Kong i manifestanti si coprono il volto con ombrelli e maschere non intendono proteggersi dalla tecnologia in quanto tale, ma dall’uso distorto da parte delle autorità».

Molte ricerche evidenziano che l’automazione causerà la massiccia perdita di posti di lavoro.
«Fatico a rispondere sui numeri, non sono una economista. Ma gli economisti concordano su un fatto: questa rivoluzione tecnologica, come a suo tempo quella industriale o dell’elettricità, genera grandi trasformazioni nel mondo del lavoro. Già oggi sono molto richieste le professioni legate al mondo della conoscenza, dell’informatica e dell’intelligenza artificiale. In futuro occorreranno esperti nella riconversione dei lavori manuali, che non saranno più solo pratici ma avranno delle importanti implicazioni nel rapporto uomo-macchina. Non credo che assisteremo a una perdita di posti di lavoro, ma alla riconversione di molti mestieri. Su questo tema la comunità italiana di esperti in intelligenza artificiale, compreso il laboratorio Cini-Aiis, è disposta a collaborare a tutti i livelli. Ma nelle università e nei centri di ricerca siamo ancora troppo pochi, abbiamo bisogno di rinforzi».