Palazzometro
Ora anche il Parlamento si occupa dell’Intelligenza artificiale
Le Camere studiano per decidere come usare questo strumento così potente e con quali regole. Per non farsi trovare impreparate come dall’avvento dei social
L’esperienza da non ripetere è quella dei social media, quando istituzioni e politica finirono bypassati da un meccanismo che alla fine li travolse. Adesso, con l’avvento dell’Intelligenza artificiale, in gioco c’è molto di più. Non più la rappresentazione di un’opinione, ma la capacità di trasformare un’informazione, unita a quella di autoaggiornarsi sulla base di una stellare quantità di dati ingurgitati dal sistema. Tutto questo è finito ora sui banchi del Parlamento. Con un doppio scopo: prepararsi all’atterraggio dell’AI Act, la legge cornice europea che dovrà regolare questa inafferrabile materia a partire dal 2026, e capire che uso fare di uno strumento così potente anche all’interno delle stesse istituzioni. Il recente via libera del Garante della Privacy a ChatGpt, l’algoritmo dell’americana Open AI, dopo che era stata soddisfatta una serie di garanzie, ha dato un’accelerazione alla necessità di regole.
Al Senato è partita un’indagine conoscitiva avviata dalla Commissione Cultura. A Montecitorio si sta tentando un passo in più. Il Comitato di vigilanza sull’attività di documentazione, presieduto dalla vicepresidente della Camera, Anna Ascani, ha avviato una serie di audizioni di esperti che forse entro l’anno porterà alla scelta di quale algoritmo utilizzare (tra ChatGpt, Bard di Google o il francese Bloom) e del campo di sperimentazione da cui partire: il lavoro di una commissione o l’intero scibile dell’archivio Camera. L’approdo finale cambierebbe non poco per parlamentari e cittadini: non più le semplici chiavi di ricerca, ma la creazione di una scheda, un documento originale sagomato su misura dell’utente che metta insieme in modo organico tutto ciò che è disponibile su un singolo argomento. Un testo base che può diventare lo spunto per la stesura di una legge, purché sia chiaro l’indirizzo e lo scopo che il legislatore vuole ottenere.
Il vantaggio rispetto ai rischi di ChatGpt o simili è che il mare da cui attingerà l’algoritmo non sarà quello sterminato e inaffidabile del Web, ma quello certificato e garantito della Camera. Qualcosa di simile accade con i sistemi bancari, in grado di simulare scenari in evoluzione. Avremo quindi codici e norme scritti dall’IA? Avendo la capacità di presagire comportamenti e variabili future, in teoria potrebbe suggerirli. Ma sarà – auguriamocelo – il legislatore a sceglierli e direzionarli. Evitando così il grande fratello, come ha fatto nei giorni scorsi il Parlamento Ue additando la deriva cinese del «social scoring», il punteggio personale per ogni cittadino sulla base dei comportamenti (scenario distopico alla Orwell), o bloccando l’utilizzo dei dati biometrici per evitare sconfinamenti nello stato di polizia.
Lo scoglio più grande è la costruzione di regole che possano governare senza strozzare le potenzialità dell’IA. Creare dei “guard rail giuridici” che evitino testa-coda etici o nel campo dei diritti: un meccanismo elastico di gestione del rischio per evitare che il Parlamento resti indietro e non intervenga subito. Il buco nero è il Pnrr: proprio lo strumento strategico per la crescita del Paese. Quanta parte dei 200 miliardi di euro in arrivo coinvolge le applicazioni dell’IA? Sono coinvolte transizione digitale, PA, università, ricerca e formazione. Ma chi coordina tutto questo? La risposta non la trovate nemmeno su ChatGpt.