A tre anni dal sisma di Amatrice, continua a essere utilizzato il modello che ne ha sottostimato i pericoli. E dall’Aquila in poi, molte delle scosse avvenute in Italia hanno superato i valori stabiliti dal sistema probabilistico

AGF-EDITORIAL-1925569-jpg
Tre anni dopo il terremoto, gli abitanti di Norcia ancora non sanno dove scaricare le macerie. La Regione Umbria ha da poco rinnovato l’incarico per la rimozione dei detriti di uffici pubblici e chiese: restano da eliminare 53 mila tonnellate di materiale sulle 153 mila stimate. Ma le macerie delle case private sono rimaste più o meno dove le ha lasciate lo sciame sismico cominciato il 24 agosto 2016, con la scossa che ad Amatrice e nei paesi della valle del Tronto ha ucciso 299 persone.

«La difficoltà di smaltimento, che è a totale carico dei cittadini, rischia di paralizzare ulteriormente la ricostruzione», rivela il sindaco di Norcia, Nicola Alemanno. Il ritardo, nei comuni colpiti a cavallo di Lazio, Umbria e Marche, potrebbe però trasformarsi in un’opportunità per riflettere e progettare edifici pubblici e privati più sicuri: sempre che la comunità scientifica italiana che ha ispirato la normativa antisismica attuale voglia rivedere le sue certezze, a volte fantasiose.

Norcia è proprio l’esempio di una ricostruzione che, rispettando la legge in vigore, ha incolpevolmente sottovalutato l’energia dei terremoti che nel tempo l’hanno interessata. Negli ultimi quarant’anni era stata danneggiata dal sisma della Valnerina nel 1979 (magnitudo 5.8) e da quello di Umbria e Marche del 1997 (magnitudo 6). A fine agosto 2016, all’indomani del disastro nella vicina Amatrice, giornali e notiziari tv l’avevano presentata come esempio virtuoso grazie alla “buona ricostruzione”: niente morti, niente feriti e solo qualche danno.
AGF-EDITORIAL-1888315-jpg

Due mesi dopo, il paese è stato devastato e la splendida basilica di San Benedetto rasa al suolo dalla scossa del 30 ottobre (magnitudo 6.5). «I terremoti del 2016 non hanno necessariamente generato il maggior scuotimento possibile nella zona», spiega il professor Giuliano Panza, accademico dei Lincei, premiato un anno fa a Washington con l’International Award dell’American geophysical union, unico geofisico italiano a ricevere il prestigioso riconoscimento della più grande organizzazione mondiale di Scienze della terra e spaziali: «Nel 1703 l’area è stata colpita da un evento con magnitudo 6.9, conosciuto come terremoto della Valnerina. Questo fatto va tenuto ben presente nella fase di ricostruzione».

Perché allora molte case di Norcia e la basilica di San Benedetto sono crollate, se dopo il sisma del 1997 rifacimenti e restauri hanno rispettato le norme antisismiche? La risposta è semplice: perché le mappe sulla pericolosità sismica che guidano i progetti di ingegneri e architetti in Italia, e non solo da noi, si basano su calcoli della probabilità e non sul concetto di massimo terremoto credibile, concretamente riscontrabile sia dalla storia sismica di un luogo, sia dallo studio sul campo della morfologia sismogenetica.

Il sistema di calcolo della pericolosità accettato dalla legge si fonda infatti su un modello probabilistico, denominato Psha (dall’acronimo inglese di valutazione probabilistica della pericolosità sismica). E si contrappone al modello neodeterministico, che gli scienziati chiamano Ndsha (valutazione neodeterministica della pericolosità sismica), di cui Panza con i suoi studi è uno dei massimi esponenti al mondo.

Il modello probabilistico pretende di stabilire la pericolosità ovunque sul territorio in base alla probabilità che l’accelerazione del suolo durante un terremoto possa superare un dato valore, in un arco di tempo che per gli edifici civili è di cinquant’anni. L’accelerazione del suolo e la probabilità di superamento del valore indicato sono i parametri che a ricaduta indirizzano le scelte di costruzione. Ma sono dati affidabili? «Il metodo Psha», osserva Panza, «postula che in un certo luogo la probabilità annuale di occorrenza di un terremoto avente un’intensità maggiore di x non muti di anno in anno. Tale ipotesi è certamente non verificata, dato il meccanismo di accumulo progressivo di energia. Le regole per fare questi calcoli sono insomma le stesse che si userebbero per calcolare la probabilità dei numeri del lotto o quella associata al ripetuto lancio di dadi».

Perché la probabilità di superamento in cinquant’anni sia minore del dieci per cento, come stabilisce la norma, è necessario che la probabilità annuale sia minore di 0,0021. La conseguenza di questo ragionamento è che il forte terremoto da considerare nei progetti abbia un periodo di ritorno di 475 anni. «Ma è un passaggio errato e destituito di ogni fondamento», spiega il professor Panza: «Si tratta della stessa fallacia del giocatore di dadi che attribuisce alla probabilità una memoria, là dove questa non la possiede. Non esistono prove scientifiche che i terremoti abbiano memoria. Questo ragionamento parascientifico è alla base di svariate normative sismiche in vigore in varie parti del mondo, inclusa l’Italia. Le carte sismiche sviluppate secondo questo modello hanno sottostimato la maggior parte dei terremoti disastrosi degli ultimi anni».
AGF-EDITORIAL-1888223-jpg

Dall’Aquila in poi tutti i forti terremoti italiani hanno superato i valori stabiliti dalle mappe di pericolosità: nel 2009 in Abruzzo, l’accelerazione del suolo osservata ha raggiunto 0,35g (per g si intende l’accelerazione di gravità che equivale a 9,8 metri al secondo quadrato) contro un valore massimo della mappa non superiore a 0,275; nel 2012 in Emilia, in una zona fino a quel momento considerata dal modello probabilistico a bassa pericolosità, l’accelerazione ha raggiunto 0,25g contro un valore della mappa non superiore a 0,175; nel 2016 in Italia centrale l’accelerazione ha raggiunto 0,4g contro lo 0,275 della mappa. Ecco anche perché molte case antisismiche di Norcia e la basilica di San Benedetto da poco restaurata sono inesorabilmente crollate.

Da tempo esiste una carta della pericolosità sismica in Italia compilata nel 2000 secondo il modello neodeterministico. Una mappa che, per le zone colpite negli ultimi anni da forti terremoti, riporta valori che contengono quelli osservati: «Gli interventi fatti a Norcia dopo il terremoto del 1997, basati sulla carta Psha che è alla base della normativa, si sono rivelati del tutto inadeguati in occasione dell’evento del 30 ottobre 2016. La carta che poggia sul modello neodeterministico indica invece per Norcia una pericolosità maggiore, ma non superata dall’evento dell’ottobre 2016, anche se prossima», osserva Panza: «Quindi se la ricostruzione e l’adeguamento dopo il 1997 avessero tenuto conto di questo, verosimilmente i danni sarebbero stati di gran lunga inferiori, se non trascurabili rispetto agli attuali».

Ovviamente una superiore capacità antisismica dei fabbricati richiede una spesa relativamente maggiore. Ma non aver fatto quanto dovuto vent’anni fa obbliga oggi Norcia e il suo circondario ad affrontare il costo totale per una nuova ricostruzione.

Quattro forti terremoti nel paese umbro in appena trentasette anni, contro un periodo di ritorno stabilito per legge nell’ordine delle centinaia di anni, dovrebbero far sorgere qualche dubbio scientifico sulla validità della normativa in vigore. Quest’anno il ministro delle Infrastrutture, Danilo Toninelli, ha pubblicato la circolare per l’applicazione dell’aggiornamento delle Norme tecniche per le costruzioni uscite nel 2018: trecentotrentasette pagine che contengono gli stessi errori del passato.

Sentite cosa viene deciso per legge a pagina 37: «Il periodo di ritorno dell’azione sismica agente sulla costruzione è funzione anche della vita nominale della costruzione, oltre che della classe d’uso, del tipo di terreno e della pericolosità del sito». Paolo Rugarli, ingegnere strutturista e sviluppatore di software, ha scritto un’ironica prefazione al testo delle norme da poco pubblicato da Epc Editore, intitolata “La fede è fede”: «Dire che il periodo di ritorno del terremoto lo stabilisce la vita nominale della costruzione, ad esempio trentacinque, cinquanta, cent’anni», sorride Rugarli, «è come pretendere di dire alla Terra come si deve comportare, sulla base di come un progettista e don Ciccio si sono accordati in merito alla costruzione di una palazzina, di una scuola o dell’albergo con vista mare. La religione della circolare ministeriale e di queste norme tecniche ci dice che c’è un supermarket dei terremoti e noi possiamo prendere quello che ci aggrada». Vuol dire che le norme tecniche di costruzione sono sbagliate? «Le norme sono obbligatorie per legge. Ma nella presentazione, per dovere professionale, dovevo spiegarlo: sono sbagliate e pericolose nella parte di determinazione della pericolosità sismica. La ripetizione all’infinito di affermazioni fantastiche, terminologie vuote ma sfarzose, formule matematiche esoteriche che nascondono l’arbitrio, fa credere ai nostri concittadini e anche ai politici, ingannandoli, di avere leggi che li proteggano dai terremoti e che implichino costruzioni sicure. Ma se le azioni sismiche sono fortemente sottostimate, le costruzioni non possono essere sicure».

La stessa storia della Calabria, con gli eventi catastrofici dei secoli scorsi, dimostra che i terremoti si presentano a “grappolo” negli anni e non secondo una regolare cadenza ciclica: i processi che creano le condizioni di deformazione e tensione dipendono infatti dal tempo, ma non sono periodici, come dimostrano gli studi di Hiroo Kanamori già nel 1981. «Il lasso di tempo che intercorre tra due terremoti, in una certa zona, è fortemente variabile e spesso del tutto ignoto», aggiunge Giuliano Panza: «In moltissimi casi, in mille o più anni, non si ha notizia di alcun evento sismico. Ad esempio, come indicato dall’Istituto nazionale di geofisica e vulcanologia in una pubblicazione del 2004, in 19 delle 36 zone sismogenetiche definite in Italia, in mille anni non esiste alcun evento con magnitudo superiore o uguale a 5.91 e in altre cinque vi è un solo evento in mille anni. In realtà, in ogni area tettonicamente attiva, i terremoti di una certa entità sono eventi sporadici, che sfuggono a qualsiasi valutazione di periodicità».

A breve l’Ingv, che tra i compiti istituzionali garantisce la sorveglianza sismica, pubblicherà il nuovo modello di pericolosità di lungo termine. Un progetto avviato quattro anni fa che ha coinvolto centocinquanta ricercatori. Il contenuto non è stato ancora diffuso. Ma da quello che si legge, non sconfesserà il modello probabilistico. Dovrà comunque correggere a posteriori gli errori smascherati dagli ultimi disastri: come puntualmente accade in Italia dal terremoto di San Giuliano di Puglia e dal crollo della scuola del paese ristrutturata con criteri inadeguati. Quel giorno, il 31 ottobre 2002, morirono ventisette bambini e la loro maestra.