SECONDA PARTE – Approcci probabilistici e deterministici nell’analisi di rischio e di scenario sismico per la valutazione assuntiva e la gestione dell’evento
di Davide Manica
Nel precedente articolo abbiamo disaminato i concetti di pericolosità e vulnerabilità, due variabili cardine per la corretta valutazione del rischio sismico. Eseguita quindi l’analisi di vulnerabilità e nota l’esposizione (persone, edifici, beni culturali, impianti, infrastrutture) e la pericolosità sismica di base e locale di un’area è possibile stimare il rischio, che può essere espresso mediante differenti indici a seconda dei dati trattati: valore di danno atteso ai manufatti edilizi, valore atteso di perdite di vite umane, etc.
Gli strumenti a disposizione per il calcolo del rischio sono modelli matematici i cui dati di output vengono importati su sistemi informativi territoriali (GIS), che hanno la prerogativa di abbinare dati alfanumerici a elementi geografici, restituendo mappature interattive di notevole interesse.
Una delle metodologie più utilizzate per l’analisi del rischio sismico è l’approccio probabilistico, che permette di determinare la funzione di distribuzione al sito dei parametri di severità dei terremoti, e da qui ricavare il valore di scuotimento al suolo relativo ad un dato periodo di ritorno.
Su tale analisi si fondano le scelte progettuali dei nuovi edifici. Le Norme Tecniche, infatti, presentano un approccio prestazionale alla progettazione: le prestazioni del manufatto sono individuate mediante la richiesta del rispetto di più stati limite, sia di esercizio (stato limite di operatività e di danno), che ultimi (stato limite di salvaguardia della vita e di prevenzione del collasso). Per ciascuno stato limite la capacità prestazionale della costruzione dovrà essere almeno pari agli effetti dell’azione sismica, legati al periodo di ritorno del sisma, scelto sulla base del calcolo della vita utile nominale e della classe d’uso.
In campo assicurativo e riassicurativo l’analisi di distribuzione della probabilità di accadimento di un sisma in relazione ad esposizione e vulnerabilità del costruito è alla base di ogni considerazione attuariale sul calcolo del valore del danno atteso medio annuoe, quindi, sul rischio assicurato, sul corrispondente tasso di premio da applicarsi e sul calcolo dei cumuli (sovraccarico di polizze in aree ridotte).
Sulla base di tale approccio metodologico ANIA e Guy Carpenter hanno condotto alcuni anni fa uno studio ancora attuale sugli aspetti quantitativi e tecnici relativi ad ipotetiche coperture assicurative per il patrimonio abitativo civile contro le catastrofi naturali.
La prima domanda che ci si poneva era “a quanto ammonti il danno annuo alle abitazioni civili dovuto ad eventi sismici ed alluvionali e quale sia la sua dettagliata distribuzione di probabilità”. A fronte di una esposizione totale del patrimonio abitativo italiano, comprendente anche le dipendenze, pari a 3.900 miliardi di euro, il danno atteso medio annuo per il rischio sismico è di 2,6 miliardi di euro. Pertanto il costo annuo atteso per 100.000 euro di valore di ricostruzione è pari a circa 70 euro (loss ratio), che però non rappresenta il costo assicurativo diretto, essendo esposto al netto del margine di rischio assunto e di tutte le spese gestionali ed amministrative in carico alla Compagnia (expenses ratio).
Lo studio si poneva anche la finalità di calcolare la capacità finanziaria atta ad assicurare l’intero patrimonio abitativo, valutando il danno massimo probabile (per sismi e alluvioni) in 47 miliardi di euro, fissato un periodo di ritorno di 500 anni, e quindi con una probabilità di eccedenza inferiore al 10% in 50 anni, ritenuta accettabile. La necessaria capacità finanziaria stimata del sistema, alquanto elevata, potrebbe ridursi con l’impiego di franchigie e scoperti alle eventuali coperture assicurative o di “stop loss”.
Il calcolo probabilistico del valore del danno atteso medio annuo e, quindi, il calcolo di un eventuale premio assicurativo per la garanzia “terremoto” ha fondamento se si considerano tutti i manufatti edilizi costruiti sul territorio, senza alcuna differenziazione territoriale o tipologica. Il fulcro della questione, conseguentemente, si sposta sulla scelta di applicare tariffe indifferenziate sul territorio (premi medi mutualistici) oppure tariffe proporzionali al rischio (premi attuariali): nel primo caso il prezzo indifferenziato favorisce una maggior accessibilità perché risulta calmierato ma non incentiva strategie di mitigazione del rischio; nel secondo caso il prezzo variabile comporta premi elevati in aree ad alta pericolosità e vulnerabilità, ma incentiva, di contro, politiche territoriali di riduzione del rischio singolo e sistemico.
Fin qui il metodo probabilistico potrebbe essere apparso come una panacea di fronte alla ineluttabilità del terremoto, ma non tutto procede sempre secondo rigide ipotesi e modellazioni matematiche. Uno su tutti è il caso del sisma emiliano del 2012, occorso in una zona considerata dal 2003 e fino a quel tragico 20 maggio a bassa pericolosità sismica (prima del 2003 l’area era considerata addirittura a rischio sismico nullo). Ripercorriamo quell’avvenimento. L’evento tellurico principale (5,9 gradi Magnitudo Locale o Richter MI – 5,86 gradi Magnitudo Momento Mw), occorso alle ore 4 del 20 maggio, è stato seguito nelle ore successive e fino al 30 maggio da oltre 1.000 repliche, alcune delle quali hanno superato la soglia di magnitudo 5. In particolar modo la giornata del 29 maggio è stata caratterizzata alle ore 9,00 da un nuovo sisma 5,8 gradi Ml (5,66 gradi Mw), con medesimo meccanismo focale del precedente. L’accelerazione massima al suolo all’epicentro, espressa in percentuale della accelerazione di gravità (9,81 m/s2), è stata calcolata pari a 0,303g per il sisma del 20 maggio e 0,29g per quello del 29, non considerando alcuni effetti di sito che hanno prodotto accelerazioni locali fino a 1 g.
Dall’analisi della sismicità storica si evince dei cataloghi parametrici che gli unici eventi significativi erano stati il terremoto di Ferrara del 1570 e quello di Finale Emilia del 1639, entrambi di magnitudo < 6. Altresì le nuove mappe di pericolosità sismica prevedevano per l’area dell’epicentro una accelerazione orizzontale non superiore a 0,15g (per un periodo di ritorno di 475 anni). Per poter riscontrare valori dell’ordine almeno di 0,3g si devono invece considerare carte di pericolosità sismica con periodo di ritorno di 2475 anni. Questo significa che nell’arco di 10 giorni si sono verificati per due volte quelli che vengono definiti per l’area in esame eventi massimi attesi, creando indubbiamente problematiche in merito alla attendibilità della mappe di rischio sismico, scaturite da approcci di tipo puramente probabilistico.
Anche nel settore assicurativo il sisma Emiliano ha costituito un unicum, soprattutto nel numero assai rilevante di polizze coinvolte nell’evento calamitoso: considerato infatti a livello probabilistico il rischio sismico quasi assente per la zona emiliana, la garanza terremoto era stata in alcuni casi addirittura “regalata”, cioè inserita in polizza senza aumento del premio.
Dal punto di vista tecnico-ingegneristico i problemi sono stati notevoli: fino al 2003 le aree epicentrali non erano state considerate sismiche, quindi nessuna specifica normativa antisismica era stata adottata nel campo delle costruzioni e probabilmente questo fattore ha contribuito al grave danneggiamento di migliaia di capannoni industriali. Infatti è stato riscontrato che la maggior parte degli edifici industriali gravemente compromessi e/o crollati presentassero collegamenti tra gli elementi prefabbricati in appoggio, nei quali la trasmissione delle forze orizzontali era stata affidata al solo attrito, fattispecie questa non permessa per gli edifici che venivano edificati in zone classificate sismiche.
Come si può ben comprendere, in numerosi casi è necessario che la sismicità venga studiata mediante un approccio deterministico, ottenuto estraendo da un catalogo di sismicità storica uno o più terremoti significativi e simulando con modelli teorico-numerici i meccanismi di sorgente e la propagazione delle onde in superficie. Si esegue in questo caso una analisi di scenario, che riporta gli effetti sul costruito a seguito di uno specifico evento sismico di data severità e caratteristiche fisiche. Il metodo utilizza una correlazione empirica, denominata curva di fragilità, tra il livello di danno, qualità dell’edificio e parametro scelto per misurare la severità della scossa. L’input sismico di riferimento può essere scelto tra quelli più probabili, oppure selezionato tra gli eventi massimi attesi con periodo di ritorno almeno di 475 anni. Come indicatore dello scenario sismico può essere assunto il costo dei danni diretti agli edifici (danno economico atteso), l’entità del danno fisico agli edifici, il numero di vittime e feriti (impatto sulla popolazione). E’ intuitivo che i risultati provenienti dalla costruzione di uno scenario sismico di danno siano tanto più accurati e attendibili quanto più sono precise, complete ed analitiche le informazioni in merito alla valutazione della pericolosità, degli eventuali effetti di sito, nonché della vulnerabilità degli edifici.
Il metodo ha molteplici impieghi pratici e può trovare applicazione diretta anche nel campo peritale, ad esempio, per l’analisi di compatibilità tra l’evento sismico ed il quadro fessurativo riscontrato su un immobile danneggiato. Si riporta un caso pratico, relativo ad un sinistro denunciato a seguito del sisma occorso il 23 dicembre 2008, il cui epicentro era stato localizzato a Canossa, tra Parma e Reggio Emilia, caratterizzato da una magnitudo 5,2 Ml (4,9 Mw) e profondità epicentrale di 27 km, pertanto lo scuotimento è stato avvertito in un’area molto vasta. Erano stati riportati danni nell’area epicentrale al patrimonio ecclesiastico e a edifici storici, ma senza feriti. A seguito del sisma ci giungeva segnalazione di danno ad uno stabilimento industriale, edificato negli anni ’70 e sviluppato su due piani fuori terra, posto a Gambara (BS), a circa 75 km dall’epicentro (in zona 4, secondo l’Ordinanza 3274/03). Dal rilevamento dei dati da parte dell’INGV emergeva che la città di Brescia aveva subito, secondo la Scala Mercalli Modificata, un risentimento macrosismico di 4. E’ stato però sin da subito chiaro che, trattandosi di un terremoto con ipocentro profondo, la distribuzione degli effetti è irregolare ed influenzata da possibili effetti di sito.
Il sopralluogo aveva consentito di eseguire un accurato rilievo materico, tipologico e del quadro fessurativo a carico della struttura, che si presentava diffuso, in alcuni punti con lesioni passanti che interessavano anche giunti strutturali, di recente genesi. Il calcolo di vulnerabilità sismica dell’edificio, differentemente, restituiva un valore dell’indice medio/basso che, riportato nelle curve di fragilità, esprimeva un livello di danneggiamento non compatibile con quello osservato.
Si è visto in precedenza che, affinché una dinamica lesiva a carico di un fabbricato possa essere connessa ad un evento sismico di determinata intensità, si deve valutare come l’onda si propaghi dall’ipocentro al sito considerato, condizionata questa dalla stratigrafia terreno e dalla morfologia del territorio (pericolosità locale). Al fine di computare l’accelerazione orizzontale di picco manifestatasi nell’ubicazione di rischio si sono adottati specifici modelli di attenuazione per ottenere un quadro areale della distribuzione della severità dell’evento. Applicando tale modellazione si è giunti a calcolare una accelerazione orizzontale (di base) di 0,027 g, valore alquanto basso per poter giustificare le lesioni osservate. Dovendo escludersi anche una eventuale amplificazione geomorfologica, trattandosi di un sito in pianura, l’ultima indagine da svolgere era di carattere litostratigrafico (anche perché la tavola di pericolosità sismica comunale individuava un ampio territorio interessato da possibili amplificazioni imputabili al terreno). Dalle indagini geologiche, geotecniche e idrogeologiche emersero alcune particolarità. L’azienda era stata edificata sul ‘confine’ di due unità geomorfologiche distinte, fattispecie che male si combinava con un sistema fondazionale costituito da plinti a bicchiere, suscettibili a possibili cedimenti differenziali. Altresì nei pressi dello stabilimento sorgeva un’area depressa occupata in passato da paludi, che pochi mesi prima era stata anche interessata da allagamenti per sensibile innalzamento della falda e dove si è poi accertato che si fossero innescati fenomeni di subsidenza. E’ stato quindi possibile ricondurre la maggior parte dell’articolato quadro fessurativo a fenomeni di locale disomogeneo abbassamento del terreno; solo una minima parte delle lesioni era effettivamente riconducibile al sisma, che comunque si era rilevato più dannoso del previsto a causa della differente risposta data dai due terreni su cui sorgeva l’edificio, nonché da un fattore di amplificazione sismica di 2,2 generato da uno di questi.
In relazione alla importanza nella costruzione di scenari sismici, si pensi solo che il Dipartimento di Protezione Civile ha sviluppato un Sistema Informativo per la Gestione dell’Emergenza (S.I.G.E.) che ha la capacità di fornire – a pochi minuti da un evento tellurico – un quadro territoriale dell’area colpita in termini di numero di edifici crollati, inagibili, danneggiati, nonché di vittime, feriti, senza tetto, per tutti i comuni ricadenti in un intorno di 50 Km dall’epicentro, indicando oltre ai valori medi anche i limiti inferiori e superiori che costituiscono indirettamente una misura della incertezza insita nelle stime. E’ chiaro che la funzione degli scenari sia indispensabile, ex post evento, per il dimensionamento delle risorse economiche, materiali, umane da mettere in campo per fronteggiare la crisi. Tali considerazioni possono e devono essere fatte anche in campo assicurativo, in quanto gli scenari risultano essere potenti strumenti predittivi del possibile danneggiamento e del coinvolgimento della popolazione, subito applicabili a seguito di un evento, risultando essenziali per l’impiego ed il coordinamento della rete agenziale e peritale sul luogo, per la valutazione di eventuali interventi suppletivi di reti peritali esterne all’area colpita e, soprattutto, fornendo immediatamente valori medi del danno atteso, sia in termini fisici che economici. Quest’ultimo dato riveste importanza strategica per le Compagnie Assicurative e Riassicurative nel campo della riservazione economica dei danni, sia globali che puntuali, nell’immediato post-sisma, in quanto consente alle stesse di avviare piani e programmi economici e finanziari mirati e correttamente dimensionati.
Quanto sin qui esposto mette in evidenza una caratteristica che le Compagnie non sottovalutano: le polizze contro i rischi catastrofali soffrono la mancanza di dati attuariali univoci, a differenza di molti altri ambiti di rischio assicurati, e questo non consente di caratterizzare l’andamento degli impatti economici. Proprio il problema di perdite irregolari, non prevedibili su base statistica se non su archi temporali significativi, comporta una certa instabilità finanziaria nelle Assicurazioni, che potrebbero trovarsi a sopportare rapide e massicce richieste indennitarie in seguito a terremoti altamente distruttivi con basso grado di probabilità di accadimento (come occorso in parte nel caso del terremoto in Emilia).
Prescindendo dalla evidente necessità di dover giungere a costruire una corretta modularità fra copertura statale e del comparto privato, l’impegno costante a migliorare le capacità predittive dei modelli statistico/matematici e deterministici ad oggi elaborati, affiancato all’attento controllo dell’assunzione dei rischi e dei cumuli nascosti, opera proprio in tale direzione, cercando di fornire indicazioni sempre più attendibili e definite in rapporto al rischio sismico.
Commenti recenti