Seismic risk assessment models have played a pivotal role in guiding decision-making for a wide variety of purposes in recent decades. Ideally, these models would rely on empirical ground motion, damage and loss data derived from historical seismic events. However, due to the limited availability of such data, risk models resort to analytical frameworks where future earthquake scenarios, with some annual occurrence rates, are realistically simulated. Despite the progress that has been facilitated by new tools and increased data availability in recent years, several modeling decisions that are still routinely adopted require some scrutiny. Firstly, the rate of occurrence of events in these models is derived from the historical and instrumental seismicity catalogues that are declustered, i.e. earthquake clusters (in time and space) are detected and only one event in each cluster (classified as the mainshock) is kept, while the remaining events (aftershocks, foreshocks and other triggered events) are disregarded. For modeling realistic earthquake sequences, we used the Epidemic-Type-Aftershock-Sequence (ETAS) model, which is considered the state-of-the-art approach for generating realistic earthquake clusters. Secondly, in addition to the potential underestimation of seismic hazard due to disregarding non-mainshock events, the conventional mainshock-only risk assessment approach implicitly assumes that the bulk of risk is caused by mainshocks. In other words, events beyond the mainshock do not contribute to causing additional structural damage and losses. In essence, traditional seismic risk models suppose that buildings are repaired after each event, an operation that often does not happen, leaving already damaged structures in a more vulnerable state. Leveraging experimental data, we calibrated a modified Park and Ang damage index that is more suitable for modeling damage progression. Thirdly, another key ingredient for obtaining an accurate risk estimate is the link between seismic hazard at the site of interest and structural fragility. When fragility curves are analytically derived, a hazard-consistent selection of ground motions to be utilized to run nonlinear response history analysis on the structure(s) of interest is necessary. However, to enforce hazard-consistency in record selection one would need to have a large pool of strong ground motions at one’s disposal. This is hardly ever the case. As a consequence, the analyst is usually left with the suboptimal option of augmenting the set by scaling weaker ground motions, an operation that potentially may bias the structural response estimates. Our investigation into this practice revealed that scaling ground motions does not cause statistically significant differences in structural response estimates, provided that hazard consistency is carefully maintained in ground motion record selection, for example by using methods such as the Conditional Spectrum. Fourthly, given our objective of including all earthquakes and the deterioration of the structural integrity due to previous shocks into the risk assessment analysis, the derivation of site- and building-specific damage-state-dependent fragility curves is a must. To this end, we investigated the issue of selecting aftershock ground motions that are consistent with the mainshocks that may be experienced at the site of interest. This thesis emphasizes the significance of incorporating clustered seismicity into seismic risk models. The consideration of only mainshocks in risk assessment is simply not tenable anymore, as made abundantly clear by the many sequences that occurred all over the world in the past decades. This work addresses various critical issues pertaining to seismic hazard, fragility, and record selection, bridging existing gaps and laying the groundwork for future research.

Negli ultimi decenni i modelli di valutazione del rischio sismico hanno svolto un ruolo fondamentale nel guidare il processo decisionale per un'ampia varietà di scopi. Idealmente, questi modelli dovrebbero basarsi su dati empirici relativi al moto del suolo, ai danni e alle perdite derivanti da eventi sismici storici. Tuttavia, a causa della limitata disponibilità di tali dati, i modelli di rischio ricorrono a metodi analitici in cui vengono realisticamente simulati scenari futuri di terremoto con tassi di occorrenza annuali stimati. Nonostante i progressi compiuti negli ultimi anni grazie a nuovi strumenti e a una maggiore disponibilità di dati, diverse decisioni di modellazione che vengono ancora adottate di routine richiedono uno scrutinio più accurato. In primo luogo, il tasso di occorrenza degli eventi in questi modelli è derivato dai cataloghi di sismicità storica e strumentale che vengono declusterizzati, cioè vengono individuati cluster di terremoti (nel tempo e nello spazio) e viene mantenuto solo un evento in ogni cluster (classificato come mainshock), mentre i restanti eventi (aftershock, foreshock e altri eventi innescati) vengono trascurati. Per modellare sequenze di terremoti realistiche, abbiamo utilizzato il modello Epidemic-Type-Aftershock-Sequence (ETAS). In secondo luogo, oltre alla potenziale sottostima della pericolosità sismica dovuta al fatto che non si tiene conto degli eventi che non siano il mainshock, l'approccio convenzionale di valutazione del rischio legato alle sole scosse di mainshock presuppone implicitamente che la maggior parte del rischio sia causato soltanto da quelle scosse. In sostanza, i modelli di rischio sismico tradizionali suppongono che gli edifici vengano riparati dopo ogni evento, operazione che spesso non avviene, essendo le strutture già danneggiate in realtà in uno stato più vulnerabile. Sfruttando i dati sperimentali, abbiamo calibrato un indice di danno di Park e Ang modificato, più adatto a modellare la progressione del danno. In terzo luogo, un altro ingrediente fondamentale per ottenere una stima accurata del rischio è il legame tra la pericolosità sismica del sito di interesse e la fragilità strutturale. Quando le curve di fragilità sono derivate analiticamente, è necessaria una selezione degli accelerogrammi da utilizzare per eseguire l'analisi della risposta non lineare sulla struttura (o sulle strutture) di interesse che sia coerente con la pericolosità al sito. Questo processo di selezione funge da interfaccia tra sismologia e ingegneria e l'importanza di utilizzare un insieme di accelerogrammi coerenti con la pericolosità sismica del sito di interesse è stata evidenziata chiaramente da numerosi studi in letteratura. Tuttavia, per applicare la coerenza con la pericolosità nella selezione degli accelerogrammi è necessario avere a disposizione un ampio bacino di moti del suolo sufficientemente forti. Questo non è quasi mai il caso. Di conseguenza, all'analista viene solitamente lasciata l'opzione di aumentare l'insieme scalando i moti al suolo più deboli, un'operazione che potenzialmente può falsare le stime della risposta strutturale. La nostra indagine su questa pratica ha rivelato che scalare glia ccelerogrammi non causa differenze statisticamente significative nelle stime di risposta strutturale, a condizione che la loro coerenza con la pericolosità al sito sia mantenuta attentamente nella loro selezione, ad esempio utilizzando metodi come lo spettro condizionato. Questa tesi sottolinea l'importanza di incorporare la sismicità dovuta alle sequenze di terremoti nei modelli di rischio sismico. La considerazione dei soli mainshocks nella valutazione del rischio non è più sostenibile, come è emerso chiaramente dalle numerose sequenze che si sono verificate in tutto il mondo negli ultimi decenni.

Valutazione del Rischio Sismico per RC Edifici con Sequenze Sismiche Incluse / Sipcic, Nevena. - (2024 May 23).

Valutazione del Rischio Sismico per RC Edifici con Sequenze Sismiche Incluse

SIPCIC, NEVENA
2024-05-23

Abstract

Seismic risk assessment models have played a pivotal role in guiding decision-making for a wide variety of purposes in recent decades. Ideally, these models would rely on empirical ground motion, damage and loss data derived from historical seismic events. However, due to the limited availability of such data, risk models resort to analytical frameworks where future earthquake scenarios, with some annual occurrence rates, are realistically simulated. Despite the progress that has been facilitated by new tools and increased data availability in recent years, several modeling decisions that are still routinely adopted require some scrutiny. Firstly, the rate of occurrence of events in these models is derived from the historical and instrumental seismicity catalogues that are declustered, i.e. earthquake clusters (in time and space) are detected and only one event in each cluster (classified as the mainshock) is kept, while the remaining events (aftershocks, foreshocks and other triggered events) are disregarded. For modeling realistic earthquake sequences, we used the Epidemic-Type-Aftershock-Sequence (ETAS) model, which is considered the state-of-the-art approach for generating realistic earthquake clusters. Secondly, in addition to the potential underestimation of seismic hazard due to disregarding non-mainshock events, the conventional mainshock-only risk assessment approach implicitly assumes that the bulk of risk is caused by mainshocks. In other words, events beyond the mainshock do not contribute to causing additional structural damage and losses. In essence, traditional seismic risk models suppose that buildings are repaired after each event, an operation that often does not happen, leaving already damaged structures in a more vulnerable state. Leveraging experimental data, we calibrated a modified Park and Ang damage index that is more suitable for modeling damage progression. Thirdly, another key ingredient for obtaining an accurate risk estimate is the link between seismic hazard at the site of interest and structural fragility. When fragility curves are analytically derived, a hazard-consistent selection of ground motions to be utilized to run nonlinear response history analysis on the structure(s) of interest is necessary. However, to enforce hazard-consistency in record selection one would need to have a large pool of strong ground motions at one’s disposal. This is hardly ever the case. As a consequence, the analyst is usually left with the suboptimal option of augmenting the set by scaling weaker ground motions, an operation that potentially may bias the structural response estimates. Our investigation into this practice revealed that scaling ground motions does not cause statistically significant differences in structural response estimates, provided that hazard consistency is carefully maintained in ground motion record selection, for example by using methods such as the Conditional Spectrum. Fourthly, given our objective of including all earthquakes and the deterioration of the structural integrity due to previous shocks into the risk assessment analysis, the derivation of site- and building-specific damage-state-dependent fragility curves is a must. To this end, we investigated the issue of selecting aftershock ground motions that are consistent with the mainshocks that may be experienced at the site of interest. This thesis emphasizes the significance of incorporating clustered seismicity into seismic risk models. The consideration of only mainshocks in risk assessment is simply not tenable anymore, as made abundantly clear by the many sequences that occurred all over the world in the past decades. This work addresses various critical issues pertaining to seismic hazard, fragility, and record selection, bridging existing gaps and laying the groundwork for future research.
23-mag-2024
35
COMPRENSIONE E GESTIONE DELLE SITUAZIONI ESTREME
Negli ultimi decenni i modelli di valutazione del rischio sismico hanno svolto un ruolo fondamentale nel guidare il processo decisionale per un'ampia varietà di scopi. Idealmente, questi modelli dovrebbero basarsi su dati empirici relativi al moto del suolo, ai danni e alle perdite derivanti da eventi sismici storici. Tuttavia, a causa della limitata disponibilità di tali dati, i modelli di rischio ricorrono a metodi analitici in cui vengono realisticamente simulati scenari futuri di terremoto con tassi di occorrenza annuali stimati. Nonostante i progressi compiuti negli ultimi anni grazie a nuovi strumenti e a una maggiore disponibilità di dati, diverse decisioni di modellazione che vengono ancora adottate di routine richiedono uno scrutinio più accurato. In primo luogo, il tasso di occorrenza degli eventi in questi modelli è derivato dai cataloghi di sismicità storica e strumentale che vengono declusterizzati, cioè vengono individuati cluster di terremoti (nel tempo e nello spazio) e viene mantenuto solo un evento in ogni cluster (classificato come mainshock), mentre i restanti eventi (aftershock, foreshock e altri eventi innescati) vengono trascurati. Per modellare sequenze di terremoti realistiche, abbiamo utilizzato il modello Epidemic-Type-Aftershock-Sequence (ETAS). In secondo luogo, oltre alla potenziale sottostima della pericolosità sismica dovuta al fatto che non si tiene conto degli eventi che non siano il mainshock, l'approccio convenzionale di valutazione del rischio legato alle sole scosse di mainshock presuppone implicitamente che la maggior parte del rischio sia causato soltanto da quelle scosse. In sostanza, i modelli di rischio sismico tradizionali suppongono che gli edifici vengano riparati dopo ogni evento, operazione che spesso non avviene, essendo le strutture già danneggiate in realtà in uno stato più vulnerabile. Sfruttando i dati sperimentali, abbiamo calibrato un indice di danno di Park e Ang modificato, più adatto a modellare la progressione del danno. In terzo luogo, un altro ingrediente fondamentale per ottenere una stima accurata del rischio è il legame tra la pericolosità sismica del sito di interesse e la fragilità strutturale. Quando le curve di fragilità sono derivate analiticamente, è necessaria una selezione degli accelerogrammi da utilizzare per eseguire l'analisi della risposta non lineare sulla struttura (o sulle strutture) di interesse che sia coerente con la pericolosità al sito. Questo processo di selezione funge da interfaccia tra sismologia e ingegneria e l'importanza di utilizzare un insieme di accelerogrammi coerenti con la pericolosità sismica del sito di interesse è stata evidenziata chiaramente da numerosi studi in letteratura. Tuttavia, per applicare la coerenza con la pericolosità nella selezione degli accelerogrammi è necessario avere a disposizione un ampio bacino di moti del suolo sufficientemente forti. Questo non è quasi mai il caso. Di conseguenza, all'analista viene solitamente lasciata l'opzione di aumentare l'insieme scalando i moti al suolo più deboli, un'operazione che potenzialmente può falsare le stime della risposta strutturale. La nostra indagine su questa pratica ha rivelato che scalare glia ccelerogrammi non causa differenze statisticamente significative nelle stime di risposta strutturale, a condizione che la loro coerenza con la pericolosità al sito sia mantenuta attentamente nella loro selezione, ad esempio utilizzando metodi come lo spettro condizionato. Questa tesi sottolinea l'importanza di incorporare la sismicità dovuta alle sequenze di terremoti nei modelli di rischio sismico. La considerazione dei soli mainshocks nella valutazione del rischio non è più sostenibile, come è emerso chiaramente dalle numerose sequenze che si sono verificate in tutto il mondo negli ultimi decenni.
BAZZURRO, PAOLO FRANCESCO
File in questo prodotto:
File Dimensione Formato  
Tesi Def Sipcic.pdf

accesso aperto

Descrizione: Tesi definitiva
Tipologia: Tesi di dottorato
Dimensione 8.18 MB
Formato Adobe PDF
8.18 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12076/17237
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact