1° esempio di elaborazione, maggiori informazioni al seguente link
le prime esperienze ai acquisizione con il prototipo HVSR a 16 bit ora superato sa quello a 24 bit
le prime esperienze ai acquisizione con il prototipo HVSR a 16 bit ora superato sa quello a 24 bit
il sondaggio è stato fornito dall'Ing. Corrado Pecora corredato dei dati e settaggi di acquisizione cartografie geologiche, foto e veloce interpretazione dei file SAF acquisiti per avere una visione di massima dei tre sondaggi HVSR.
Dati utili sondaggio
Utili e fondamentali sono le indicazioni inserite per ogni test:
meteo - vento in particolare, presenza di rumore antropico, presenza di alberi o arbusti erba o suolo arido, vicinanza di rii o corsi d'acqua, morfologico del sito, vicinanza a strade, orario esecuzione sondaggio e tutti gli elementi che permettono di dare un giudizio sulla bontà o meno del sondaggio ed eventualmente capire le cause di segnali anomali che dovranno non essere considerati durante le fasi di elaborazione.
Esame del segnale acquisito
Gepsy dispone nella parte bassa della videata delle tre tracce sismiche di tre cursori che hanno scopo di ingrandire le tracce asse x, y e se ingrandite farle scorrere i segnali per vederli nei minimi dettagli.
L'ampiezza settata non influisce sul risultato dell'elaborazione ma è conveniente regolarla per evidenziare il microtremore dal rumore ambientale che non va selezionato nella fase di elaborazione.
Un segnale troppo piatto non permette di discretizzare il segnale vero da quello generato da fenomeni ambientali ed antropici.
Per ottimizzare il grafico si consiglia di ingrandire il segnale fino a quando i tre grafici si toccano, in questo modo è possibile individuare il segnale vero linea fine nera e continua dai rumori caratterizzati dai picchi random.
Dall'immagine si nota una corrispondenza dei tre segnali, se quello verticale (il primo) rivela un rumore tale da ripetersi anche sugli altri canali orizzontali.
In realtà i due orizzontali pur avendo il vero microtremore di ampiezza simile mostra più rumori random, la causa probabilmente è dovuta alla vegetazione presente nella zona.
Nella descrizione del sondaggio si legge che il vento è limitato e la presnza di alberi a distanza maggior di 10 metri:
Tale distanza , a causa di una elevata , forse anche eccessiva amplificazione strumentale evidenzia nonostante la minima brezza , le vibrazioni indotte dal fogliame al tronco e di conseguenza alle radici generando amplificazioni alle componenti orizzontali.
Nonostante tale effetto che normalmente porta ad un aumento dell'ofset dell'hvsr a valori superiori a 1 non viene evidenziano nel risultato finale.
Nel caso di sondaggi in zone urbane potrebbe succedere di avere grafici come quello sopra mostrato, in tal caso è necessario apportare le modifiche all'hardware per ridurne la sensibilità da 10000 a 2000 e in qualche caso anche a 300 x.
Nel nostro caso è solo un problema di settaggio dell'ampiezza del segnale, basta ridurre l'ampiezza a valori della penultima figura.
per la stampa si consiglia di ridurre l'ampiezza di un 50 % per migliorare la resa grafica dell'elaborato.
La figura mostra il dettaglio del segnale acquisito che si presenta di ottima qualità nonostante che il segnale acquisito è stato amplificato di un fattore di 10000 volte, quasi come se fossimo in presenza di onde ottenute con la sismica a rifrazione ce generalmente di ordine 100 - 1000 volte più grandi....
Considerazioni sul badsample threshold
Secondo le direttive di Sesame per analizzare un sondaggio da 100 a 0,5 hz occorre eseguire il calcolo con finestre di durata pari a 10 volte il periodo minimo che si vuole analizzare
Per 0,40 hz l'ampiezza della finestra minima = 1/0,4 x 10 = 25 secondi
Per 0,50 hz l'ampiezza della finestra minima = 1/0,5 x 10 = 20 secondi
per 1,00 hz l'ampiezza della finestra minima = 1/1,0 x 10 = 10 secondi
Altro valore da considerare che consiglio di usare è la durata totale della durata delle finestre registrate pari a 10 volte la durata della finestra iesima
caso 0,40 hz 250 - 500 secondi
caso 050 hz 200 - 400 secondi
La si sopra di 1 hz consiglio di usare valori non inferiori a 200 secondi
Nel caso in fase di elaborazione con una durata da 20 - 50 secondi consiglio di utilizzare il valore più cautelativo.
( il valore della durata delle tracce selezionate assieme ad altri parametri si può rintracciare nel file nome sondaggio.HV)
Sono diverse le tecniche di elaborazione:
Alcuni prendono tutto il segnale e/o quasi e lo elaborano con un bad sample thresond elevato > 75%
Altri usando un valore intermedio tra 25- 75%
Altri riducendo al minimo il numero di finestre selezionate ma in numero maggiore di 10 come prescritto dalle specifiche Sesame che derivano da regole basilari della fisica,
Sappiamo tutti che per campionare un dato a 1 hz occorre campionare almeno 2 campioni secondo ma la fisica e l'esperienza c'insegna che se ne campioniamo 10 o 20 hz il risultato dell'FFT è migliore.
Normalmente campionando per 30 minuti 10 15 finestre sono sufficienti per l'elaborazione anche se certi operatore ne ricavano 50 - 100.
Occorre tenere presente che aumentando il numero di finestre si aumenta la probabilità d'inserire nell'array dell' FFT rumori non appartenenti a rumore estranei ai microtremori: auto, azione del vento, rumori antropici ecc., quindi come in tutte le medie il risultato finale non è più la media dei valori dei microtremori ma una media ti tutti i segnali veri e i rumori selezionati.
Occorre far notare che i rumori hanno ampiezza superiore a quella dei microtremori e quindi anche il peso sul risultato finale è preponderante e sfalzante.
Per aumentare l'affidabilità del dato da ottenere la soluzione è quella di eseguire sondaggi di 1 o più ore, in questo modo statisticamente è più probabile registrare segnali utili.
La domanda è : aumentando la durata dell'acquisizione devono aumentare anche le finestre da considerare ?
Allungare la durata della registrazione serve in due casi:
1) in caso di rumori antropici, vento, auto, con un tempio doppio di acquisizione è più probabile raggiungere almeno le 10 finestre necessarie da selezionare per l'elaborazione.
2) per indagare stratigrafie profonde superiori ai 100 metri di profondità
Caso di un'acquisizione di 30 secondi
Se con bad sample thresold = 20 , ad esempio otteniamo 10 finestre da 20 secondi,
Caso di un'acquisizione di 60 secondi
Sempre con il medesimo bad sample thresold statisticamente avremo la probabilità di ottenere il doppio di finestre utili circa 20 se le condizioni ambientali non sono modificate.
Sicuramente eseguire la nuova elaborazione permetterebbe di avere una elaborazione migliore perché realizzata con il doppio di finestre.
Ma riducendo a 10 finestre l'elaborazione ha la possibilità statisticamente di elaborare una serie di finestre che statisticamente sono migliori delle ipotetiche 20 finestre acquisiti pertanto il segnale elaborato ci permetterà di avere un grafico Hvsr più dettagliato e preciso.
Per venire in contro alle due esigenze si può optare su soluzioni intermedie
con 30 secondi 10 -20 finestre
con 60 secondi 15 -30 finestre
con 120 secondi 20 - 40 finestre
con più 180 secondi 25 - 50 finestre al massimo.
In tutti i casi prendere in considerazione anche di doli 10 - 20 secondi per valutare le differenze.
Solo nei casi con basso rumore su tutto il segnale con assenza di vento , rumori antropici ed auto il numero di finestre può aumentare.
Nella serie di immagini seguente possiamo vedere come cambia l'aspetto dell'hvsr riducendo il Bad sample thresold.
prima elaborazione
E stato selezionato tutto il sondaggio come è chiaramente dimostrato da grafico delle tre tracce sismiche registrate.
La selezione di tutto il grafico è possibile solo disattivando i check di bad sample thresold e i due successivo, hanno il compito di eliminare tutti i segnali molto rumorosi ( se non si attivano il segnale viene elaborato nella sua completezza,
In questo caso il grafico ottenuto si presenta con tutte le componenti registrate compresi i rumori antropiche, il vento le auto oltre al microtremore unico segnale utile per l'elaborazione.
E' da far notare che il microtremore oggetto è più piccolo del rumore ambientale , quindi in fase di FFT il contributo dei microtremori e di gran lunga inferiore a quello generato dai rumori e quindi il grafico HVSR ottenuto si rivela molto sporco, fattore questo che porta ad avere un segnale finale, molto lisciato , scarso di particolar con picchi di HVSR relativamente piatti e privi di dettaglio
In questo caso il grafico ottenuto si presenta con tutte le componenti registrate compresi i rumori antropiche, il vento le auto oltre al microtremore unico segnale utile per l'elaborazione.
E' da far notare che il microtremore oggetto è più piccolo del rumore ambientale , quindi in fase di FFT il contributo dei microtremori e di gran lunga inferiore a quello generato dai rumori e quindi il grafico HVSR ottenuto si rivela molto sporco, fattore questo che porta ad avere un segnale finale, molto lisciato , scarso di particolar con picchi di HVSR relativamente piatti e privi di dettaglio
Tale peggioramento del segnale cresce con la diminuzione della frequenza specie al di sotto dei 4,5 Hz per toccare le punte massime sotto 1 Hz,
Tale comportamento negativo si attenua procedendo nella visualizzazione delle immagini che seguono.
In questo caso si sono selezionati i check di bad sample thresold e i due successivo, per eliminare i segnali molto rumorosi in maniera automatica.
In questo caso parte dei tre segnali acquisiti sono su sfondo bianco fatto questo che indica che i segnali considerati sono particolarmente rumorosi e quindi non utili per essere utilizzati e quindi scartati dalle successive analisi spettrali.
Il risultato ottenuto è ancora scadente quindi occorre operar con la funzione Bad sample thrsold.
Il valore impostato va da 99 a 1 % ed è riferito al rapporto tra il valore massimo misuraro e il valore in apmiezza che si vole utilizzare per seguire l'analisi del segnal.
Nel caso di 99 % si considera tutto il segnale,
Con valore 60 % si prendono in considerazione solo i segali che hanno un'ampiezza non superiore al 60 % dell'ampiezza massima registrata.
Con il valore 5% si prendono in considerazione solo i segnali molto piccoli,
Riducendo tale valore si riducono il numero di finestre selezionate che non devono essere inferiori a 10.
Ora si può provare a ridurre ulteriormente il bad sample thresold da 99 a 75% per vedere se è possibile deselezionare i segnali in ampiezza esageratamente elevati rispetto al microtremore misurato.
Le finestre selezionate passano dal 94 a 88, eccessive rispetto alle 10 - 20 ottimali che garantiscono un buon risultato finale dell'operazione.
Al di sotto di 1 hz abbiamo ancora molto rumore selezionato , è consigliato proseguire la riduzione ulteriore del bad sample thresold al 50 %
Con il Valore di 50% il segnale incomincia a diventare più pulito ma ancora coesistono ai microtremori molti rumori random.
Le Vindows attive sono passate da 88 a 67, ancora troppo numerose de ci riferiamo a 10/ 20 finestre
pertanto è consigliabile ridurre ulteriormente il bad sample da 50 a 25%
Con Badsample thresold = 25% il segnale ottenuto incomincia a migliorare, le finestre selezionate scendono a 47, il segnale diventa meno sporco dai rumori random antropici anche se la linea continua nera è praticamente sovrapponibile alle precedenti anche se incomincia a presentare un maggiore dettaglio e definizione in particolare nel tratto tra 0 - 1 hz dove incomincia a differenziarsi rispetto alle precedenti elaborazioni.
Meno tracce selezionate presentano segnali rumorosi mentre i rumori rumori antropici principali si trovano su sfondo bianco in quanto deselezionati dal calcolo.
Proviamo ancora con Badsample thresold = 12% , per la prima volta le finestre scendono al di sotto di 20 ( sono 17).
A prima vista abbiamo un segnale depurato dai rumori antropici e anche la linea continua nera che mantiene la originaria forma tra 1- 100 hz risulta più definita e meno "piallata" dai rumori superflui.
A prima vista abbiamo un segnale depurato dai rumori antropici e anche la linea continua nera che mantiene la originaria forma tra 1- 100 hz risulta più definita e meno "piallata" dai rumori superflui.
Per ottenere un buon risultato non servono molte finestre specialmente se siamo in ambienti rumorosi in quanto il rumore bianco diffuso porta ad un lisciamento del segnale, ad un appiattimento del medesimo e in casi di picchi o avvallamenti questi saranno meno evidenti quindi è conveniente trattare segnali a piccola ampiezza.
Al di sotto di 1- 4,5 Hz si possono anche avere delle deformazioni dei risultati che si riperquoterebbero anche sulla stratigrafia elaborata.
A questo punto il segnale è sufficientemente ripulito per continuare con " dinver " per il calcolo della stratigrafia finale.
Il risultato ottenuto con 17 finestre attivate risulta ottimale, la linea nera continua è sufficientemente modulata in grado di fornir informazioni dettagliate sella stratigrafia,
A questo punto possiamo tentare un ulteriore miglioramento del segnale eliminando alcun indosr che se pur selezionate hanno rumori elevati ripetto alla maggioranza dei segnali acquisiti,
Attivando la funzione select time windows come quelli evidenti 2 immagini precedenti specie nel tratto tra 0 e 1 hz.
La selezione e l'eliminazione ha permesso di migliorare il segnale ottenuto nel tratto di frequenze indicato,
Per completare e migliorare anche graficamente il segnale ottenuto ad arrotondare il segnale portando il filtro da un valore iniziale di 45 a 30 %.
Nel contempo si è provveduto a zumare il segnale per meglio apprezzare le variazioni HVSR tagliando parte del picco a 80 hz.
In questa ultima fase sono stati evidenziati i principali picche del segnale ognuno di essi, conoscendo la stratigrafia del sito potrebbero esser associati alle principali variazioni stratigrafiche.
Segue il confronto tra segnale trattato con
bad sample thresold 75% - 1° immagine
bad sample theesold 12 % - 2° immagine
si può notare che al di sopra dei 4,5 hz le differenze , sia in termini di frequenza che di ampiezza non sono elevate,al di sotto dei 4,5 hz il 2° risultato è nettamente più definito in quanto non mediato dai tanti rumori costituenti i primi tentativi di elaborazione
Osservando le 2 precedenti immagini appare chiaro che nella seconda le linee tratteggiate sono molto vicine a quella nera intera, cio è dovuto al fatto che sono state selezionate windows con segnali meno rumorosi.
la prima immagine essendo costituita da segnali relativamente sporchi porta ad avere l'allontanamento delle linee tratteggiate segno di una eleveta dispersione del segnale acquisito che normalmente porta all'appiattimento del segnale.
Conclusioni
Da quanto sopra è emerso si può concludere che per avere un buon risultato non conviene selezionare tutte le finestre ottenibili ma solo quelle che rilevano periodi di acquisizione con ampiezza estremamente bassa con finestre sufficientemente ampie per dare informazioni utili fino alla profondità che si vuole raggiungere.
1) non elaborare meno si 10- 20 finestre anche a seconda della durata del sondaggio
2) le windows devono avere finestre temporali di ampiezza sufficiente per avere valori validi fino alla frequenza ( profondità) che si vuole investigare
3) aumentare la durata dell'acquisizione tanto è maggiore è la profondità da investigare.
4) a parità di profondità da investigare aumentare il tempo di acquisizione ance del doppio se presente vento, rumori antropici, traffico veicolare ecc. l'allungamento della registrazione allungando il tempo di acquisizione , statisticamente, un maggior numero di ginestre utili con poco rumore per avere almeno le 10 finestre valide per seguire l'elaborazione.
Eseguire un sondaggio da 30 minuti e settare i parametri per ottenere ad esempio 20 finestre utili equivale ad eseguire un sondaggio da 60 minuti ed ottenere 40 finestre o da 120 minuti con 80 finestre ( mantenendo il Bad sanples thresold costante)
Ciò vuol dire che possono esserci solo dei piccolissimi miglioramenti sui dati ottenuti solamente perché le finestre selezionate sono più numerose , ma statisticamente anche altrettante meno pulite.
Per ottenere i migliori risultati è ridurre ulteriormente le 20, 40, 80 finestre a 10 - 20 finestre, in questo modo si ha una ulteriore selezione di finestre con il minor rumore ambientale possibile rendendo il risultato finale sempre più affidabile.
In caso di segnali rumorosi , esempio nelle vicinanze di vie di comunicazione con elevato traffico ( più di un auto ogni 30 secondi occorre diminuire l'ampiezza temporale delle windows a tempi inferiori nel caso di 30 secondi usare finestre da 15, ovviamente avendo ridotto tale valore la profondità d'investigazione diminuisce mentre deve aumentare il numero di secondi utile totale che è rappresentata dalla sommatoria della durata di tutte le finestre iesime che dovrà superare almeno i 200 secondi ( meglio se 400 secondi)
quindi con windows da:
In tutti i casi nel caso in cui non si riescono ad avere più di 10 finestre utili con solo microtremore conviene eseguire il sondaggio , nel caso di strade trafficare nelle ore notturne e nel caso di brezze conviene rimandare il sondaggio in momenti in cui il vento è più attenuato, in questo caso possono essere utili siti meteo dove prevedono la velocità del vento nell'arco delle ore della settimana.Eseguire un sondaggio da 30 minuti e settare i parametri per ottenere ad esempio 20 finestre utili equivale ad eseguire un sondaggio da 60 minuti ed ottenere 40 finestre o da 120 minuti con 80 finestre ( mantenendo il Bad sanples thresold costante)
Ciò vuol dire che possono esserci solo dei piccolissimi miglioramenti sui dati ottenuti solamente perché le finestre selezionate sono più numerose , ma statisticamente anche altrettante meno pulite.
Per ottenere i migliori risultati è ridurre ulteriormente le 20, 40, 80 finestre a 10 - 20 finestre, in questo modo si ha una ulteriore selezione di finestre con il minor rumore ambientale possibile rendendo il risultato finale sempre più affidabile.
In caso di segnali rumorosi , esempio nelle vicinanze di vie di comunicazione con elevato traffico ( più di un auto ogni 30 secondi occorre diminuire l'ampiezza temporale delle windows a tempi inferiori nel caso di 30 secondi usare finestre da 15, ovviamente avendo ridotto tale valore la profondità d'investigazione diminuisce mentre deve aumentare il numero di secondi utile totale che è rappresentata dalla sommatoria della durata di tutte le finestre iesime che dovrà superare almeno i 200 secondi ( meglio se 400 secondi)
quindi con windows da:
secondi -- numero finestre -- Hz
25 10 - 16 0,40
20 10 - 20 0,50
15 13 - 26 0,66
20 10 - 20 0,50
15 13 - 26 0,66
10 20 - 40 1,00
Nessun commento:
Posta un commento