Cerca i neutrini di Majorana sfruttando la criogenia in millikelvin con CUORE

Trigger ottimale e soglia di analisi

Il flusso di dati continuo di CUORE viene attivato con il trigger ottimale, un algoritmo basato sul filtro ottimale51 Caratterizzato da una soglia inferiore rispetto a un trigger derivato più standard32. Una soglia più bassa consente non solo di ricostruire la parte a bassa energia dello spettro, ma fornisce anche una maggiore efficienza nella ricostruzione degli eventi in coincidenza tra diversi calorimetri, e di conseguenza una comprensione più precisa delle corrispondenti componenti di fondo52.53.

La funzione di trasferimento trigger ottimale di ogni evento è adattata alla forma del segnale ideale, ottenuta come media di impulsi di buona qualità, in modo da sopprimere le componenti di frequenza con un basso rapporto segnale-rumore. Viene attivato un trigger se l’ampiezza del segnale filtrato supera un multiplo fisso del quadrato medio della radice del rumore (RMS), definito separatamente per ciascun calorimetro e set di dati. Valutiamo la soglia di energia iniettando falsi impulsi di ampiezza variabile, calcolati invertendo la funzione di calibrazione, nel flusso di dati. Ricostruiamo l’ampiezza stabilizzata degli impulsi falsi, adattiamo il rapporto tra eventi attivati ​​correttamente e eventi generati con una funzione di errore e utilizziamo il quantile del 90% come cifra di merito per la soglia di trigger ottimale. Questo approccio consente il monitoraggio della soglia durante la raccolta dei dati e si basa sul presupposto che la forma del segnale non dipenda dall’energia, ovvero che l’impulso medio ottenuto da γ events è anche un buon template per eventi di pochi keV. La distribuzione della soglia di energia al 90% di efficienza del trigger è mostrata nei dati estesi Fig. 4.

Per questo lavoro abbiamo impostato una soglia di analisi comune di 40 keV, che si traduce in un’efficienza di trigger >90% per la maggior parte (97%) dei calorimetri, consentendo allo stesso tempo la rimozione di eventi multi-Compton dalla regione di interesse attraverso il taglio anti-coincidenza.

Efficienze

L’efficienza totale è il prodotto delle efficienze di ricostruzione, anticoincidenza, discriminazione della forma del polso (PSD) ed efficienza di contenimento.

L’efficienza di ricostruzione è la probabilità che un evento del segnale sia attivato, abbia l’energia adeguatamente ricostruita e non sia rifiutata dai tagli di qualità di base che richiedono una tensione di pre-trigger stabile e un solo impulso nella finestra del segnale. Viene valutato per ciascun calorimetro utilizzando eventi riscaldatore segnalati esternamente54che sono una buona approssimazione di eventi simili a segnali.

L’efficienza anti-coincidenza è la probabilità che un vero evento a cristallo singolo superi correttamente il nostro taglio anti-coincidenza, invece di essere erroneamente posto il veto a causa di una coincidenza accidentale con un evento non correlato. Viene estratto come l’accettazione di essere completamente assorbito γ eventi a 1.460 keV dai decadimenti di cattura degli elettroni 40K, che forniscono un campione di riferimento di eventi a cristallo singolo.

L’efficienza PSD si ottiene come accettazione media degli eventi nel 60co, 40K e 208TL γ picchi che hanno già superato la base e tagli anti-coincidenza. In linea di principio, l’efficienza del PSD potrebbe essere diversa per ciascun calorimetro, ma date le statistiche limitate nei dati fisici, la valutiamo su tutti i canali e sull’intero set di dati. Per tenere conto della possibile variazione tra i singoli calorimetri, confrontiamo l’efficienza PSD ottenuta sommando direttamente i loro spettri individuali con quella estratta da una somma ponderata per l’esposizione degli spettri dei calorimetri. Troviamo una discrepanza media di ±0,3% tra i due valori e la includiamo come incertezza sistematica globale nello 0νββ adatto. Questo richiede un priore gaussiano invece del priore uniforme usato nel nostro risultato precedente32la cui incertezza derivava da una discrepanza tra due approcci che da allora è stata risolta.

Infine, l’efficienza del contenimento viene valutata attraverso simulazioni Monte Carlo basate su Geant455 e tiene conto della perdita di energia dovuta agli effetti geometrici e alla bremsstrahlung.

Analisi delle componenti principali per PSD

In questa analisi utilizziamo un nuovo algoritmo basato sull’analisi delle componenti principali (PCA) per la discriminazione della forma dell’impulso. Il metodo è stato sviluppato e documentato per CUPID-Mo56ed è stato adattato per l’uso in CUORE57. Questa tecnica sostituisce l’algoritmo utilizzato nei precedenti risultati CUORE, basato su sei variabili di forma dell’impulso30. La scomposizione PCA di eventi simili a segnali è stata estratta γ i picchi di calibrazione producono una componente principale simile a un impulso medio, che da solo cattura >90% della varianza tra gli impulsi. Scegliamo di trattare l’impulso medio di ciascun calorimetro in un set di dati come se fosse il componente principale della PCA, normalizzandolo come un autovettore PCA. Possiamo quindi proiettare qualsiasi evento dallo stesso canale su questo vettore e tentare di ricostruire la forma d’onda di 10 secondi utilizzando solo questo componente principale. Per qualsiasi forma d’onda X e principale componente PCA w con lunghezza ndefiniamo l’errore di ricostruzione come:

$${rm{RE}}=sqrt{mathop{sum }limits_{i=1}^{n}{({{bf{x}}}_{i}-({bf {x}}cdot {bf{w}}){{bf{w}}}_{i})}^{2}}.$$

(uno)

Questa metrica dell’errore di ricostruzione misura quanto bene una forma d’onda di un evento può essere ricostruita utilizzando solo l’impulso medio trattato come componente principale della PCA. Gli eventi che si discostano dalla tipica forma prevista di una forma d’onda del segnale sono scarsamente ricostruiti e presentano un elevato errore di ricostruzione. Normalizziamo gli errori di ricostruzione come una funzione polinomiale del secondo ordine dell’energia sulla base di un set di dati calorimetrico (vedi dati estesi Fig. 5) e riduciamo i valori normalizzati ottimizzando una figura di merito per l’efficienza del segnale rispetto allo sfondo previsto in il Qββ Regione di interesse. Utilizzando questo metodo basato su PCA, otteniamo un’efficienza complessiva del (96,4 ± 0,2)% rispetto al (94,0 ± 0,2)% dall’analisi della forma dell’impulso utilizzata nei nostri risultati precedenti, nonché una riduzione del 50% nel sistematico PSD incertezza dallo 0,6% allo 0,3%.

analisi statistica

La statistica di alto livello 0νββ L’analisi del decadimento consiste in un adattamento bayesiano non combinato sui dati combinati sviluppati con il pacchetto software BAT58. I parametri del modello sono 0νββ tasso di decadimento (Γ0v), uno sfondo con inclinazione lineare e il 60Ampiezza di picco della somma. Γ0v e il 60Cor rate sono comuni a tutti i set di dati, con il 60Cor rate ridimensionato di un fattore dipendente dal set di dati preimpostato per tenere conto del suo decadimento previsto nel tempo. Il tasso di fondo di base, espresso in termini di conteggi keV-1kg-1anno-1dipende dal set di dati, la pendenza lineare rispetto allo sfondo è condivisa tra tutti i set di dati, mentre qualsiasi struttura rispetto alla forma dello sfondo non dovrebbe variare tra i set di dati. Γ0vil 60Cor rate e i parametri della frequenza di fondo hanno priorità uniformi vincolate a valori non negativi, mentre la pendenza lineare rispetto allo sfondo ha una priorità uniforme che consente valori sia positivi che negativi.

Oltre a questi parametri statistici, consideriamo gli effetti sistematici indotti dall’incertezza sulla distorsione energetica e sulla risoluzione dell’energia59.60il valore di Qββl’abbondanza isotopica naturale di 130Te, e le efficienze di ricostruzione, anti-coincidenza, PSD e contenimento. Valutiamo i loro effetti separati sullo 0νββ rate aggiungendo parametri di disturbo all’adattamento uno alla volta e studiando entrambi gli effetti sulla modalità globale a posteriori ({hat{{Gamma }}}_{0nu }) e il limite di CI marginalizzato al 90%. Γ0v.

Un elenco delle sistematiche e delle priori è riportato nella tabella dei dati estesi 1. Le efficienze e l’abbondanza isotopica sono termini moltiplicativi sul nostro segnale atteso, quindi l’effetto di ciascuno è riportato come effetto relativo su Γ0v. Al contrario, le incertezze su Qββ, la polarizzazione dell’energia e il ridimensionamento della risoluzione hanno una relazione non banale con la velocità del segnale; pertanto, riportiamo l’effetto assoluto di ciascuno su Γ0v. L’effetto dominante è dovuto all’incertezza sulla distorsione energetica e sul ridimensionamento della risoluzione nei dati fisici. Teniamo conto delle possibili correlazioni tra i parametri di disturbo includendoli tutti simultaneamente nell’adattamento.

Abbiamo scelto un’uniforme prima del nostro osservabile fisico di interesse Γ0v, il che significa che consideriamo ugualmente probabile un numero qualsiasi di eventi segnale. Anche altre possibili scelte non informative potrebbero essere considerate appropriate. Poiché il risultato di qualsiasi analisi bayesiana dipende in una certa misura dalla scelta dei priori, abbiamo verificato in che modo altri ragionevoli a priori influenzano il nostro risultato57 . Abbiamo considerato: prima un’uniforme (sqrt{{{Gamma }}_{0nu }})equivalente a un’uniforme precedente mββ e anche equivalente all’utilizzo di Jeffrey prima; un’uniforme invariante di scala prima del logΓ0v; e una divisa prima del 1/Γ0vequivalente a un’uniforme precedente ({T}_{1/2}^{0nu }).

Questi priori sono tutti indefiniti a Γ0v= 0, quindi imponiamo un cut-off inferiore di Γ0v> 10−27anno-1, che con la data esposizione corrisponde a circa un evento segnale. Il caso con un’uniforme a priori (sqrt{{{Gamma }}_{0nu }}) dà l’effetto minimo e rafforza il limite del 25%, mentre l’appartamento precedente su 1/Γ0v fornisce l’effetto maggiore, aumentando il limite ({T}_{1/2}^{0nu }) di un fattore 4. In effetti, tutti questi priori pesano i piccoli valori di Γ0v Di Più. Pertanto, la nostra scelta di un appartamento in anticipo Γ0v fornisce il risultato più conservativo.

Calcoliamo lo 0νββ sensibilità di esclusione generando un insieme di 104 esperimenti giocattolo con il modello di sfondo, cioè includendo solo il 60Co e componenti di sfondo lineare. I giocattoli sono suddivisi in 15 set di dati con l’esposizione e i tassi di sfondo ottenuti dagli adattamenti solo in background ai nostri dati effettivi. Adattiamo ogni giocattolo con il modello segnale più sfondo ed estraiamo la distribuzione dei limiti CI al 90%, mostrati in Dati estesi Fig. 4.

Eseguiamo l’analisi frequentista utilizzando il metodo di Rolke61ottenendo un limite inferiore sull’emivita di processo di ({T}_{1/2}^{0nu } > 2,6volte {10}^{25},{rm{anno}}) (IC 90%). La funzione di verosimiglianza del profilo per Γ0v viene recuperato dall’intera catena di Markov prodotta dallo strumento di analisi bayesiano. I priori non uniformi sugli effetti sistematici nell’adattamento bayesiano sono quindi incorporati anche nel risultato frequentista. Estraiamo un intervallo di confidenza del 90% su Γ0v trattando -2log come approssimativo χdistribuzione con un grado di libertà. Il limite inferiore attivato ({T}_{1/2}^{0nu }) deriva dal corrispondente bordo superiore dell’intervallo di confidenza Γ0v. Applicando lo stesso metodo agli esperimenti sui giocattoli, troviamo una sensibilità di esclusione mediana di ({T}_{1/2}^{0nu } > 2,9volte {10}^{25},{rm{anno}}).

Leave a Comment