A cura di MIUR - Direzione Generale per il coordinamento la promozione e la valorizzazione della ricerca

Viaggio al CERN con Giovanni Passaleva: 3/4 Un cuore tecnologico nuovo per LHC

Viaggio al CERN con Giovanni Passaleva: 3/4 Un cuore tecnologico nuovo per LHC

Nella seconda parte dello speciale Viaggio al CERN con Giovanni Passaleva, il fisico italiano alla guida dell’esperimento LHCb ci ha spiegato l’importanza della recente scoperta della particella Xicc++. Ma come avviene la raccolta dati a monte dell’attività scientifica condotta al CERN? In questa terza parte dello speciale ci addentriamo alla scoperta del cuore tecnologico di Large Hadron Collider, l’imponente superacceleratore di particelle, che nei prossimi anni sarà sottoposto a un importante aggiornamento. 

 

Gli eclatanti risultati scientifici ottenuti da LHC, come l’osservazione di nuove particelle, sono sempre il frutto di un complesso processo “nascosto” di raccolta dati. Come avviene questo processo? 

Le collisioni che avvengono nell’acceleratore producono particelle che vengono registrate da appositi rivelatori. I dati vengono poi filtrati, perché non tutto ciò che avviene in LHC è utile, ma solo una piccolissima parte di collisioni ci fornisce eventi o informazioni interessanti. Le informazioni interessanti devono essere filtrate, tipicamente, da algoritmi matematici, e i dati così pre-filtrati vengono poi salvati e analizzati dai ricercatori per effettuare le misure di fisica che ci interessano. Questa attività di filtro dei dati viene di solito eseguita da processori dedicati, come quelli dei computer, e anche da algoritmi matematici che vengono fatti funzionare su un gran numero di processori. Chiaramente il numero di informazioni che i computer riescono a processare è limitato. 

Questo sistema sarà sottoposto nei prossimi anni a un importante aggiornamento. Di che si tratta?

Con questo aggiornamento, la pretesa è quella di prendere tutte le collisioni che vengono prodotte in LHC e analizzarle in tempo reale per poi salvare solo le informazioni che ci interessano. Puntiamo a un sistema di filtro che funziona in tempo reale, per fornirci direttamente l’informazione utile. Nell’esperimento attuale non tutti i dati che arrivano dal rivelatore vengono poi inviati al filtro. Ci sono dei sistemi per cui già al livello del rivelatore i dati vengono scartati secondo una certa logica. Quello che rimane da questa prima setacciatura, che è già molto ridotto (da 40 milioni di collisioni al secondo si scende a 1 milione di collisioni al secondo) viene poi inviato al secondo filtro e che fa un’analisi un po’ più accurata e salva solo l’informazione interessante. 

In che modo avviene la scrematura dei dati? 

Per fare un esempio, supponiamo di avere un grande sacco di mattoncini lego contenente mattoncini rettangolari, quadrati e tondi, e che ciascun mattoncino sia poi anche rosso, verde, o giallo. Possiamo immaginare che con il sistema attuale il primo filtro, per esempio, butta via tutti i mattoncini rettangolari, a prescindere dal loro colore. Il secondo filtro, tra i mattoncini quadrati e tondi separa i mattoncini rossi da quelli verdi e da quelli gialli. Vengono così effettuate due scremature, la prima più grossolana, la seconda più fine. Nel nuovo esperimento non ci saranno più questi due passaggi: si fa tutto in un colpo solo in modo da ottenere alla fine tutti i mattoncini separati per colore.

Quali sono i vantaggi scientifici e tecnologici di questo aggiornamento? 

Il vantaggio scientifico, per restare nell’esempio, è che potremmo salvare anche qualche mattoncino rettangolare e permetterci di operare scelte più raffinate. Dal punto di vista tecnologico, il passo in avanti poi è enorme rispetto all’esperimento attuale, perché implica tecniche di calcolo e di scrittura del software molto avanzate. Per esempio si sfrutterà moltissimo la capacità delle CPU moderne di lavorare in parallelo. Nei moderni computer c’è un grosso processore che al suo interno ha molte CPU. Queste, se programmate adeguatamente, possono lavorare tutte in parallelo. Dunque, è come se in un singolo computer ne avessimo molti che lavorano tutti insieme. 

Il passaggio al nuovo sistema richiederà inoltre tecniche di analisi molto più raffinate che sfruttano il cosiddetto machine learning, ossia abilità per scrivere algoritmi con cui i computer riescono a “imparare” a risolvere certi problemi. 

Quali sono i prossimi passi in questa direzione?

LHC verrà aggiornato e raggiungerà la sua energia massima tra il 2021 e il 2023. Poi ci sarà un altro stop, dal 2024 al 2026, e successivamente comincerà la fase di altissima luminosità –The High Luminosity Large Hadron Collider – caratterizzata da un numero di particelle circolanti nel fascio molto più alto. I grandi esperimenti ATLAS e CMS faranno un aggiornamento molto importante in vista di questo passaggio di LHC verso l’altissima intensità. Noi, con LHCb – che è un esperimento un po’ più piccolo – anticipiamo l’aggiornamento a questa prima fase dei prossimi anni (tra il 2019 e il 2020 n.d.r.). 

 

Data pubblicazione 21/09/2017
Tag Scienze fisiche e ingegneria