Experimentele de la Large Hadron Collider produc aproximativ un milion de gigaocteti de date in fiecare secunda. Chiar si dupa filtrare si compresie, datele acumulate in doar o ora sunt similare cu volumul de date colectat de Facebook intr-un an intreg.

Din fericire, fizicienii nu trebuie sa proceseze si sa analizeze aceste date singuri. Ei sunt ajutati de software de “Machine learning” care invata cum sa faca analize complexe pe cont propriu.

“In comparatie cu un algoritm obisnuit de calculator pe care-l proiectam pentru a o analiza specifica, algoritmii folositi de noi trebuie proiectati pentru a ne da seama cum sa facem diferite analize, salvand nenumarate ore de munca”, spune fizicianul Alexander Radovic ce lucreaza la experimentul NOvA.

Radovic impreuna cu un grup de cercetatori au descris aplicatiile actuale si perspectivele viitoare de invatare a masinilor in fizica particulelor intr-o lucrare publicata in revista Nature.

Cautarea in “Big Data”

Pentru a face fata volumului de date urias produs in experimentele moderne, cum ar fi cele de la LHC, cercetatorii folosesc ceea ce se numesc “triggere” (declansatoare) hardware si software, care decid in timp real ce date sa pastreze pentru analiza si ce date sa fie eliminate.

In LHCb, un experiment care ar putea explica de ce exista mai multa materie decat antimaterie in Univers, algoritmii iau cel putin 70% din decizii, spune Mike Williams de la MIT. “Machine learning joaca un rol important in aproape toate aspectele legate de datele experimentului, de la triggere la analiza datelor ramase”, spune Williams.

Machine learning s-a dovedit a fi extrem de utila in domeniul analizei. Detectorii giganti de la LHC, ATLAS si CMS, care au permis descoperirea bosonului Higgs, au fiecare zeci de milioane de elemente de detectie ale caror semnale trebuie sa fie colectate si puse cap la cap.

“Aceste semnale alcatuiesc un spatiu complex de date”, spune Michael Kagan de la “US Department of Energy’s SLAC National Accelerator Laboratory”, care lucreaza la ATLAS si este co-autor al lucrarii mai sus mentionate din revista Nature. “Trebuie sa intelegem relatia dintre semnale pentru a veni cu concluzii – de exemplu, daca o anumita urma detectata a fost produsa de un electron, un foton sau altceva.”

Si NOvA, beneficiaza de avantajul folosirii inteligentei artificiale si a machine learning-ului. Fermilab – ce gestioneaza experimentele NOvA – studiaza modul in care neutrinii se schimba dintr-un tip intr-altul in timp ce calatoresc prin Pamant. Aceste oscilatii neutrinice ar putea sa dezvaluie existenta unui nou tip de neutrino pe care unele teorii o prezic a fi o particula a materiei intunecate. Detectoarele NOvA urmaresc particulele incarcate atunci cand neutrinii au lovit materialul detectorului, iar algoritmii de machine learning le-au identificat.

Large Hadron Collider

LHC este cel mai mare accelerator de particule din lume si cel care atinge cele mai mari energii. Coliderul se afla intr-un tunel circular, cu o circumferinta de 27 km, aflat la o adancime intre 50-175 m sub pamant.

Tunelul este compus din doua tevi inelare adiacente separate care se intersecteaza in patru puncte, fiecare teava continand o conducta de protoni. Acestia se deplaseaza in tunel in directii opuse. Aproximativ 1232 dipoli magnetici pastreaza fluxurile pe calea lor circulara si 392 cuadripoli magnetici sunt utilizati pentru a pastra fluxurile focalizate. In total sunt instalati peste 1600 magneti supraconductori, majoritatea cantarind peste 27 tone.

O data sau de doua ori pe zi, in timp ce protonii sunt accelerati de la 450 GeV pana la cel mult 7 TeV, campurile magnetice ale dipolilor electromagnetici supraconductori sunt marite de la 0,54 la 8,3 tesla. Protonii pot ajunge fiecare pana la o energie de 7 TeV, energia totala de coliziune ajungand astfel pana la 14 TeV. La acest nivel de energie, protonii se deplaseaza cu viteze de 99,999999% din viteza luminii. Dureaza mai putin de 90 μs ca un proton sa efectueze o tura in inelului principal – viteza sa unghiulara putand ajunge la 11.000 revolutii pe secunda.

Programul de la LHC se bazeaza mai ales pe coliziuni proton-proton. Totusi sunt incluse in program si perioade de rulare mai scurte, de regula o luna pe an, cu coliziuni de ioni grei. Desi si ionii mai usori sunt luati in considerare, scopul principal al acestor perioade de rulare il reprezinta ionii de plumb. Scopul programului cu ioni grei este observarea unei stari a materiei numita plasma quark-gluon, care caracteriza etapa initiala a existentei Universului, imediat dupa Big Bang.

Un boson Higgs este produs o data la cateva miliarde de ciocniri proton-proton. Pentru a permite esantioanelor de date sa fie inregistrate intr-un interval de timp rezonabil, LHC ciocneste aproape 1 miliard de protoni pe secunda.

Aceste coliziuni pot produce sute de particule si studierea dezintegrarii lor necesita detectori puternici dotati cu diverse matrici de senzori. Detectorii ATLAS si CMS contin fiecare aproximativ 100 de milioane de elemente de detectie.

Studiul cuarcurilor prezinta un interes deosebit pentru LHC deoarece aceste particule sunt produse frecvent prin dezintegrarea bosonului Higgs. Un cuarc radiaza o parte substantiala a energiei sale sub forma unui flux de particule colimate, precum un jet, inainte sa intalneasca un anticuarc sau un alt cuarc. Radiatia este emisa pe o distanta aproximativ de dimensiunea unui proton, facand acest lucru imposibil de observat in mod direct si „traieste” doar o picosecunda inainte sa se dezintegreze din nou. Asadar, pentru a identifica jeturile care provin de la cuarcuri, este necesar sa se poata stabili daca particulele au fost produse direct in coliziunea proton-proton.

Recurrent Neural Networks

Recurrent Neural Networks (RNN) s-au dovedit a fi eficiente in procesarea secventelor mari de date. RNN este folosit si de Google in serviciul lor de traduceri. Folosirea RNN pentru clasificarea jeturilor necesita ca particulele sa fie ordonate pentru a forma o secventa. Un set de caracteristici pentru fiecare particula este oferit RNN-ului, ce este antrenat pentru a face diferenta intre jetul lasat de cuarcul de tip farmec si alte jeturi. Folosirea RNN-ului in cadrul experimentului ATLAS a redus mult rata de interpretare gresita.

Antrenare si validare

Retelele neurale folosite in fizica particulelor sunt de obicei instruite prin invatarea supravegheata si se antreneaza folosind date de test ce contin proprietatile particulelor si alte informatii necesare. Exista intotdeauna posibilitatea ca anumite caracteristici introduse in date sa nu fie modelate corect si sa poata duce la detectari false.

De la „Machine learning” la „Deep learning”

Cele mai noi metode de “Machine Learning”, adesea numite “Deep Learning”, promit sa duca fizica particulelor la un nou nivel. Deep learning se refera in general la utilizarea retelelor neuronale: algoritmi de calcul cu o arhitectura inspirata din reteaua densa de neuroni din creierul uman.

Aceste retele neuronale invata pe cont propriu cum sa realizeze anumite sarcini de analiza in timpul perioadei de antrenare in care sunt prezentate date de test, cum ar fi simularile, si li se spune cat de bine s-au descurcat.

“Pana de curand, succesul retelelor neuronale a fost limitat, deoarece antrenarea acestora era foarte greoaie si necesita multe resurse”, spune co-autorul lucrarii Kazuhiro Terao, cercetator SLAC. “Aceste dificultati ne-au limitat la doar cateva straturi de neuroni (layere). Datorita imbunatatirii algoritmilor dar si a hardware-ului, acum putem sa construim si sa instruim retele mai capabile formate din sute sau mii de straturi de neuroni”.

Multe dintre progresele inregistrate in domeniul Machine Learning-ului sunt determinate de aplicatiile comerciale ale gigantilor de software si de explozia de date generata de oameni in ultimele doua decenii. “NOvA, de exemplu, utilizeaza o retea neuronala inspirata de arhitectura GoogleNet”, spune Radovic. “A imbunatatit experimentul in moduri care altfel ar fi putut fi obtinute doar prin colectarea a 30% mai multe date”.

Un teren fertil pentru inovatie

Algoritmii de Machine learning devin din ce in ce mai sofisticati deschizand oportunitati fara precedent pentru a rezolva probleme in fizica particulelor.

Multe dintre problemele noi unde ar putea fi folosite sunt legate de “computer vision”, spune Kagan. “Este similar cu recunoasterea faciala, cu exceptia faptului ca in fizica particulelor, trasaturile imaginii sunt mai abstracte si mai complexe decat urechile si nasul”.

Unele experimente precum NOvA si MicroBooNE produc date care pot fi usor transformate in imagini reale, iar algoritmii pot identifica caracteristicile din aceste imagini. In experimentele de la LHC, pe de alta parte, imaginile trebuie mai intai reconstruite din foarte multe date generate de milioane de senzori.

“Chiar daca datele nu arata ca imagini, putem folosi in continuare metode de vizionare a datelor daca le putem procesa in mod corect”, spune Radovic.

Un domeniu in care aceasta abordare ar putea fi utila este analiza jeturilor de particule produse in numar mare la LHC.

Scepticismul asupra Machine learning-ului

In ciuda tuturor progreselor evidente, pasionatii de Machine Learning se confrunta frecvent cu scepticismul partenerilor lor de colaborare deoarece algoritmii de invatare sunt precum o cutie neagra care ofera foarte putine informatii despre cum au ajuns la o anumita concluzie.

“Scepticismul este foarte sanatos”, spune Williams. “Daca folositi Machine learning pentru triggere care elimina datele, asa cum facem in LHCb, atunci doriti sa fiti extrem de precaut.”

Prin urmare, antrenarea retelelor necesita eforturi constante pentru a intelege mai bine functionarea algoritmilor si pentru a face verificari incrucisate cu date reale ori de cate ori este posibil.

“Ar trebui sa incercam mereu sa intelegem ce face un algoritm si sa evaluam intotdeauna rezultatul sau”, spune Terao. “Acest lucru este valabil pentru fiecare algoritm, nu numai pentru machine learning. Deci, a fii sceptic nu ar trebui sa opreasca progresul.”

Progresele rapide au facut pe unii cercetatori sa viseze la ceea ce ar putea deveni posibil in viitorul apropiat. “Astazi folosim machine learning pentru a gasi caracteristici in datele noastre care ne pot ajuta sa raspundem la unele dintre intrebarile noastre”, spune Terao. “Zece ani de acum, algoritmii de invatare ar putea sa-si puna propriile intrebari in mod independent si sa recunoasca atunci cand descopera ceva”.

Bibliografie:
https://www.symmetrymagazine.org
https://www.nature.com/articles/s41586-018-0361-2

LĂSAȚI UN MESAJ