Sermig

100 TERABYTE

di Stefano Ravizza - Nel 1989 in Svizzera nei pressi di Ginevra finirono di costruire il LEP (Electron Positron Collider) il più grande acceleratore di particelle dell’epoca. Dopo una serie di esperimenti fu smantellato nel 2000 per lasciare il posto al suo successore LHC. Ma i fisici hanno un problema con l’eredità del LEP. Durante la sua vita, i quattro esperimenti più importanti hanno generato 100Tb di dati di informazioni. Non potendo più essere ripetuti, i dati prodotti sono unici. Un gruppo di fisici del CERN sta lavorando per conservarli.
Nel 1989 100Tb erano una quantità di dati enorme, oggi non c’è nessun problema a conservare una tale quantità di informazioni. Ci sono però altri problemi. I nastri magnetici, per il largo uso che ne è stato fatto negli anni, in alcuni punti non sono più leggibili, ma anche recuperando tutto, i dati in sé non servono a molto senza un software necessario a dare loro un senso. La maggior parte del software scritto all’epoca è in un linguaggio, il Fortran, che ormai è in disuso. Buona parte del software più specifico per le analisi dei dati non è mai stato tenuto in un database centrale, ma spesso nelle cartelle personali dei vari ricercatori, molte delle quali sono state cancellate quando alcuni di loro sono andati in pensione. I ricercatori futuri potranno facilmente lavorare sui dati grezzi, ma sarà molto complicato collegare questi dati con le pubblicazioni dei vecchi ricercatori sull’argomento. Quindi se qualcuno vuole studiare i dati del LEP, si affretti, quelli che ne sanno ancora qualcosa stanno per andare in pensione.

TECHNOLOGY – Rubrica di Nuovo Progetto