A cura di MIUR - Direzione Generale per il coordinamento la promozione e la valorizzazione della ricerca

The most innovative of ‘cloud’ platforms soon available to university and research users

The most innovative of ‘cloud’ platforms soon available to university and research users

We publish below (in Italian) an editorial by Giuseppe Attardi, Coordinator of the Distributed Computing and Storage Department of Consortium GARR, on the forthcoming implementation of the cloud container platform dedicated to the Italian users of the University and Research communities.

 

È stata installata, testata e sarà presto aperta agli utenti del mondo dell’Università e della ricerca italiano la nuova Piattaforma di Cloud Container del GARR, che va ad affiancare l’offerta di cloud computing tradizionale, basato su macchine virtuali, già in esercizio da circa un anno e utilizzata da oltre 500 utenti. La tecnologia dei container si sta diffondendo rapidamente, e la piattaforma di cloud container del GARR è tra le prime a metterla a disposizione in ambito accademico e di ricerca.

Le caratteristiche e i benefici
Rispetto al cloud tradizionale, la tecnologia dei container offre un approccio più agile alla virtualizzazione, che opera a uno livello più alto dello stack di virtualizzazione: mentre una macchina virtuale astrae una macchina fisica, un container astrae il sistema operativo. All’interno di un container si possono installare pacchetti software completamente autonomi e isolati gli uni dagli altri, che contengono ciascuno i componenti necessari per poter girare: codice, runtime, tool e librerie di sistema, impostazioni. Con i container, le applicazioni condividono il sistema operativo, e in particolare il kernel, i file di sistema e i driver di rete e dei dischi. Non dovendo inglobare tutte le funzioni di un server, i container sono molto più leggeri delle macchine virtuali, richiedono poche risorse di CPU e possono essere attivati in pochi istanti: tipicamente nell’ordine di decine di secondi, contro i minuti di una macchina virtuale. Uno svantaggio è che tutte le applicazioni di un container vanno scritte per lo stesso sistema operativo, dato che lo condividono: ma, se sono costruite a partire da codice portabile, ciò non pone grandi limitazioni.

La realizzazione
L’architettura scelta per implementare la piattaforma di container, anche se più complessa da realizzare, ne prevede la realizzazione direttamente su bare metal, anziché su macchine virtuali. Questo approccio offre prestazioni migliori e consente l’accesso diretto alle interfacce di dispositivi particolari, quali ad esempio le GPU (Graphics Processing Unit o processori grafici), che non possono essere condivise con la virtualizzazione tradizionale. Le GPU sono processori specializzati nati per l’elaborazione e il rendering di immagini grafiche, che sono molto più veloci delle CPU nell’esecuzione parallela su grandi blocchi di dati, in particolare per il calcolo tensoriale utilizzato nel Deep Learning.

Più potenza per Deep Learning e Big Data
Avere la possibilità di utilizzare le GPU in ambiente accademico è cruciale per restare al passo con la ricerca di punta a livello internazionale: è quasi impossibile competere con chi può svolgere 100 esperimenti nel tempo in cui un ricercatore riesce a completarne uno solo. Tra le applicazioni che hanno maggiormente beneficiato dell’utilizzo delle GPU ci sono quelle basate sul Deep Learning, che negli ultimi dieci anni hanno avuto una esplosione di risultati sorprendenti nei campi dell’elaborazione di immagini, giochi strategici, robotica, guida automatica, riconoscimento e sintesi vocale, traduzione automatica e comprensione del linguaggio, e in generale dell’intelligenza artificiale, potendo sfruttare le capacità di calcolo per elaborare grandi quantità di dati di apprendimento.
La piattaforma di cloud container del GARR offre un corredo delle più note librerie per Deep Learning, disponibili come container in modo da rendere agevole per gli utenti della piattaforma lo sviluppo di applicazioni simili. La piattaforma si rivolge ai ricercatori di ogni disciplina, non solo di quelle di stampo tecnico, perché rende più agevole la costruzione di applicazioni e libera i ricercatori di gran parte delle complessità di installazione di macchine e di software. Le applicazioni potranno essere costruite attraverso un’interfaccia grafica, che consente di comporle a partire da container selezionati da un ricco catalogo. Un breve video illustrativo si può vedere su https://youtu.be/asxozHcandc.

Il valore della comunità
Per le applicazioni di Machine Learning sono fondamentali i dataset annotati per l’apprendimento e i modelli che se ne ricavano. Per stimolare gli sviluppi in questi campi, il GARR fornirà accesso gratuito per un certo periodo alla Piattaforma di Cloud Container ai ricercatori che accettino di condividere i loro dati e modelli, rendendoli disponibili ad altri altri membri della comunità scientifica per usarli come punto di partenza delle loro ricerche. L’accesso a queste risorse condivise sarebbe utile sia per chi si approccia per la prima volta a queste tecniche di sviluppo, evitandogli lo sforzo di dover partire da zero, sia per coloro che già lavorano a problemi simili.
La combinazione di queste caratteristiche rende la Piattaforma Container del GARR una vera e propria one-stop shop, dove un ricercatore trova tutto ciò che gli serve per svolgere i propri esperimenti: 1) risorse di calcolo, 2) componenti software predisposti a un uso agevole, 3) dati e modelli pronti per l’uso o per l’adattamento a nuovi casi.
Con questo nuovo strumento, speriamo che la comunità scientifica italiana possa diventare partecipe e protagonista nello sviluppo della nuova era di applicazioni informatiche e in particolare dell’intelligenza artificiale.

Giuseppe Attardi, Coordinatore del Dipartimento Calcolo e Storage Distribuito del Consortium GARR

 

Publication date 01/24/2018
Tag Physical Sciences and Engineering , Smart Communities