<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://dauin-si.polito.it/webapps/mediawiki-1.32.0/index.php?action=history&amp;feed=atom&amp;title=Saperne_di_pi%C3%B9_sul_progetto_HPC%40Polito</id>
	<title>Saperne di più sul progetto HPC@Polito - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://dauin-si.polito.it/webapps/mediawiki-1.32.0/index.php?action=history&amp;feed=atom&amp;title=Saperne_di_pi%C3%B9_sul_progetto_HPC%40Polito"/>
	<link rel="alternate" type="text/html" href="https://dauin-si.polito.it/webapps/mediawiki-1.32.0/index.php?title=Saperne_di_pi%C3%B9_sul_progetto_HPC@Polito&amp;action=history"/>
	<updated>2026-04-13T19:26:25Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.32.0</generator>
	<entry>
		<id>https://dauin-si.polito.it/webapps/mediawiki-1.32.0/index.php?title=Saperne_di_pi%C3%B9_sul_progetto_HPC@Polito&amp;diff=455&amp;oldid=prev</id>
		<title>Admin: Created page with &quot;=HPC@POLITO Accademic Computing Center=  ==Chi siamo==  L'iniziativa di supercalcolo HPC@POLITO, gestita dal DAUIN (Dipartimento di Automatica e Informatica del Politecnico di To…&quot;</title>
		<link rel="alternate" type="text/html" href="https://dauin-si.polito.it/webapps/mediawiki-1.32.0/index.php?title=Saperne_di_pi%C3%B9_sul_progetto_HPC@Polito&amp;diff=455&amp;oldid=prev"/>
		<updated>2017-02-10T11:51:44Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;=HPC@POLITO Accademic Computing Center=  ==Chi siamo==  L&amp;#039;iniziativa di supercalcolo HPC@POLITO, gestita dal DAUIN (Dipartimento di Automatica e Informatica del Politecnico di To…&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;=HPC@POLITO Accademic Computing Center=&lt;br /&gt;
&lt;br /&gt;
==Chi siamo==&lt;br /&gt;
&lt;br /&gt;
L'iniziativa di supercalcolo HPC@POLITO, gestita dal DAUIN (Dipartimento di Automatica e Informatica del Politecnico di Torino) fornisce risorse di calcolo ad alte prestazioni e supporto tecnico per attività di ricerca accademica e didattica. Il servizio è rivolto sia ai gruppi di ricerca interni, sia alle istituzioni e realtà esterne al Politecnico.&lt;br /&gt;
&lt;br /&gt;
Lo sviluppo dell'iniziativa HPC è stato ufficialmente affidato dal Consiglio di Amministrazione al [http://www.labinf.polito.it laboratorio LABInf], presso il DAUIN.&lt;br /&gt;
&lt;br /&gt;
==Come contattarci==&lt;br /&gt;
&lt;br /&gt;
Vi preghiamo di preferire le email come primo mezzo di comunicazione.&lt;br /&gt;
&lt;br /&gt;
Lo staff:&lt;br /&gt;
* Elio Piccolo è il responsabile dell'iniziativa;&lt;br /&gt;
* Paolo Margara gestisce la parte tecnico-sistemistica;&lt;br /&gt;
* Giovanni Mascari gestisce la parte tecnico-sistemistica;&lt;br /&gt;
* Lino Todesco cura la logistica per i nostri sistemi di calcolo.&lt;br /&gt;
&lt;br /&gt;
Indirizzi:&lt;br /&gt;
* [http://hpc.polito.it http://hpc.polito.it]&lt;br /&gt;
* [mailto:hpc.dauin@polito.it hpc.dauin@polito.it]&lt;br /&gt;
* Laboratorio Labinf: +39-011-090-7051&lt;br /&gt;
* [http://twitter.com/hpc_polito http://twitter.com/hpc_polito]&lt;br /&gt;
* Posta: DAUIN, c/o Politecnico di Torino, C.so Duca Degli Abruzzi 24, 10129 Torino&lt;br /&gt;
&lt;br /&gt;
==Come Sostenere HPC@POLITO?==&lt;br /&gt;
&lt;br /&gt;
Un gruppo di ricerca che voglia lavorare sul sistema, nel caso in cui intenda acquisire hardware per calcolo (tipicamente un server multiprocessore) potrà darlo in gestione alla nostra struttura a patto che il suo hardware sia conforme al nostro standard. In questo modo:&lt;br /&gt;
&lt;br /&gt;
* il server diventerà un nuovo nodo computazionale&lt;br /&gt;
* il nodo verrà utilizzato in modo prioritario dai membri del gruppo, mentre gli altri utenti ne disporranno solo quando libero&lt;br /&gt;
* in modo duale, i membri del gruppo potranno utilizzare tutto il resto delle risorse di calcolo&lt;br /&gt;
&lt;br /&gt;
tutto questo avverrà in modo del tutto automatico tramite lo scheduler interno del cluster.&lt;br /&gt;
&lt;br /&gt;
Per maggiori informazioni contattare il nostro staff.&lt;br /&gt;
&lt;br /&gt;
==I sistemi di calcolo di HPC@POLITO==&lt;br /&gt;
&lt;br /&gt;
Il nostro centro è dotato di due cluster: [http://hpc.polito.it/casper_cluster.php CASPER] e [http://hpc.polito.it/hactar_cluster.php HACTAR], questi due sistemi sono integrati tra loro e condividono il sistema di autenticazione e i [http://hpc.polito.it/storage_systems.php sistemi di storage]. L'architura dell'infrastruttura di calcolo è descritta [http://hpc.polito.it/docs/schema_hpc_polito.pdf da questo schema].&lt;br /&gt;
&lt;br /&gt;
Gli utenti accedono ai nostri sistemi con lo stesso account, possono accedere ai loro file indipendentemente dal sistema su cui hanno fatto accesso e hanno a disposizione fino a 1TB per i loro dati su ognuno dei due storage.&lt;br /&gt;
&lt;br /&gt;
Su entrambi i cluster gli utenti possono sottomettere i loro job per mezzo dell'Open Grid Scheduler, lo scheduler utilizzato dai nostri sistemi.&lt;br /&gt;
&lt;br /&gt;
Il centro di calcolo è dotato di due differenti sistemi di storage: uno storage ad alte prestazioni con una capacità di 87TB e un secondo storage, denominato &amp;quot;Home Storage&amp;quot;, con capacità di 141TB, con questi due storage lo spazio globalmente a disposizione degli utenti è di 228TB.&lt;br /&gt;
&lt;br /&gt;
===The CASPER Cluster===&lt;br /&gt;
&lt;br /&gt;
CASPER è l'acronimo di Cluster Appliance for Scientific Parallel Execution and Rendering, è il sistema storico del centro HPC@POLITO. Si tratta di un cluster InfiniBand da oltre 4 TFLOPS composto da 17 nodi computazionali ognuno equipaggiato con 32 core AMD Bulldozer e 128GB di memoria RAM. I nodi sono interconnessi da una rete InfiniBand DDR e da una rete ethernet, gli utenti accedono al sistema tramite un apposito nodo di login.&lt;br /&gt;
&lt;br /&gt;
===The HACTAR Cluster===&lt;br /&gt;
&lt;br /&gt;
HACTAR è la nostra &amp;quot;Ultimate Weapon&amp;quot;, questo sistema è attualmente il più recente tra quelli a nostra disposizione. Si tratta di un cluster InfiniBand da oltre 9 TFLOPS composto da 17 nodi computazionali ognuno equipaggiato con 24 core Intel XEON v3 e 128GB di memoria RAM. I nodi sono interconnessi da una rete InfiniBand QDR e da una rete ethernet, gli utenti accedono al sistema tramite un apposito nodo di login.&lt;br /&gt;
&lt;br /&gt;
==Ricerca e didattica in HPC@POLITO==&lt;br /&gt;
&lt;br /&gt;
La nostra iniziativa in soli pochi anni ha supportato più di 136 progetti di ricerca e 30 corsi di studio, in campi che spaziano dalla fluidodinamica computazionale all'analisi del genoma umano, corsi di laurea che spaziano dall'INGEGNERIA INFORMATICA all'INGEGNERIA AEROSPAZIALE, con risultati interessanti.&lt;br /&gt;
I progetti vengono accettati sulla base di una rapida analisi dei contenuti scientifici e senza call prefissate: le richieste possono essere presentate in ogni momento, e il grant viene concesso entro 48 ore, a fronte di una breve descrizione dell'attività.&lt;br /&gt;
&lt;br /&gt;
Nelle seguenti pagine è possibile trovare l'elenco puntuale dei progetti di ricerca e di didattica dall'anno 2011 a oggi:&lt;br /&gt;
&lt;br /&gt;
* [http://hpc.polito.it/progetti_didattica.php I corsi di studio che si sono avvalsi di HPC@POLITO dall'AA 11/12 all'AA 15/16]&lt;br /&gt;
* [http://hpc.polito.it/progetti_ricerca.php I progetti di ricerca che si sono avvalsi dei sistemi di HPC@POLITO dal 2011 a oggi]&lt;br /&gt;
&lt;br /&gt;
Oltre ai progetti di ricerca e ai corsi di studio abbiamo anche ospitato stage formativi in collaborazione con l'Università di Torino e scambi di personale all'interno del Progetto Erasmus Mundus EMAIL3 - Staff exchange con la Ben-Gurion University of the Negev di Israele.&lt;br /&gt;
&lt;br /&gt;
Grazie ai nostri sistemi alcuni nostri utenti sono riusciti a brevettare l'oggetto della loro ricerca.&lt;br /&gt;
&lt;br /&gt;
Inoltre abbiamo collaborazioni attive coi seguenti team studenteschi:&lt;br /&gt;
&lt;br /&gt;
* Squadra Corse PoliTO&lt;br /&gt;
* TEAM FUSED&lt;br /&gt;
* TEAM POLICUMBENT&lt;br /&gt;
* Polito Sailing Team&lt;br /&gt;
* Team DIANA&lt;br /&gt;
&lt;br /&gt;
==La produzione scientifica legata a HPC@POLITO==&lt;br /&gt;
&lt;br /&gt;
Invitiamo tutti gli utenti a citare il supporto ricevuto dalla nostra iniziativa nelle loro pubblicazioni, in base al nostro SLA, con queta frase:&lt;br /&gt;
&lt;br /&gt;
 ''Computational resources were provided by HPC@POLITO, a project of Academic Computing within the &lt;br /&gt;
 Department of Control and Computer Engineering at the Politecnico di Torino (http://www.hpc.polito.it)''&lt;br /&gt;
&lt;br /&gt;
Alternativamente una versione più breve come '''Computational resources were provided by HPC@POLITO (http://www.hpc.polito.it)''' sarà comunque sufficiente.&lt;br /&gt;
&lt;br /&gt;
Nelle seguenti pagine è possibile trovare l'elenco puntuale degli articoli pubblicati grazie al contributo della nostra iniziativa dall'anno 2011 al 2016:&lt;br /&gt;
&lt;br /&gt;
* [http://hpc.polito.it/pubblicazioni_part2.php La produzione scientifica legata a HPC@POLITO dal 2014 al 2016]&lt;br /&gt;
* [http://hpc.polito.it/pubblicazioni_part1.php La produzione scientifica legata a HPC@POLITO dal 2011 al 2013]&lt;/div&gt;</summary>
		<author><name>Admin</name></author>
		
	</entry>
</feed>