CRESCO: Descrizione del Sistema di Frascati
1. Caratteristiche del Cluster
Il cluster CRESCO4F di Frascati è un sistema di calcolo costituito da 64 server con le seguenti caratteristiche:L'architettura di un nodo di CRESCO4F è riconducibile al seguente schema:
2. Nodi di Front-End
L'utilizzo del cluster avviene facendo il login in uno dei nodi di front-end. I nodi di front-end servono semplicemente per il lancio delle applicazioni tramite LSF, per editare i propri script di lancio o per le compilazioni. I nodi di calcolo sono raggiungibili solo tramite LSF.3. Accesso tramite Client ssh.
Per accedere al sistema tramite "ssh" è sufficiente collegarsi direttamente al nodo di front-end cresco4fx001.frascati.enea.it se il proprio PC è collegato alla LAN di uno dei centri ENEA. Dall'esterno l'utente può collegarsi tramite ssh ad uno dei due super-nodi di front-end, cresco-in.frascati.enea.it ovvero cresco-in.portici.enea.it. Dopo aver effettuato il login, l'utente dovrà selezionare il front-end cresco4fx001.frascati.enea.it.5. Compilatori e librerie numeriche
Nella tabella seguente sono riportati i compilatori e le librerie numeriche presenti su CRESCO4.GNU (4.4.6) | GNU (4.8.2) |
Intel (14.0.1) | Intel (16.0.0) | PGI (11.10-0) | |
---|---|---|---|---|---|
PATH compilatori | /usr/bin | /opt/gcc482/bin | /opt/intel/composer_xe_2013_sp1.1.106/bin/intel64 | /opt/intel16/compilers_and_libraries_2016.0.109/linux/bin/intel64 | /afs/enea.it/software/pgi_11.10/linux86-64/11.10/bin | PATH Librerie numeriche |
BLAS/LAPACK/ATLAS /usr/lib /usr/lib64 /usr/lib/atlas-sse* /usr/lib64/atlas /usr/lib64/atlas-sse* |
BLAS/LAPACK/ATLAS /usr/lib /usr/lib64 /usr/lib/atlas-sse* /usr/lib64/atlas /usr/lib64/atlas-sse* |
Intel MKL /opt/intel/composer_xe_2013_sp1.1.106/mkl/lib/ia32 /opt/intel/composer_xe_2013_sp1.1.106/mkl/lib/intel64 |
Intel MKL /opt/intel16/compilers_and_libraries_2016.0.109/linux/mkl/lib/intel64_lin |
PGI per AMD/ACML e CUDA /afs/enea.it/software/pgi_11.10/linux86-64/11.10/lib /afs/enea.it/software/pgi_11.10/linux86-64/11.10/libso |
6. Uso di Modules.
Sul cluster CRESCO4F di Frascati l'inizializzazione dell'ambiente per il singolo utente viene effettuata grazie al software Modules. Per i dettagli sull'implementazione, sulle scelte fatte e sull'uso del software è possibile consultare la relativa documentazione.7. Flavour MPI presenti.
Sul Cluster CRESCO di Frascati è presente OFED alla versione: OFED-1.5.4.1. Le flavour MPI presenti, distinte per compilatore, sono elencate nella seguente tabella:Open64 (version 4.5.1) | GNU (version 4.4.6/4.8.2) | Intel (version 14.0.1) | Intel (version 12.1.3) | PGI (version 11.10-0) | |
---|---|---|---|---|---|
Mvapich | mancante | mvapich2_gcc_qlc-1.7 | mvapich2_intel14_qlc-1.7 | mvapich2_intel12_qlc-1.7 | mvapich2_pgi_qlc-1.7 |
OpenMPI | openmpi_open64-1.4.3 openmpi_open64-1.6.5 |
openmpi_gcc-1.4.3 openmpi_gcc-1.6.5 openmpi_gcc482-1.4.3 openmpi_gcc482-1.6.5 |
openmpi_intel14-1.4.3-qlc openmpi_intel14-1.6.5 |
openmpi_intel12-1.5.4-qlc | openmpi_pgi-1.4.3-qlc openmpi_pgi-1.6.5 |
Intel MPI | Nessuna Flavour | Nessuna Flavour | impi-4.1.2 | Nessuna Flavour | Nessuna Flavour |
8. Come sottomettere un job
Per la sottomissione di batch job sul cluster CRESCO4F di Frascati valgono le regole generali indicate al paragrafo Batch Job/LSF.• OpenMPI 1.4.3 (GCC, Intel, PGI)
#!/bin/sh
exe=/afs/enea.it/por/user/raia/Hello_MPI # path of your MPI program HOSTFILE=$LSB_DJOB_HOSTFILE # name of hostfile for mpirun N_procs=`cat $LSB_DJOB_HOSTFILE | wc -l` # give to mpirun same number of slots mpirun --mca plm_rsh_agent "blaunch.sh" -n $N_procs --hostfile $HOSTFILE $exe |
• OpenMPI 1.6.5 (GCC, Intel, PGI)
#!/bin/sh
exe=/afs/enea.it/por/user/raia/Hello_MPI # path of your MPI program HOSTFILE=$LSB_DJOB_HOSTFILE # name of hostfile for mpirun N_procs=`cat $LSB_DJOB_HOSTFILE | wc -l` # give to mpirun same number of slots mpirun --mca orte_rsh_agent "blaunch.sh" -n $N_procs --hostfile $HOSTFILE $exe |
• Mvapich2 (GCC, Intel, PGI)
#!/bin/sh
exe=/afs/enea.it/por/user/raia/Hello_MPI # path of your MPI program HOSTFILE=$LSB_DJOB_HOSTFILE # name of hostfile for mpirun N_procs=`cat $LSB_DJOB_HOSTFILE | wc -l` # give to mpirun same number of slots mpirun_rsh -rsh -np $N_procs -hostfile $HOSTFILE $exe |
• Intel MPI 4.1.2
#!/bin/sh
exe=/afs/enea.it/por/user/raia/Hello_MPI # path of your MPI program HOSTFILE=$LSB_DJOB_HOSTFILE # name of hostfile for mpirun N_procs=`cat $LSB_DJOB_HOSTFILE | wc -l` # give to mpirun same number of slots mpirun -bootstrap rsh -n $N_procs -machinefile $HOSTFILE $exe |