You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 24 Next »

GROMACS je paket za izvođenje simulacija dinamike molekula, npr. simulacija Newtonovih jednadžbi gibanja sistema s velikim brojem čestica (od nekoliko tisuća, pa do više milijuna). Primarno je dizajniran za biokemijske molekule kao što su proteini, lipidi i nukleinske kiseline koje imaju velik broj kompliciranih vezanih interakcija, ali s obzirom da je GROMACS iznimno brz pri računanju nevezanih interakcija, mnogi ga koriste i za istraživanje ne bioloških sistema tipa polimera.

GROMACS podržava sve tipične algoritme očekivane kod implementacije dinamike molekula ( više detalja u priručniku), ali pruža iznimno visoke performanse u usporedbi s drugim paketima. Paralelizam se postiže koristeći kombinirajući OpenMPI i OpenMP.

Korištenje

Na klasteru su instalirane varijante programskog paketa Gromacs u višedretvenoj i MPI izvedbi za CPU (klasični procesori) i GPU (grafički procesori).

Dostupne verzije su:

VerzijaImplementacijaModulNapomena
5.1.4single precision multithreadgromacs/5.1.4Koristiti isključivo uz *mpisingle
5.1.4double precision multithreadgromacs/5.1.4-doubleKoristiti isključivo uz *mpisingle
5.1.4single precision MPIgromacs/5.1.4-mvapich22
5.1.4double precision MPIgromacs/5.1.4-mvapich22-double
2018.4single precision multithreadgromacs/2018.4Koristiti isključivo uz *mpisingle
2018.4double precision multithreadgromacs/2018.4-doubleKoristiti isključivo uz *mpisingle
2018.4single precision MPIgromacs/2018.4-mvapich22
2018.4double precision MPIgromacs/2018.4-mvapich22-double
2018.4single precision multithread + GPUgromacs/2018.4-gpuKoristiti isključivo uz gpusingle
2018.4single precision MPI + GPUgromacs/2018.4-mvapich2-gpu
2018.6single precision multithread + Plumedgromacs/2018.6Koristiti isključivo uz *mpisingle
2018.6double precision multithread + Plumedgromacs/2018.6-doubleKoristiti isključivo uz *mpisingle
2018.6single precision MPI + Plumedgromacs/2018.6-mvapich22
2018.6double precision MPI + Plumedgromacs/2018.6-mvapich22-double
2018.6single precision multithread + GPU + Plumedgromacs/2018.6-gpuKoristiti isključivo uz gpusingle
2018.6single precision MPI + GPU + Plumedgromacs/2018.6-mvapich2-gpu
2020.6single precision MPI + OpenMP+ Plumedgromacs/2020.6
2020.6double precision MPI +OpenMP + Plumedgromacs/2020.6-double
2020.6single precision multithread + GPU + Plumedgromacs/2020.6-gpuKoristiti isključivo uz gpusingle
2020.6single precision MPI + GPU + Plumedgromacs/2020.6-mvapich22-gpu
2021.4mixed precision MPI + OpenMP + Plumedgromacs/2021.4-mvapich22
2021.4double precision MPI + OpenMP + Plumedgromacs/2021.4-mvapich22-double
2021.4mixed precision multithread + GPU + Plumedgromacs/2021.4-gpuKoristiti isključivo uz gpusingle
2021.4mixed precision MPI + GPU + Plumedgromacs/2021.4-mvapich22-gpu
2022mixed precision MPI + OpenMPgromacs/2022
2022mixed precision multithread + GPUgromacs/2022-gpuKoristiti isključivo uz gpusingle
2022mixed precision MPI + GPUgromacs/2022-mvapich22

CPU verzije

Primjer korištenja višedretvene verzije:

#$ -pe *mpisingle 8

module load gromacs/5.1.4
gmx mdrun -nt $NSLOTS -nice 0 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append 

Važno

Gromacs verzija 5.1.4 zahtijeva parametar "-nice 0", kod novijih verzija taj parametar nije potreban.


Važno

Ukoliko neki od novijih CPU Gromacs module-a:

  • gromacs/2020.6
  • gromacs/2021.4-mvapich22
  • gromacs/2022

koristite u *mpisingle paralelnom okruženju, broj jezgri zadajete korištenjem zastavice -ntomp:

#$ -pe *mpisingle 8

module load gromacs/2021.4-mvapich22
gmx mdrun -ntomp $NSLOTS -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append

Primjer korištenja MPI verzije:

#$ -pe *mpifull 56

module load gromacs/2018.4
mpirun_rsh -np $NSLOTS -hostfile $TMPDIR/machines -export-all gmx mdrun -ntomp 1 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append 

GPU verzije

Primjer korištenja višedretvene verzije:

#$ -pe gpusingle 4

module load gromacs/2018.4-gpu
cuda-wrapper.sh gmx mdrun -nt $NSLOTS -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append 

Važno

Aplikacija u višedretvenoj izvedbi se mora pozivati s cuda-wrapper.sh!

Primjer korištenja MPI verzije:

#$ -pe *gpu 8

module load gromacs/2018.4-mvapich22-gpu
mvapich-wrapper.sh gmx mdrun -ntomp 1 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append 

Važno

Aplikacija u MPI izvedbi se mora pozivati s mvapich-wrapper.sh!

Korištenje više procesorskih jezgri

Ukoliko je potrebno, moguće je zatražiti više procesorskih jezgri, korištenjem atributa cores.

BITNO:

  • navedeni broj se odnosi na broj procesorskih jezgri po zahtijevanom grafičkom procesoru

Važno

Aplikacija koja koristi više procesorskih jezgri se mora pozivati s cuda-wrapper-nopin.sh, odnosno mvapich-wrapper-nopin.sh!

Primjeri korištenja višedretvene verzije:

#$ -N gromacs-cpugpu
#$ -pe gpusingle 2
#$ -l cores=9
#$ -cwd

module load gromacs/2018.4-gpu

cuda-wrapper-nopin.sh gmx mdrun -ntmpi $NSLOTS -ntomp 9 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro
#$ -N gromacs-cpugpu
#$ -pe gpusingle 3
#$ -l cores=6
#$ -cwd

module load gromacs/2018.4-gpu

cuda-wrapper-nopin.sh gmx mdrun -ntmpi $NSLOTS -ntomp 6 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro

Primjer korištenja MPI verzije:

#$ -N gromacs-cpugpu
#$ -pe gpu 3
#$ -l cores=6
#$ -cwd

module load gromacs/2018.4-mvapich22-gpu

mvapich-wrapper-nopin.sh gmx mdrun -ntomp 6 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro


  • No labels