GROMACS je paket za izvođenje simulacija dinamike molekula, npr. simulacija Newtonovih jednadžbi gibanja sistema s velikim brojem čestica (od nekoliko tisuća, pa do više milijuna). Primarno je dizajniran za biokemijske molekule kao što su proteini, lipidi i nukleinske kiseline koje imaju velik broj kompliciranih vezanih interakcija, ali s obzirom da je GROMACS iznimno brz pri računanju nevezanih interakcija, mnogi ga koriste i za istraživanje ne bioloških sistema tipa polimera.
GROMACS podržava sve tipične algoritme očekivane kod implementacije dinamike molekula ( više detalja u priručniku), ali pruža iznimno visoke performanse u usporedbi s drugim paketima. Paralelizam se postiže koristeći kombinirajući OpenMPI i OpenMP.
Korištenje
Na klasteru su instalirane varijante programskog paketa Gromacs u višedretvenoj i MPI izvedbi za CPU (klasični procesori) i GPU (grafički procesori).
Dostupne verzije su:
Verzija | Implementacija | Modul | Napomena |
---|---|---|---|
5.1.4 | single precision multithread | gromacs/5.1.4 | Koristiti isključivo uz *mpisingle |
5.1.4 | double precision multithread | gromacs/5.1.4-double | Koristiti isključivo uz *mpisingle |
5.1.4 | single precision MPI | gromacs/5.1.4-mvapich22 | |
5.1.4 | double precision MPI | gromacs/5.1.4-mvapich22-double | |
2018.4 | single precision multithread | gromacs/2018.4 | Koristiti isključivo uz *mpisingle |
2018.4 | double precision multithread | gromacs/2018.4-double | Koristiti isključivo uz *mpisingle |
2018.4 | single precision MPI | gromacs/2018.4-mvapich22 | |
2018.4 | double precision MPI | gromacs/2018.4-mvapich22-double | |
2018.4 | single precision multithread + GPU | gromacs/2018.4-gpu | Koristiti isključivo uz gpusingle |
2018.4 | single precision MPI + GPU | gromacs/2018.4-mvapich2-gpu | |
2018.6 | single precision multithread + Plumed | gromacs/2018.6 | Koristiti isključivo uz *mpisingle |
2018.6 | double precision multithread + Plumed | gromacs/2018.6-double | Koristiti isključivo uz *mpisingle |
2018.6 | single precision MPI + Plumed | gromacs/2018.6-mvapich22 | |
2018.6 | double precision MPI + Plumed | gromacs/2018.6-mvapich22-double | |
2018.6 | single precision multithread + GPU + Plumed | gromacs/2018.6-gpu | Koristiti isključivo uz gpusingle |
2018.6 | single precision MPI + GPU + Plumed | gromacs/2018.6-mvapich2-gpu | |
2020.6 | single precision MPI + OpenMP+ Plumed | gromacs/2020.6 | |
2020.6 | double precision MPI +OpenMP + Plumed | gromacs/2020.6-double | |
2020.6 | single precision multithread + GPU + Plumed | gromacs/2020.6-gpu | Koristiti isključivo uz gpusingle |
2020.6 | single precision MPI + GPU + Plumed | gromacs/2020.6-mvapich22-gpu | |
2021.4 | mixed precision MPI + OpenMP + Plumed | gromacs/2021.4-mvapich22 | |
2021.4 | double precision MPI + OpenMP + Plumed | gromacs/2021.4-mvapich22-double | |
2021.4 | mixed precision multithread + GPU + Plumed | gromacs/2021.4-gpu | Koristiti isključivo uz gpusingle |
2021.4 | mixed precision MPI + GPU + Plumed | gromacs/2021.4-mvapich22-gpu | |
2022 | mixed precision MPI + OpenMP | gromacs/2022 | |
2022 | mixed precision multithread + GPU | gromacs/2022-gpu | Koristiti isključivo uz gpusingle |
2022 | mixed precision MPI + GPU | gromacs/2022-mvapich22 |
CPU verzije
Primjer korištenja višedretvene verzije:
#$ -pe *mpisingle 8 module load gromacs/5.1.4 gmx mdrun -nt $NSLOTS -nice 0 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append
Važno
Gromacs verzija 5.1.4 zahtijeva parametar "-nice 0", kod novijih verzija taj parametar nije potreban.
Važno
Ukoliko neki od novijih CPU Gromacs module-a:
gromacs/2020.6
gromacs/2021.4-mvapich22
gromacs/2022
koristite u *mpisingle
paralelnom okruženju, broj jezgri zadajete korištenjem zastavice -ntomp
:
#$ -pe *mpisingle 8 module load gromacs/2021.4-mvapich22 gmx mdrun -ntomp $NSLOTS -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append
Primjer korištenja MPI verzije:
#$ -pe *mpifull 56 module load gromacs/2018.4 mpirun_rsh -np $NSLOTS -hostfile $TMPDIR/machines -export-all gmx mdrun -ntomp 1 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append
GPU verzije
Primjer korištenja višedretvene verzije:
#$ -pe gpusingle 4 module load gromacs/2018.4-gpu cuda-wrapper.sh gmx mdrun -nt $NSLOTS -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append
Važno
Aplikacija u višedretvenoj izvedbi se mora pozivati s cuda-wrapper.sh!
Primjer korištenja MPI verzije:
#$ -pe *gpu 8 module load gromacs/2018.4-mvapich22-gpu mvapich-wrapper.sh gmx mdrun -ntomp 1 -v -c conf30.gro -s topol30.tpr -px pullx30.xvg -pf pullf30.xvg -g md30.log -e ener30.edr -x traj30.xtc -cpi state.cpt -append
Važno
Aplikacija u MPI izvedbi se mora pozivati s mvapich-wrapper.sh!
Korištenje više procesorskih jezgri
Ukoliko je potrebno, moguće je zatražiti više procesorskih jezgri, korištenjem atributa cores.
BITNO:
navedeni broj se odnosi na broj procesorskih jezgri po zahtijevanom grafičkom procesoru
Važno
Aplikacija koja koristi više procesorskih jezgri se mora pozivati s cuda-wrapper-nopin.sh, odnosno mvapich-wrapper-nopin.sh!
Primjeri korištenja višedretvene verzije:
#$ -N gromacs-cpugpu #$ -pe gpusingle 2 #$ -l cores=9 #$ -cwd module load gromacs/2018.4-gpu cuda-wrapper-nopin.sh gmx mdrun -ntmpi $NSLOTS -ntomp 9 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro
#$ -N gromacs-cpugpu #$ -pe gpusingle 3 #$ -l cores=6 #$ -cwd module load gromacs/2018.4-gpu cuda-wrapper-nopin.sh gmx mdrun -ntmpi $NSLOTS -ntomp 6 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro
Primjer korištenja MPI verzije:
#$ -N gromacs-cpugpu #$ -pe gpu 3 #$ -l cores=6 #$ -cwd module load gromacs/2018.4-mvapich22-gpu mvapich-wrapper-nopin.sh gmx mdrun -ntomp 6 -v -s topol32.tpr -x traj.xtc -cpi state.cpt -append -c conf32.gro