You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 3 Next »

Opis

GROMACS je računalno-kemijska aplikacija za molekulsku dinamiku (MD), a prvenstveno se koristi za simulacije makromolekula, kao što su proteini te se može smatrati besplatnom alternativom komercijalnom Amberu.

GROMACS se prvenstveno temelji na klasičnoj mehanici, što znači da koristi jednadžbe gibanja klasične mehanike za izračunavanje kretanja atoma, molekule. MD simulacije mogu pružiti informacije o ponašanju i svojstvima molekula, poput njihovih konformacija, energija i interakcija s drugim molekulama.

GROMACS je aplikacija otvorenog koda, a podržava hibridnu paralelizaciju, MPI + OpenMP, kao i upotrebu grafičkih procesora koji značajno ubrzavaju MD izračune. 

Verzije

verzijamodulparalelizacijared poslova
2022.5scientific/gromacs/2022.5-gnuMPI + OpenMP-q cpu
2023scientific/gromacs/2023-gnuMPI + OpenMP-q cpu

Službena dokumentacija

Primjeri

Kad u PBS zaglavlju definirate vrijednost varijable ncpus, u okolinu se automatski doprema ista vrijednost OMP_NUM_THREADS varijable.

MPI + OpenMP

Budući da aplikacija podržava hibridnu paralelizaciju, MPI procese možete podijeliti na OpenMP threadove.

GROMACS preporuča između 2 i 8 threadova po MPI procesu.

U primjeru niže, aplikacija će stvoriti 8 MPI procesa, podijeljenih u 4 OpenMP threada.

PBS skripta
#PBS -N run-gmx
#PBS -q cpu
#PBS -l select=8:ncpus=4
#PBS -j oe
MPI_NUM_PROCESSES=$(cat ${PBS_NODEFILE} | wc -l)
cd ${PBS_O_WORKDIR}

module load scientific/gromacs/2023-gnu

# Produkcijska faza
gmx grompp -c npt.gro -r npt.gro -p topol.top -f md.mdp -o md.tpr
mpiexec -n ${MPI_NUM_PROCESSES} -d ${OMP_NUM_THREADS} --cpu-bind depth gmx mdrun -pin on -v -deffnm md

MPI

Ukoliko aplikaciju ne želite dijeliti aplikaciju u OpenMP threadove, možete koristiti paralelizaciju isključivo na razini MPI procesa.

U primjeru niže, aplikacija će pokrenuti 32 MPI procesa.

PBS skripta
#PBS -N run-gmx
#PBS -q cpu
#PBS -l select=32:ncpus=1
#PBS -j oe
MPI_NUM_PROCESSES=$(cat ${PBS_NODEFILE} | wc -l)
cd ${PBS_O_WORKDIR}

module load scientific/gromacs/2023-gnu

# Produkcijska faza
gmx grompp -c npt.gro -r npt.gro -p topol.top -f md.mdp -o md.tpr
mpiexec -n ${MPI_NUM_PROCESSES} -d ${OMP_NUM_THREADS} --cpu-bind depth gmx mdrun -pin on -v -deffnm md

OpenMP

Ukoliko aplikaciju želite dijeliti isključivo u OpenMP threadove, morate zatražiti jedan računalni čvor, budući da u ovom slučaju aplikacija radi s dijeljenom memorijom.

GROMACS će vrijednost OMP_NUM_THREADS dobiti po definiranju ncpus varijable u zaglavlju skripte.

U primjeru niže, aplikacija će pokrenuti 32 OpenMP threada.

Bash skripta
#PBS -N run-gmx
#PBS -q cpu
#PBS -l select=1:ncpus=32
#PBS -j oe
MPI_NUM_PROCESSES=$(cat ${PBS_NODEFILE} | wc -l)
cd ${PBS_O_WORKDIR}

module load scientific/gromacs/2023-gnu

# Produkcijska faza
gmx grompp -c npt.gro -r npt.gro -p topol.top -f md.mdp -o md.tpr
gmx mdrun -pin on -v -deffnm md

Napomene



Novosti i promjene

  • 1.1.1971 - Proin eget justo rhoncus, lobortis mauris sed, congue tellu
  • 1.1.2051 - Duis auctor est sit amet leo dignissim interdum.


  • No labels