You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 46 Next »

Na Isabelli su dostupna tri poslužitelja Dell EMC PowerEdge C4140 s po:

  • 4 grafička procesora NVIDIA Tesla V100-SXM2-16GB
  • 2 procesora Intel Xeon Silver 4114 s ukupno 20 procesorskih jezgri

  • 384 GB radne memorije
  • Lokalnog spremišta od 3.2 TB NVMe SSD diska

Instalirani su NVIDIA alati i biblioteke:

  • CUDA (verzije 9.0, 10.0 i 10.1)
  • cuDNN 7.3.1
  • NCCL 2.3.5.

Pripremljeni su moduli za dostupne verzije CUDA Toolkita koji postavljaju sve CUDA varijable okoline:

VerzijaModul
9.0cuda/9-0
10.0cuda/10-0
10.1cuda/10-1

Pokretanje poslova

U nastavku je opisano podnošenje tipičnih aplikacija koji koriste grafičke procesore. Više informacija o pokretanju poslova možete pronaći na stranici Pokretanje i upravljanje poslovima, a o korištenju pojedinih aplikacija na Korisničke aplikacije i knjižnice.

U svakom opisu posla obavezno treba koristiti cuda-wrapper.sh, kao u primjerima u nastavku.

Korištenje jednog grafičkog procesora

Za pokretanje poslova koji zahtijevaju jedan grafički procesor potrebno je u opisu posla postaviti:

#$ -pe gpu 1

cuda-wrapper.sh aplikacija

Korištenje više grafičkih procesora na jednom čvoru

Za pokretanje poslova koji zahtijevaju više grafičkih procesora na jednom čvoru potrebno je koristiti paralelnu okolinu gpusingle te željeni broj grafičkih procesora (maksimalno 4):

#$ -pe gpusingle 4

cuda-wrapper.sh aplikacija

Korištenje više grafičkih procesora na više čvorova

Korištenje više grafičkih procesora na više čvorova moguće je pomoću knjižnica MPI moduli prevedenih s podrškom za CUDA-u:

VerzijaPrevodilacVerzija CUDA-eModul
MVAPICH2.2Intel 20179.0mpi/mvapich2-intel2017-cuda90-2.2-x86_64
MVAPICH2.2Intel 201810.0mpi/mvapich2-intel2018-cuda-2.2-x86_64
MVAPICH2.2Intel 201910.1mpi/mvapich2-intel2019-cuda101-2.2-x86_64
OpenMPI 1.10.7Intel 201910.0mpi/openmpi-intel-cuda-x86_64
OpenMPI 3.0.0Intel 201910.0mpi/openmpi3-intel-cuda-x86_64

U slučaju korištenja MVAPICH modula:

#$ -cwd
#$ -pe gpu 8

module load <mpi modul>

mvapich-wrapper.sh aplikacija

U slučaju korištenja OpenMPI modula:

#$ -cwd
#$ -pe gpu 8

module load <mpi modul>

openmpi-wrapper.sh aplikacija

Korištenje cijelih čvorova s grafičkim procesorima

Za pokretanje poslova koji zahtijevaju cijele čvorove potrebno je koristiti paralelnu okolinu gpufull te željeni broj grafičkih procesora (mora biti djelitelj broja 4). Primjer skripte za zauzimanje dva čvora:

#$ -pe gpufull 8

module load <mpi modul>

mvapich-wrapper.sh aplikacija

Korištenje više procesorskih jezgri

Raspoređivač poslova pretpostavljeno svakom poslu na grafičkim procesorima pridjeljuje jednu CPU jezgru. Ukoliko je potrebno, moguće je tražiti veći broj jezgara:

#$ -l cores <broj_jezgri>

U svakom opisu posla obavezno treba koristiti odgovarajući wrapper s obzirom na vrstu posla:

  • cuda-wrapper-nopin.sh - poslovi koji koriste jedan GPU
  • openmpi-wrapper-nopin.sh - poslovi koji koriste više GPU-ova i OpenMPI biblioteku
  • mvapich-wrapper-nopin.sh - poslovi koji koriste više GPU-ova i MVAPICH biblioteku

BITNO:

  • navedeni broj se odnosi na broj procesorskih jezgri po zahtijevanom grafičkom procesoru. Ukoliko korisnički posao zahtijeva 6 grafičkih procesora i 24 procesorske jezgre potrebno je navesti:
#$ -pe gpu 6
#$ -l cores=4
 
mvapich-wrapper-nopin.sh aplikacija
  • čvorovi raspolažu s 20 procesorskih jezgri pa je to potrebno uzeti u obzir prilikom navođenja parametra
  • prilikom korištenja cijelih čvorova nije potrebno navoditi ovaj parametar

Broj zahtijevanih procesorskih jezgara ograničen je s obzirom na broj traženih grafičkih procesora. Maksimalne vrijednosti dane su u sljedećoj tablici:

Broj grafičkih procesora

Maksimalan broj procesorskih jezgri po grafičkom procesoru

117
29
36

Korištenje scratch diska

Za poslove koji zahtijevaju čest nasumičan pristup podacima na disku, kao što su TensorFlow i PyTorch poslovi, preporuča se korištenje diskova na radnim čvorovima. Općenite upute o korištenju scratch diskova mogu se pronaći na Pokretanje i upravljanje poslovima.

Za svaki korisnički posao automatski se kreira privremeni direktorij na disku na radnom čvoru, do kojeg je putanja spremljena u SGE varijablu okoline $TMPDIR. Primjer prebacivanja podataka na radni čvor:

moj_posao.sge
#!/bin/bash

#$ -N scratch_1
#$ -cwd
#$ -o output/scratch.out
#$ -j y
#$ -pe gpu 1
#$ -l scratch=100
 
# neka su podaci koje aplikacija koristi spremljeni u $HOME/data/data.tar

mkdir -p $TMPDIR/data
tar xf -C $HOME/data/data.tar $TMPDIR/data/

cuda-wrapper.sh python3.5 moja_aplikacija.py

Privremeni direktorij na /scratch disku se automatski briše nakon završetka posla. Ukoliko se tokom izvođenja aplikacije generiraju bitni izlazni podaci, potrebno ih je unutar skripte za opis posla kopirati u home direktorij.

Nadzor GPU poslova

Za pregled svih korisničkih poslova koji se izvršavaju na čvorovima s grafičkim procesorima koristi se naredba:

$ qstat -u "*" -q gpu.*.q

Za pregled poslova u redu čekanja za radne čvorove s grafičkim procesorima koristi se naredba:

$ gpuqw
  • No labels