Slurm na nvidia: krótki wstęp
- kolejkowanie prośby o sesję (każdy użytkownik może mieć max 1 zadanie w kolejce)
krz2@nvidia-head:~$ salloc salloc: Granted job allocation 21
konkretny węzeł (tu: nvidia2)
krz2@nvidia-head:~$ salloc -w nvidia2 salloc: Granted job allocation 21
- stan kolejki
krz@nvidia-head:~$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
87 debug bash s292680 PD 0:00 1 (Resources)
88 debug bash s277629 PD 0:00 1 (Priority)
89 debug bash s292511 PD 0:00 1 (Priority)
90 debug bash s292508 PD 0:00 1 (Priority)
93 debug hostname s291528 PD 0:00 1 (Priority)
85 debug bash s290562 R 3:33 1 nvidia2
- uruchamianie zadania w aktywnej sesji
krz2@nvidia-head:~$ srun hostname nvidia2
- uruchamianie shella w aktywnej sesji
srun -u bash -i
- transmisje plików (działa tylko jeśli jest aktywna sesji)
krz2@nvidia-head:~$ sbcast nazwa_pliku /katalog/docelowy
- bądź miły dla innych - kończ sesję gdy tylko przestaje ci być potrzebna:
krz2@nvidia-head:~$ exit