Módosítások

Budapest2 klaszter

1 222 bájt hozzáadva, 2017. március 15., 12:33
a
nincs szerkesztési összefoglaló
|-
| Típus
| HPSL250s
|-
| core / node
|-
| Intel Xeon Phi / node
| 2 × Intel(R) Xeon Phi(TM) MIC SE10/7120 7120P
|-
| Compute node-ok
== Intel Xeon Phi használata ==
* [[Intel_Xeon_Phi |Részletes]] használati és alkalmazás optimalizációs leírás
* [http://software.intel.com/en-us/mic-developer Itt] található az Intel hivatalos dokumentációja ezzel kapcsolatban
* [https://software.intel.com/en-us/xeonphionlinecatalog Itt] található az Intel által hivatalosan támogatott alkalmazások listája
* [http://software.intel.com/en-us/articles/intel-mkl-link-line-advisor Itt] tájékozódhatnak az Intel matematikai könyvtárainak a linkeléséről
#SBATCH --gres=mic:N
</pre>
Az <code>N</code> a az Intel Xeon Phi-k/node számát adja meg, ami 1 és 2 lehet maximum.
==== Job-ok indítása ====
</pre>
==== OpenMPI IntelMPI feladatok ====
MPI feladatok esetén meg kell adnunk az egy node-on elinduló MPI processzek számát is (<code>#SBATCH --ntasks-per-node=</code>). A leggyakoribb esetben ez az egy node-ban található CPU core-ok száma. A párhuzamos programot az <code>mpirun</code> paranccsal kell indítani.
<pre>
#SBATCH --ntasks-per-node=20
#SBATCH --time=12:00:00
 
mpirun PROGRAM
</pre>
</pre>
=== Alkalmazás= Hibrid MPI-specifikus beállítások ======= Gromacs OMP feladatok ====Hibrid MPI-OMP módról akkor beszélünk, ha a párhuzamos alkalmazás MPI-t és OMP-t is használ. Érdemes tudni, hogy az Intel MKL-el linkelt programok MKL hívásai OpenMP képesek. Általában a következő elosztás javasolt: az MPI processzek száma 1-től az egy node-ban található CPU foglalatok száma, az OMP szálak ennek megfelelően az egy node-ban található összes CPU core szám vagy annak fele, negyede (értelem szerűen). A Gromacs programot jobszkipthez a fenti két mód paramétereit kombinálni kell. A következő mpirun paraméterrel kell indítani:példában 2 node-ot, és node-onként 1-1 taskot indítunk taskonként 10 szállal. Alice felhasználó a foobar számla terhére, 8 órára, 2 node-ra küldött be egy hibrid jobot. Egy node-on egyszerre csak 1 db MPI processz fut ami node-onként 10 OMP szálat használ. A 2 gépen összesen 2 MPI proceszz és 2 x 10 OMP szál fut.
<pre>
mpirun #!/bin/bash#SBATCH -A foobar#SBATCH --job-name=mpiomp#SBATCH --time=08:00:00#SBATCH -N 2#SBATCH --ntasks=2#SBATCH --ntasks-per-node=1#SBATCH --cpus-per-reporttask=10#SBATCH -pid o slurm.outexport OMP_NUM_THREADS=${TMPDIR}/SLURM_CPUS_PER_TASKmpirun.pid ../a.out
</pre>
 
 
[[Kategória: HPC]]

Navigációs menü