This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision Next revision Both sides next revision | ||
自作クラスタ計算機:mpiによる並列計算 [2020/03/03 15:43] koudai [ホストファイルによるジョブの投入] |
自作クラスタ計算機:mpiによる並列計算 [2020/03/03 16:06] koudai [ホストファイルによるジョブの投入] |
||
---|---|---|---|
Line 143: | Line 143: | ||
* オプション< | * オプション< | ||
* 計算ノードkeisan11, | * 計算ノードkeisan11, | ||
- | $ mpirun | + | $ mpirun -hosts keisan11, |
- | Hello world: rank 0 of 10 running on keisan11 | + | Hello world: rank 0 of 8 running on keisan11 |
- | Hello world: rank 1 of 10 running on keisan11 | + | Hello world: rank 1 of 8 running on keisan11 |
- | Hello world: rank 2 of 10 running on keisan11 | + | Hello world: rank 2 of 8 running on keisan12 |
- | Hello world: rank 3 of 10 running on keisan11 | + | Hello world: rank 3 of 8 running on keisan12 |
- | Hello world: rank 4 of 10 running on keisan12 | + | Hello world: rank 4 of 8 running on keisan13 |
- | Hello world: rank 5 of 10 running on keisan12 | + | Hello world: rank 5 of 8 running on keisan13 |
- | Hello world: rank 6 of 10 running on keisan12 | + | Hello world: rank 6 of 8 running on keisan11 |
- | Hello world: rank 7 of 10 running on keisan12 | + | Hello world: rank 7 of 8 running on keisan11 |
- | Hello world: rank 8 of 10 running on keisan13 | + | |
- | Hello world: rank 9 of 10 running on keisan13 | + | |
</ | </ | ||
- | * どうやらMPIを実行したノード(今の場合は管理ノード)のコア数だけ投げたら次のノードに行く、という仕組みみたいです。(未確認) | + | * オプション-ppnでノードあたりのプロセス数を指定します |
+ | * プロセスは keisan11 -> keisan11 -> keisan12 -> keisan12 -> keisan13 -> keisan13 -> keisan11 -> keisan11 -> keisan12 -> ... の順に割り振られていきます | ||
==== ホストファイルによるジョブの投入 ==== | ==== ホストファイルによるジョブの投入 ==== | ||
- | 例えば計算ノードによって性能に差がある場合など、ノードごとのプロセス数を自分で管理したい場合はホストファイルを作成します。 | + | ホスト名を毎回入力したくない、計算ノードによってプロセス数を変えたいなどの場合は、ホストファイルを作成します。 |
* MPICH, Intel MPIの場合 | * MPICH, Intel MPIの場合 |