This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
自作クラスタ計算機:mpiによる並列計算 [2020/03/02 18:48] koudai [ホストファイルによるジョブの投入] |
自作クラスタ計算機:mpiによる並列計算 [2023/12/26 23:43] (current) koudai [ハードウェアの確認] |
||
---|---|---|---|
Line 2: | Line 2: | ||
* 実際にMPIを用いたノード内およびノード間の並列計算を行います | * 実際にMPIを用いたノード内およびノード間の並列計算を行います | ||
- | * 事前にOpenMPI, | + | * 事前にOpenMPI, |
- | * 例えばOpenMPIであれば次のようにインストールできます< | + | * / |
- | $ sudo apt install openmpi-bin libopenmpi-dev | + | |
- | </code> | + | |
- | * **同じコンピュータに複数のMPIを入れると競合を起こしてMPIが動かなくなることがあります** | + | |
====== 準備 ====== | ====== 準備 ====== | ||
Line 19: | Line 16: | ||
* 出てきた数字がCPUあたりのコア数になります | * 出てきた数字がCPUあたりのコア数になります | ||
* スレッド数< | * スレッド数< | ||
- | * 表示される行数が スレッド数 = CPU数 × CPUあたりのコア数 に対応します。通常は論理コア数と物理コア数は等しいですが、Hyper-Threadingが有効の場合は論理コア数が物理コア数の2倍になります。 | + | * 表示される行数が スレッド数 = CPU数 × CPUあたりのコア数 に対応します。通常は論理コア数と物理コア数は等しいですが、Intel Hyper-Threadingが有効の場合は論理コア数が物理コア数の2倍になります。 |
- | * Hyper-Threadingは見かけ上のコア数が2倍になる技術であり、並列計算プログラムで並列化効率が良い場合は逆に計算速度が著しく低下します。これは1つの物理コアに2つのジョブが投入されてしまうために発生します。 | + | * Hyper-Threadingは見かけ上のコア数が2倍になる技術です。2つのプロセスを1つのCPU物理コアで実行するときに、効率よくリソースを割り振ります |
- | * スレッドごとの計算の重さのバランスが著しく悪く、1つのスレッドの計算が終わっているのに別のスレッドの計算は続いている、というような場合にのみ有効です。 | + | * OpenMPやMPIを使った並列計算をするときに物理コア数以上のプロセス数を割り当てても、トータルの計算速度にほとんどご利益がない(遅くなることもある)ことが多いです |
- | * よくわからない場合は、BIOSを使ってHyper-Threadingをオフにするか、MPIでのジョブ投入時に並列数を物理コア数以下にすることが望ましいです。 | + | * BIOSからHyper-Threadingをオフにすることもできます |
Line 31: | Line 28: | ||
* そこでパスフレーズなしのSSH鍵を作成することで、パスワードの入力を回避します | * そこでパスフレーズなしのSSH鍵を作成することで、パスワードの入力を回避します | ||
- | - 管理ノードのジョブを投げるユーザーのアカウント(以下ではsugimotoとします)にログインし、SSH鍵を作成します。パスフレーズを聞かれるところでは、**なにも入力せずに**エンターを押します< | + | - 管理ノードのジョブを投げるユーザーのアカウント(以下ではsugimotoとします)にログインし、SSH鍵を作成します。パスフレーズを聞かれるところでは**なにも入力せずに**エンターを押します< |
$ ssh-keygen -t rsa | $ ssh-keygen -t rsa | ||
Generating public/ | Generating public/ | ||
Line 74: | Line 71: | ||
作業は全て管理ノードで行います | 作業は全て管理ノードで行います | ||
- | * 生成したプログラムは管理ノードのNFSサーバの機能により全ノードに配布されます | + | * mpirunを実行するノード(管理ノード)とプログラムを動かすノード(計算ノード)が異なる場合は、mpirunを実行したノードと同じ名前のディレクトリに移動してプログラムを動かす仕組みになっています |
+ | * 今回生成したクラスタマシンでは、NFSサーバの機能により、管理ノードにあるプログラムが全ノードに配布されます | ||
Line 81: | Line 80: | ||
次のコードを使って説明します | 次のコードを使って説明します | ||
- | < | + | < |
#include < | #include < | ||
#include " | #include " | ||
Line 96: | Line 95: | ||
name[len] = ' | name[len] = ' | ||
| | ||
- | printf( " | + | printf( " |
MPI_Finalize(); | MPI_Finalize(); | ||
Line 108: | Line 107: | ||
</ | </ | ||
* 試しに管理ノードで走らせてみます< | * 試しに管理ノードで走らせてみます< | ||
- | $ mpirun -n 4 hello | + | $ mpirun -n 4 ./hello |
- | Hello World! I am 0 of 4 from kanri. | + | Hello world: rank 0 of 4 running on kanri |
- | Hello World! I am 1 of 4 from kanri. | + | Hello world: rank 1 of 4 running on kanri |
- | Hello World! I am 2 of 4 from kanri. | + | Hello world: rank 2 of 4 running on kanri |
- | Hello World! I am 3 of 4 from kanri. | + | Hello world: rank 3 of 4 running on kanri |
</ | </ | ||
Line 121: | Line 120: | ||
指定した計算ノードにジョブを投げてみます。 | 指定した計算ノードにジョブを投げてみます。 | ||
- | * MPIで指定のホストに投げる場合は、オプション< | + | * MPIで指定のホストに投げる場合は、オプション< |
* 計算ノードのkeisan11にジョブを投げる場合は次のようにします< | * 計算ノードのkeisan11にジョブを投げる場合は次のようにします< | ||
- | $ mpirun -n 24 --host | + | $ mpirun -hosts keisan11 |
- | Hello World! I am 0 of 24 from keisan11. | + | Hello world: rank 0 of 8 running on keisan11 |
- | Hello World! I am 1 of 24 from keisan11. | + | Hello world: rank 1 of 8 running on keisan11 |
- | Hello World! I am 2 of 24 from keisan11. | + | Hello world: rank 2 of 8 running on keisan11 |
- | Hello World! I am 3 of 24 from keisan11. | + | Hello world: rank 3 of 8 running on keisan11 |
- | (以下略) | + | Hello world: rank 4 of 8 running on keisan11 |
+ | Hello world: rank 5 of 8 running on keisan11 | ||
+ | Hello world: rank 6 of 8 running on keisan11 | ||
+ | Hello world: rank 7 of 8 running on keisan11 | ||
</ | </ | ||
+ | * ホスト名の代わりにIPアドレスでも可能です | ||
Line 138: | Line 141: | ||
複数の計算ノードにわたるジョブを投げてみます。 | 複数の計算ノードにわたるジョブを投げてみます。 | ||
- | * オプション< | ||
* 計算ノードkeisan11, | * 計算ノードkeisan11, | ||
- | $ mpirun -n 72 --host | + | $ mpirun -hosts keisan11, |
- | Hello World! I am 0 of 72 from keisan11. | + | Hello world: rank 0 of 8 running on keisan11 |
- | Hello World! I am 1 of 72 from keisan12. | + | Hello world: rank 1 of 8 running on keisan11 |
- | Hello World! I am 2 of 72 from keisan13. | + | Hello world: rank 2 of 8 running on keisan12 |
- | Hello World! I am 3 of 72 from keisan11. | + | Hello world: rank 3 of 8 running on keisan12 |
- | Hello World! I am 4 of 72 from keisan12. | + | Hello world: rank 4 of 8 running on keisan13 |
- | Hello World! I am 5 of 72 from keisan13. | + | Hello world: rank 5 of 8 running on keisan13 |
- | (以下略) | + | Hello world: rank 6 of 8 running on keisan11 |
+ | Hello world: rank 7 of 8 running on keisan11 | ||
</ | </ | ||
- | | + | * オプション-ppnでノードあたりのプロセス数を指定します |
+ | | ||
==== ホストファイルによるジョブの投入 ==== | ==== ホストファイルによるジョブの投入 ==== | ||
- | 例えば計算ノードによって性能に差がある場合など、ノードごとのプロセス数を自分で管理したい場合はホストファイルを作成します。 | + | ホスト名を毎回入力したくない、計算ノードによってプロセス数を変えたいなどの場合は、ホストファイルを作成します。 |
+ | * OpenMPIの場合 | ||
+ | <file - hosts.txt> | ||
+ | keisan11 slots=2 | ||
+ | keisan12 slots=4 | ||
+ | </ | ||
* MPICH, Intel MPIの場合 | * MPICH, Intel MPIの場合 | ||
- | <file - my_hosts> | + | <file - hosts.txt> |
keisan11:2 | keisan11:2 | ||
- | keisan12:3 | + | keisan12:4 |
- | </ | + | |
- | * OpenMPIの場合 | + | |
- | <file - my_hosts> | + | |
- | keisan11 slots=2 | + | |
- | keisan12 slots=3 | + | |
</ | </ | ||
次のように実行します | 次のように実行します | ||
< | < | ||
- | $ mpirun -n 6 --hostfile my_hosts | + | $ mpirun -n 6 -f hosts.txt ./hello |
- | Hello World! I am 0 of 6 from keisan11. | + | Hello world: rank 0 of 6 running on keisan11 |
- | Hello World! I am 1 of 6 from keisan11. | + | Hello world: rank 1 of 6 running on keisan11 |
- | Hello World! I am 2 of 6 from keisan12. | + | Hello world: rank 2 of 6 running on keisan12 |
- | Hello World! I am 3 of 6 from keisan12. | + | Hello world: rank 3 of 6 running on keisan12 |
- | Hello World! I am 4 of 6 from keisan12. | + | Hello world: rank 4 of 6 running on keisan12 |
- | Hello World! I am 5 of 6 from keisan11. | + | Hello world: rank 5 of 6 running on keisan12 |
</ | </ | ||
- | * プロセスは keisan11 -> keisan11 -> keisan12 -> keisan12 -> keisan12 -> keisan11 -> keisan11 -> keisan12 -> keisan12 -> keisan12 -> keisan11 -> ... の順に割り振られて行きます | + | * プロセスは keisan11 -> keisan11 |
+ | * Intel MPIの場合は< | ||
+ | * https:// | ||
====== 参考 ====== | ====== 参考 ====== |