User Tools

Site Tools


自作クラスタ計算機:mpiによる並列計算

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
自作クラスタ計算機:mpiによる並列計算 [2020/03/03 16:46]
koudai [通常の使い方]
自作クラスタ計算機:mpiによる並列計算 [2023/12/26 23:43] (current)
koudai [ハードウェアの確認]
Line 2: Line 2:
  
   * 実際にMPIを用いたノード内およびノード間の並列計算を行います   * 実際にMPIを用いたノード内およびノード間の並列計算を行います
-  * 事前にOpenMPI, MPICH2, Intel MPIなどのMPIライブラリを管理ノードにインストしてください +  * 事前にOpenMPI, MPICH2, Intel MPIなどのMPIライブラリを管理ノードでビルドし、NFSよって計算ノドと共有してください -> [[数値計算ライブラリ:OpenMPI]] 
-  * Ubuntuでaptを使えばOpenMPIを簡単インストきるので、特にこだわりがなければお勧めです<code> +  * /homeディレクトリNFSサーバよって、管理ノードと計算ノ共有さているとします
-$ sudo apt install openmpi-bin libopenmpi-dev +
-</code> +
-  * **複数のMPIを一つのコンピュータに入れると、競合を起こてMPIが動かなくなります**+
  
 ====== 準備 ====== ====== 準備 ======
Line 19: Line 16:
     * 出てきた数字がCPUあたりのコア数になります      * 出てきた数字がCPUあたりのコア数になります 
   * スレッド数<code>$ cat /proc/cpuinfo | grep "processor"</code>   * スレッド数<code>$ cat /proc/cpuinfo | grep "processor"</code>
-    * 表示される行数が スレッド数 = CPU数 × CPUあたりのコア数 に対応します。通常は論理コア数と物理コア数は等しいですが、Hyper-Threadingが有効の場合は論理コア数が物理コア数の2倍になります。  +    * 表示される行数が スレッド数 = CPU数 × CPUあたりのコア数 に対応します。通常は論理コア数と物理コア数は等しいですが、Intel Hyper-Threadingが有効の場合は論理コア数が物理コア数の2倍になります。  
-      * Hyper-Threadingは見かけ上のコア数が2倍になる技術であり、並列計算プログラムで並列化効率が良い場合は逆に計算速度が著しく低下します。これは1つの物理コアに2つのジョブが投入されてしまうために発生します +      * Hyper-Threadingは見かけ上のコア数が2倍になる技術です。2つのプロセスを1つのCPU物理コアで実行するとき、効率よくリソースを割り振ります 
-      * スレッドごとの計算の重さのバランが著しく悪く1つのスレッドの計算が終わっているのに別のスレッドの計算は続いていというような場合にのみ有効です +      * OpenMPやMPIを使った並列計算をするときに物理コア数以上プロセ数を割り当ててもトータルの計算速度にほとんどご利益(遅くなこともあ)こが多いです 
-      * よくわからない場合は、BIOSを使ってHyper-Threadingをオフにするか、MPIでのジョブ投入時に並列数を物理コア数以下にすることが望しいで+      * BIOSからHyper-Threadingをオフにすることもできます
  
  
Line 74: Line 71:
  
 作業は全て管理ノードで行います 作業は全て管理ノードで行います
-  * 生成したプログラムは管理ノードのNFSサーバの機能により全ノードに配布されます+  * mpirunを実行するノード(管理ノード)とプログラムを動かすノード(計算ノード)が異なる場合、mpirunを実行したノードと同じ名前ディレクトリに移動してプログラムを動かす仕組みになっています 
 +  * 今回生成したクラスタマシンでは、NFSサーバの機能により、管理ノードにあるプログラムが全ノードに配布されます 
  
  
Line 81: Line 80:
 次のコードを使って説明します 次のコードを使って説明します
  
-<file hello.c>+<file hello.c>
 #include <stdio.h> #include <stdio.h>
 #include "mpi.h" #include "mpi.h"
Line 121: Line 120:
 指定した計算ノードにジョブを投げてみます。 指定した計算ノードにジョブを投げてみます。
  
-  * MPIで指定のホストに投げる場合は、オプション<nowiki>-host</nowiki>でホスト名を指定します+  * MPIで指定のホストに投げる場合は、オプション<nowiki>-hosts</nowiki>でホスト名を指定します
   * 計算ノードのkeisan11にジョブを投げる場合は次のようにします<code>   * 計算ノードのkeisan11にジョブを投げる場合は次のようにします<code>
-$ mpirun -host keisan11 -n 8 ./hello+$ mpirun -hosts keisan11 -n 8 ./hello
 Hello world: rank 0 of 8 running on keisan11 Hello world: rank 0 of 8 running on keisan11
 Hello world: rank 1 of 8 running on keisan11 Hello world: rank 1 of 8 running on keisan11
Line 143: Line 142:
  
   * 計算ノードkeisan11, keisan12, keisan13にジョブを投げる場合は次のようにします<code>   * 計算ノードkeisan11, keisan12, keisan13にジョブを投げる場合は次のようにします<code>
-$ mpirun -host keisan11,keisan12,keisan13 -n 8 -ppn 2 ./hello+$ mpirun -hosts keisan11,keisan12,keisan13 -n 8 -ppn 2 ./hello
 Hello world: rank 0 of 8 running on keisan11 Hello world: rank 0 of 8 running on keisan11
 Hello world: rank 1 of 8 running on keisan11 Hello world: rank 1 of 8 running on keisan11
Line 161: Line 160:
  
   * OpenMPIの場合   * OpenMPIの場合
-<file - my_hosts>+<file - hosts.txt>
 keisan11 slots=2 keisan11 slots=2
 keisan12 slots=4 keisan12 slots=4
 </file> </file>
   * MPICH, Intel MPIの場合   * MPICH, Intel MPIの場合
-<file - my_hosts>+<file - hosts.txt>
 keisan11:2 keisan11:2
 keisan12:4 keisan12:4
Line 173: Line 172:
 次のように実行します 次のように実行します
 <code> <code>
-$ mpirun -n 6 -f my_hosts ./hello+$ mpirun -n 6 -f hosts.txt ./hello
 Hello world: rank 0 of 6 running on keisan11 Hello world: rank 0 of 6 running on keisan11
 Hello world: rank 1 of 6 running on keisan11 Hello world: rank 1 of 6 running on keisan11
自作クラスタ計算機/mpiによる並列計算.1583221605.txt.gz · Last modified: 2021/06/27 21:58 (external edit)