<div dir="ltr">Hi 

Adam,<div><br>When I run the following command: "mpirun -n 2 -H wude,wude mpispeed 1000 10s 1", the output suggests that only one process is being launched. The results are as follows:<br><br>Processor = wude<br>Rank = 0/1<br>Sorry, must run with an even number of processes.<br>This program should be invoked in a manner similar to:<br>mpirun -H host1,host2,...,hostN mpispeed [<numSends>|<timeSend>s] [<sendSizeMByte>]<br>     where<br>        numSends: number of blocks to send (e.g., 256), or<br>        timeSend: duration in seconds to send (e.g., 100s)<br>Processor = wude<br>Rank = 0/1<br>Sorry, must run with an even number of processes.<br>This program should be invoked in a manner similar to:<br>mpirun -H host1,host2,...,hostN mpispeed [<numSends>|<timeSend>s] [<sendSizeMByte>]<br>    where<br>        numSends: number of blocks to send (e.g., 256), or<br>        imeSend: duration in seconds to send (e.g., 100s)</div><div>-------------------------------------------------------------------------<br>mpirun noticed that the job aborted, but has no info as to the process that caused that situation.</div><div>-------------------------------------------------------------------------<br><br>As  you have mentioned previously, I believe there might be an issue with the MPI version or the parameters being used. To 

make sure it actually runs the number of processes I want on the nodes I want, I plan to try different parameters of MPI and also reach out to other users of Open MPI to seek their insights and guidance. <br><br>Thank you for your time and assistance. I greatly appreciate your support.<br></div><div><br></div><div><div>Best regards,<br><br></div><div>De Wu</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Adam Deller <<a href="mailto:adeller@astro.swin.edu.au" target="_blank">adeller@astro.swin.edu.au</a>> 于2023年5月25日周四 08:42写道:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi De Wu,<div><br></div><div>If I run </div><div><br></div><div>mpirun -H localhost,localhost mpispeed 1000 10s 1</div><div><br></div><div>it runs correctly as follows:</div><div><br></div><div>adeller@ar313-adeller trunk Downloads> mpirun -H localhost,localhost mpispeed 1000 10s 1 | head<br>Processor = <my host name><br>Rank = 0/2<br>[0] Starting<br>Processor =<my host name><br>Rank = 1/2<br>[1] Starting<br></div><div><br></div><div>It seems like in your case, MPI is looking at the two identical host names you've given and is deciding to only start one process, rather than two. What if you run </div><div><br></div><div>mpirun -n 2 -H wude,wude mpispeed 1000 10s 1</div><div><br></div><div>?</div><div><br></div><div>I think the issue is with your MPI installation / the parameters being passed to mpirun. Unfortunately as I've mentioned previously the behaviour of MPI with default parameters seems to change from implementation to implementation and version to version - you just need to track down what is needed to make sure it actually runs the number of processes you want on the nodes you want!</div><div><br></div><div>Cheers,<br>Adam</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, 24 May 2023 at 18:30, 深空探测 via Difx-users <<a href="mailto:difx-users@listmgr.nrao.edu" target="_blank">difx-users@listmgr.nrao.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi  All,<div><br></div><div>I am writing to seek assistance regarding an issue I encountered while working with MPI on a CentOS 7 virtual machine.<br></div><div><br>I have successfully installed openmpi-1.6.5 on the CentOS 7 virtual machine. However, when I attempted to execute the command "startdifx -f -n -v aov070.joblist," I received the following error message:<br><br>"Environment variable DIFX_CALC_PROGRAM was set, so<br>Using specified calc program: difxcalc<br><br>No errors with input file /vlbi/corr/aov070/aov070_1.input<br><br>Executing: mpirun -np 4 --hostfile /vlbi/corr/aov070/aov070_1.machines --mca mpi_yield_when_idle 1 --mca rmaps seq runmpifxcorr.DiFX-2.6.2 /vlbi/corr/aov070/aov070_1.input<br>--------------------------------------------------------------------------<br>mpirun noticed that the job aborted, but has no info as to the process that caused that situation.<br>--------------------------------------------------------------------------"<br><br>To further investigate the MPI functionality, I wrote a Python program “mpi_hello_world.py” as follows:</div><div><br>from mpi4py import MPI<br><br>comm = MPI.COMM_WORLD<br>rank = comm.Get_rank()<br>size = comm.Get_size()<br><br>print("Hello from rank", rank, "of", size)<br><br>When I executed the command "mpiexec -n 4 python mpi_hello_world.py," the output was as follows:<br><br>('Hello from rank', 0, 'of', 1)<br>('Hello from rank', 0, 'of', 1)<br>('Hello from rank', 0, 'of', 1)<br>('Hello from rank', 0, 'of', 1)<br><br>Additionally, I attempted to test the MPI functionality using the "mpispeed" command with the following execution command: "mpirun -H wude,wude mpispeed 1000 10s 1".  “wude” is my hostname. However, I encountered the following error message:<br><br>"Processor = wude<br>Rank = 0/1<br>Sorry, must run with an even number of processes<br>This program should be invoked in a manner similar to:<br>mpirun -H host1,host2,...,hostN mpispeed [<numSends>|<timeSend>s] [<sendSizeMByte>]<br>    where<br>        numSends: number of blocks to send (e.g., 256), or<br>        timeSend: duration in seconds to send (e.g., 100s)<br>--------------------------------------------------------------------------<br>mpirun noticed that the job aborted, but has no info as to the process that caused that situation.<br>--------------------------------------------------------------------------"<br><br>I am uncertain about the source of these issues and would greatly appreciate your guidance in resolving them. If you have any insights or suggestions regarding the aforementioned errors and how I can rectify them, please let me know.<br><br>Thank you for your time and assistance. <br><br>Best regards,<br><br></div><div>De Wu</div></div>
_______________________________________________<br>
Difx-users mailing list<br>
<a href="mailto:Difx-users@listmgr.nrao.edu" target="_blank">Difx-users@listmgr.nrao.edu</a><br>
<a href="https://listmgr.nrao.edu/mailman/listinfo/difx-users" rel="noreferrer" target="_blank">https://listmgr.nrao.edu/mailman/listinfo/difx-users</a><br>
</blockquote></div><br clear="all"><div><br></div><span>-- </span><br><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr" style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px"><div dir="ltr" style="font-size:12.8px">!=============================================================!<br><div dir="ltr" style="font-size:12.8px">Prof. Adam Deller         </div></div><div style="font-size:12.8px">Centre for Astrophysics & Supercomputing </div><div dir="ltr" style="font-size:12.8px">Swinburne University of Technology    <br>John St, Hawthorn VIC 3122 Australia</div><div style="font-size:12.8px">phone: +61 3 9214 5307</div><div style="font-size:12.8px">fax: +61 3 9214 8797</div><div style="font-size:12.8px">!=============================================================!</div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div></div>