Hello,<div><br></div><div>I'm a new user of Molpro 2010 and I'm compiling it to work on a standard home-made Beowulf cluster.</div><div><br></div><div>I've compiled it with global arrays 5.0.2 and mpich2 1.4.1. However, I'm having some doubts:</div>
<div><br></div><div>1. From what I understood by reading the docs, is there an option to not use global arrays? Should I use just pure MPICH2 for my setup? Is global arrays optimized for InfiniBand and other non-conventional networks and, as such, not recommended to my standard ethernet network?</div>
<div><br></div><div>2. By running some test jobs that came with Molpro and comparing the serial results with the parallel results, the serial ones were faster in all cases. Is there a common mistake that I might be causing these undesired results? What issues should I look for?</div>
<div><br></div><div>3. Let's say that I'm trying to separate my computation in two computers: foo and bar. If I call molpro in the foo machine like this:</div><div><br></div><div>molpro -N user:foo:1,user:bar:1 <a href="http://myjob.com">myjob.com</a></div>
<div><br></div><div>I get an MPI error complained that it couldn't connect to rank 0. However, if I switch the orders of the hosts like this:</div><div><br></div><div>molpro -N user:bar:1,user:foo:1 <a href="http://myjob.com">myjob.com</a></div>
<div><br></div><div>It works, but dumps the results in the bar machine. Both machine can login with "user" using ssh without passwords. What am I missing here? Maybe using the rank 0 machine for the computation is not recommended?</div>
<div><br></div><div>4. What is the deal with the helper servers? I couldn't understand their roles by just reading the docs.</div><div><br></div><div>Thanks in advance for your time and attention.</div><div><br></div>
<div>Cheers,</div><div><br></div><div>Ivan</div>