Thanks Manhui. It helps. In my case SF files are way too small less than 1 MB while disk used is nearly 200 GB for a 8 process job. So basically it all depends on the number of processes. Hence, a 4 process job with 2node and 2processes/node and 1 node and 4processes/node will roughly use the same disk space.<br>
<br><div class="gmail_quote">On Fri, Jan 15, 2010 at 7:12 AM, Manhui Wang <span dir="ltr"><<a href="mailto:wangm9@cardiff.ac.uk">wangm9@cardiff.ac.uk</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi Neeraj,<br>
     There are at least two kinds of files in the scratch, one is EAF<br>
(Exclusive Access Files)  which can be only accessed by a single<br>
process, and another is SF (Shared Files) to which multiple processes<br>
can read and write independently.  For a particular job, each process<br>
needs a certain amount of space for EAF files. This means the total<br>
space will increase linearly if many processes are used, but for each<br>
process the used space is roughly the same.<br>
    For many applications, EAF files may be very large. Molpro output<br>
also summarizes the total used space. Here is an example, where DISK<br>
USED indicates the total space used for EAF and related, and SF USED<br>
indicates the total space used for SF<br>
(1) job run with 2 processes on 1 node<br>
 DISK USED  *         9.96 MB<br>
 SF USED    *         3.05 MB<br>
 GA USED    *         0.29 MB       (max)       0.27 MB       (current)<br>
<br>
(2) job run with 4 processes on 1 node<br>
 DISK USED  *        19.68 MB<br>
 SF USED    *         3.05 MB<br>
 GA USED    *         0.29 MB       (max)       0.27 MB       (current)<br>
<br>
In addition, molpro2009.1 should clean up the scratch files after every<br>
normal termination. For your case, it depends on what type( EAF, SF?)<br>
the large files belong to, and how you run molpro on multiple nodes (how<br>
many processes each nodes?).<br>
<br>
Best wishes,<br>
Manhui<br>
<div><div></div><div class="h5"><br>
<br>
<br>
Neeraj Rai wrote:<br>
> Hello all,<br>
><br>
>      So far I have run molpro calculation on a single node with many<br>
> cores and lot of memory and it wrote nearly 200Gb of in the temporary<br>
> files on the scratch space on that particular node. If I were to run the<br>
> same job with multiple nodes each with much less memory (distributed<br>
> memory paradigm) will each node write these large files on the scratch<br>
> space or read/write is done on one node and then distributed across node<br>
> so my disk requirements will not balloon with more nodes I request. or<br>
> if codes writes on individual nodes will the file size be smaller?<br>
><br>
>      Thanks.<br>
><br>
> --<br>
> Regards,<br>
> Neeraj.<br>
><br>
><br>
><br>
</div></div>> ------------------------------------------------------------------------<br>
><br>
> _______________________________________________<br>
> Molpro-user mailing list<br>
> <a href="mailto:Molpro-user@molpro.net">Molpro-user@molpro.net</a><br>
> <a href="http://www.molpro.net/mailman/listinfo/molpro-user" target="_blank">http://www.molpro.net/mailman/listinfo/molpro-user</a><br>
<font color="#888888"><br>
--<br>
-----------<br>
Manhui  Wang<br>
School of Chemistry, Cardiff University,<br>
Main Building, Park Place,<br>
Cardiff CF10 3AT, UK<br>
Telephone: +44 (0)29208 76637<br>
</font></blockquote></div><br><br clear="all"><br>-- <br>Regards,<br>Neeraj.<br><br><br>