Hi Sunil,<div><br></div><div>thank you for answer.</div><div>Can you please explain me this problem with o2cb stack heartbeats.</div><div><br></div><div>We&#39;re using IBM XIV storage system as our storage solution.</div>
<div>This is 2 node active/passive failover cluster with 1 Gbit/s ethernet for interconnect and 10 Gbit/s ethernet for public network.</div><div><br></div><div>Should we expect heartbeat problems due to the our storage solution or interconnect?</div>
<div><br></div><div>Can we avoid o2cb stack heartbeat problems with fewer OCFS2 volumes mounted?</div><div><br></div><div>Regards,</div><div>Marko Sutic</div><div><br></div><div> </div><div><br><br><div class="gmail_quote">
On Thu, Sep 15, 2011 at 8:57 PM, Sunil Mushran <span dir="ltr">&lt;<a href="mailto:sunil.mushran@oracle.com">sunil.mushran@oracle.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
That&#39;s very old. We have users having 50+ mounts. The one disadvantage<br>
is that the o2cb stack heartbeats on all mounts. That problem will be addressed<br>
in 1.8 (the tools will be released soon), with global heartbeat (hb volumes<br>
are user-configurable).<br>
<br>
Having said that, the number of volumes depends on the hardware capability.<br>
It is hard to provide simple rules for this. The best solution is to test and figure<br>
out the perf bottleneck.<div><div></div><div class="h5"><br>
<br>
On 09/15/2011 01:00 AM, Marko Sutic wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi list,<br>
<br>
I have a question concerning number of OCFS2 volumes per cluster.<br>
<br>
>From our storage vendor we received recommendations how to configure mount volumes per database to gain the best possible performance.<br>
Basically, we should separate redo logs,archive logs, temp, data, etc.<br>
<br>
This is not hard to configure but I&#39;m concerned about this line that I&#39;ve found on Oracle support site:<br>
<br>
Linux OCFS2 - Best Practices [ID 603080.1]<br>
Number of volumes<br>
The mounting of too many OCFS2 volumes (i.e. 50 or more) per cluster is likely to create a performance (process) bottleneck - this is not specifically related to OCFS2. Ideally, it is desirable to have no more than around 20 OCFS2 partitions per system.<br>

See also <a href="http://oss.oracle.com/bugzilla/show_bug.cgi?id=992" target="_blank">http://oss.oracle.com/<u></u>bugzilla/show_bug.cgi?id=992</a><br>
<br>
<br>
<br>
In our configuration we would need more than 60 OCFS2 mount volumes per cluster so I don&#39;t know should we expect any performance problems due to the number of OCFS2 volumes?<br>
What is your recommendation about number of OCFS2 volumes per cluster regarding performance and stability?<br>
<br>
<br>
Our kernel and ocfs2 version:<br>
# uname -rvp<br>
2.6.18-274.0.0.0.1.el5 #1 SMP Mon Jul 25 14:33:14 EDT 2011 x86_64<br>
<br>
# rpm -qa|grep ocfs2<br>
ocfs2-tools-1.6.3-2.el5<br>
ocfs2-2.6.18-274.0.0.0.1.el5-<u></u>1.4.8-2.el5<br>
ocfs2console-1.6.3-2.el5<br>
<br>
<br>
<br>
Thank you very much for your help.<br>
<br>
Regards,<br>
Marko Sutic<br>
</blockquote>
<br>
</div></div></blockquote></div><br><br>
</div>