<HTML>
<HEAD>
<TITLE>Re: [Ocfs2-users] Node Recovery locks I/O in two-node OCFS2 cluster (DRBD 8.3.8 / Ubuntu 10.10)</TITLE>
</HEAD>
<BODY>
<FONT FACE="Calibri, Verdana, Helvetica, Arial"><SPAN STYLE='font-size:11pt'>Thank you, Sunil.<BR>
<BR>
I am not familiar with qdisk, so I will definitely look into it. I will also try posting this to the mailing list you recommended in hopes someone may have an alternate suggestion.<BR>
<BR>
NOTE: I forgot to mention that I am using <B>no-quorum-policy=&quot;ignore&quot;</B>. Also, if I try to remove expected-quorum-votes=&#8221;2&#8221;, it seems to automatically be added back in...<BR>
<BR>
Here is the latest CIB file I have been working with:<BR>
</SPAN></FONT><BLOCKQUOTE><FONT FACE="Calibri, Verdana, Helvetica, Arial"><SPAN STYLE='font-size:11pt'><BR>
node ubu10a<BR>
node ubu10b<BR>
primitive resDLM ocf:pacemaker:controld \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;op monitor interval=&quot;120s&quot;<BR>
primitive resDRBD ocf:linbit:drbd \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;params drbd_resource=&quot;repdata&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;operations $id=&quot;resDRBD-operations&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;op monitor interval=&quot;30s&quot; role=&quot;Master&quot; timeout=&quot;120s&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;op monitor interval=&quot;30s&quot; role=&quot;Master&quot; timeout=&quot;120s&quot;<BR>
primitive resFS ocf:heartbeat:Filesystem \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;params device=&quot;/dev/drbd/by-res/repdata&quot; directory=&quot;/data&quot; fstype=&quot;ocfs2&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;op monitor interval=&quot;120s&quot;<BR>
primitive resO2CB ocf:pacemaker:o2cb \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;op monitor interval=&quot;120s&quot;<BR>
ms msDRBD resDRBD \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;meta resource-stickines=&quot;100&quot; notify=&quot;true&quot; master-max=&quot;2&quot; interleave=&quot;true&quot;<BR>
clone cloneDLM resDLM \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;meta globally-unique=&quot;false&quot; interleave=&quot;true&quot;<BR>
clone cloneFS resFS \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;meta interleave=&quot;true&quot; ordered=&quot;true&quot;<BR>
clone cloneO2CB resO2CB \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;meta globally-unique=&quot;false&quot; interleave=&quot;true&quot;<BR>
colocation colDLMDRBD inf: cloneDLM msDRBD:Master<BR>
colocation colFSO2CB inf: cloneFS cloneO2CB<BR>
colocation colO2CBDLM inf: cloneO2CB cloneDLM<BR>
order ordDLMO2CB 0: cloneDLM cloneO2CB<BR>
order ordDRBDDLM 0: msDRBD:promote cloneDLM<BR>
order ordO2CBFS 0: cloneO2CB cloneFS<BR>
property $id=&quot;cib-bootstrap-options&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;dc-version=&quot;1.0.9-unknown&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;cluster-infrastructure=&quot;openais&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;stonith-enabled=&quot;false&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;no-quorum-policy=&quot;ignore&quot; \<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;expected-quorum-votes=&quot;2&quot; <BR>
</SPAN></FONT></BLOCKQUOTE><FONT FACE="Calibri, Verdana, Helvetica, Arial"><SPAN STYLE='font-size:11pt'><BR>
<HR ALIGN=CENTER SIZE="3" WIDTH="95%"><B>From: </B>Sunil Mushran &lt;<a href="sunil.mushran@oracle.com">sunil.mushran@oracle.com</a>&gt;<BR>
<B>Date: </B>Fri, 01 Apr 2011 12:01:43 -0700<BR>
<B>To: </B>Mike Reid &lt;<a href="mbreid@thepei.com">mbreid@thepei.com</a>&gt;<BR>
<B>Cc: </B>&lt;<a href="ocfs2-users@oss.oracle.com">ocfs2-users@oss.oracle.com</a>&gt;<BR>
<B>Subject: </B>Re: [Ocfs2-users] Node Recovery locks I/O in two-node OCFS2 cluster (DRBD 8.3.8 / Ubuntu 10.10)<BR>
<BR>
&nbsp;&nbsp;&nbsp;I believe this is a pacemaker issue. There was a time it required a<BR>
&nbsp;qdisk to continue working as a single node in a 2 node cluster when<BR>
&nbsp;one node died. if pacemaker people don't jump in, you may want to<BR>
&nbsp;try your luck in the linux-cluster mailing list.<BR>
&nbsp;<BR>
&nbsp;On 04/01/2011 11:44 AM, Mike Reid wrote: <BR>
</SPAN></FONT><BLOCKQUOTE><FONT FACE="Calibri, Verdana, Helvetica, Arial"><SPAN STYLE='font-size:11pt'> Node Recovery locks I/O in two-node OCFS2 cluster (DRBD 8.3.8 / Ubuntu 10.10) I am running a two-node web cluster on OCFS2 via DRBD Primary/Primary (v8.3.8) and Pacemaker. Everything &nbsp;seems to be working great, except during testing of hard-boot scenarios.<BR>
&nbsp;<BR>
&nbsp;Whenever I hard-boot one of the nodes, the other node is successfully fenced and marked &#8220;Outdated&#8221;<BR>
&nbsp;<BR>
&nbsp;&nbsp;<BR>
</SPAN></FONT><UL><LI><SPAN STYLE='font-size:11pt'><FONT FACE="Courier, Courier New">&lt;resource minor=&quot;0&quot; cs=&quot;WFConnection&quot; ro1=&quot;Primary&quot; ro2=&quot;<B>Unknown</B>&quot; ds1=&quot;UpToDate&quot; ds2=&quot;<B>Outdated</B>&quot; /&gt;
</FONT></SPAN><LI><SPAN STYLE='font-size:11pt'><FONT FACE="Courier, Courier New"> <BR>
</FONT></SPAN></UL><SPAN STYLE='font-size:11pt'><FONT FACE="Calibri, Verdana, Helvetica, Arial"> <BR>
</FONT><FONT FACE="Courier, Courier New"> </FONT><FONT FACE="Calibri, Verdana, Helvetica, Arial">However, this locks up I/O on the still active node and prevents any operations within the cluster :(<BR>
&nbsp;I have even forced DRBD into StandAlone mode while in this state, but that does not resolve the I/O lock either.<BR>
&nbsp;<BR>
</FONT><FONT FACE="Courier, Courier New"> </FONT><FONT FACE="Calibri, Verdana, Helvetica, Arial"> <BR>
</FONT></SPAN><UL><LI><SPAN STYLE='font-size:11pt'><FONT FACE="Courier, Courier New">&lt;resource minor=&quot;0&quot; cs=&quot;<B>StandAlone</B>&quot; ro1=&quot;<B>Primary</B>&quot; ro2=&quot;Unknown&quot; ds1=&quot;<B>UpToDate</B>&quot; ds2=&quot;Outdated&quot; /&gt;
</FONT></SPAN><LI><SPAN STYLE='font-size:11pt'><FONT FACE="Courier, Courier New"> <BR>
</FONT></SPAN></UL><SPAN STYLE='font-size:11pt'><FONT FACE="Calibri, Verdana, Helvetica, Arial"> <BR>
</FONT><FONT FACE="Courier, Courier New"> </FONT><FONT FACE="Calibri, Verdana, Helvetica, Arial">The only way I&#8217;ve been able to successfully regain I/O within the cluster is to bring back up the other node. While monitoring the logs, it seems that it is OCFS2 that&#8217;s establishing the lock/unlock and <I>not</I> DRBD at all.<BR>
&nbsp;&nbsp;<BR>
</FONT></SPAN><BLOCKQUOTE><SPAN STYLE='font-size:11pt'><FONT FACE="Calibri, Verdana, Helvetica, Arial"><BR>
&nbsp;<BR>
&nbsp;Apr &nbsp;1 12:07:19 ubu10a kernel: [ 1352.739777] (ocfs2rec,3643,0):ocfs2_replay_journal:1605 Recovering node 1124116672 from slot 1 on device (147,0)<BR>
&nbsp;Apr &nbsp;1 12:07:19 ubu10a kernel: [ 1352.900874] (ocfs2rec,3643,0):ocfs2_begin_quota_recovery:407 Beginning quota recovery in slot 1<BR>
&nbsp;Apr &nbsp;1 12:07:19 ubu10a kernel: [ 1352.902509] (ocfs2_wq,1213,0):ocfs2_finish_quota_recovery:598 Finishing quota recovery in slot 1<BR>
&nbsp;<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.423915] block drbd0: Handshake successful: Agreed network protocol version 94<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.433074] block drbd0: Peer authenticated using 20 bytes of 'sha1' HMAC<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.433083] block drbd0: conn( WFConnection -&gt; WFReportParams )<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.433097] block drbd0: Starting asender thread (from drbd0_receiver [2145])<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.433562] block drbd0: data-integrity-alg: &lt;not-used&gt;<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.434090] block drbd0: drbd_sync_handshake:<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.434094] block drbd0: self FBA98A2F89E05B83:EE17466F4DEC2F8B:6A4CD8FDD0562FA1:EC7831379B78B997 bits:4 flags:0<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.434097] block drbd0: peer EE17466F4DEC2F8A:0000000000000000:6A4CD8FDD0562FA0:EC7831379B78B997 bits:2048 flags:2<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.434099] block drbd0: uuid_compare()=1 by rule 70<BR>
&nbsp;Apr &nbsp;1 12:07:20 ubu10a kernel: [ 1354.434104] block drbd0: peer( Unknown -&gt; Secondary ) conn( WFReportParams -&gt; WFBitMapS )<BR>
&nbsp;Apr &nbsp;1 12:07:21 ubu10a kernel: [ 1354.601353] block drbd0: conn( WFBitMapS -&gt; SyncSource ) pdsk( Outdated -&gt; Inconsistent )<BR>
&nbsp;Apr &nbsp;1 12:07:21 ubu10a kernel: [ 1354.601367] block drbd0: Began resync as SyncSource (will sync 8192 KB [2048 bits set]).<BR>
&nbsp;Apr &nbsp;1 12:07:21 ubu10a kernel: [ 1355.401912] block drbd0: Resync done (total 1 sec; paused 0 sec; 8192 K/sec)<BR>
&nbsp;Apr &nbsp;1 12:07:21 ubu10a kernel: [ 1355.401923] block drbd0: conn( SyncSource -&gt; Connected ) pdsk( Inconsistent -&gt; UpToDate )<BR>
&nbsp;Apr &nbsp;1 12:07:22 ubu10a kernel: [ 1355.612601] block drbd0: peer( Secondary -&gt; Primary )<BR>
&nbsp;<BR>
&nbsp;<BR>
&nbsp;<BR>
</FONT></SPAN></BLOCKQUOTE><SPAN STYLE='font-size:11pt'><FONT FACE="Calibri, Verdana, Helvetica, Arial"> Therefore, my question is if there is an option in OCFS2 to remove / prevent this lock, especially since it&#8217;s inside a DRBD configuration? I&#8217;m still new to OCFS2, so I am definitely open to any criticism regarding my setup/approach, or any recommendations related to keeping the cluster active when another node is shutdown during testing. <BR>
<BR>
<BR>
_______________________________________________<BR>
Ocfs2-users mailing list<BR>
<a href="Ocfs2-users@oss.oracle.com">Ocfs2-users@oss.oracle.com</a><BR>
<a href="http://oss.oracle.com/mailman/listinfo/ocfs2-users">http://oss.oracle.com/mailman/listinfo/ocfs2-users</a><BR>
&nbsp;<BR>
</FONT></SPAN></BLOCKQUOTE><SPAN STYLE='font-size:11pt'><FONT FACE="Calibri, Verdana, Helvetica, Arial"> <BR>
&nbsp;<BR>
</FONT></SPAN>
</BODY>
</HTML>