<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
<br>
<blockquote cite="mid4586E9E7.8080406@oracle.com" type="cite"><br>
  <br>
Patrick Donker wrote:
  <br>
  <blockquote type="cite">Hi everybody,
    <br>
First of all, I am new to this list and ocfs2, so forgive my ignorance.
    <br>
Anyhow, what I'm doing is this:
    <br>
I'm experimenting on a 2 node debian etch shared fs and have installed
ocfs2-tools 1.2.1.
    <br>
The debs run on a vmware esx 3.0.0 server and are clones of a default
template.
    <br>
This is my cluster.conf:
    <br>
cluster:
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; node_count = 2
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = san&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; node:
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_port = 7777
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_address = 192.168.100.2
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; number = 0
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = mail&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cluster = san&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; node:
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_port = 7777
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_address = 192.168.100.5
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; number = 1
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = san
    <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cluster = san
    <br>
    <br>
If I start and mount the fs on one of the nodes, everything goes fine.
However, as soon as I mount the fs on the other node I get a kernel
panic with this message:
    <br>
    <br>
Dec 17 13:06:01 san kernel: (2797,0):o2hb_do_disk_heartbeat:854 ERROR:
Device "sdb": another node is heartbeating in our slot!
    <br>
    <br>
mounted.ocfs2 -d on both nodes tell me this:
    <br>
    <br>
/dev/sdb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ocfs2&nbsp; 6616a964-f474-4c5e-94b9-3a20343a7178
    <br>
fsck.ocfs2 -n /dev/sdb
    <br>
    <br>
Checking OCFS2 filesystem in /dev/sdb:
    <br>
&nbsp;label:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;NONE&gt;
    <br>
&nbsp;uuid:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 66 16 a9 64 f4 74 4c 5e 94 b9 3a 20 34 3a 71 78
    <br>
&nbsp;number of blocks:&nbsp;&nbsp; 26214400
    <br>
&nbsp;bytes per block:&nbsp;&nbsp;&nbsp; 4096
    <br>
&nbsp;number of clusters: 3276800
    <br>
&nbsp;bytes per cluster:&nbsp; 32768
    <br>
&nbsp;max slots:&nbsp; 16
    <br>
    <br>
Somehow both nodes use the same slot to heartbeat in. Not sure what
causes this or how to change this. Please help me debug this problem
because I'm stuck.
    <br>
    <br>
Thanks
    <br>
Patrick
    <br>
    <br>
    <br>
_______________________________________________
    <br>
Ocfs2-users mailing list
    <br>
<a class="moz-txt-link-abbreviated" href="mailto:Ocfs2-users@oss.oracle.com">Ocfs2-users@oss.oracle.com</a>
    <br>
<a class="moz-txt-link-freetext" href="http://oss.oracle.com/mailman/listinfo/ocfs2-users">http://oss.oracle.com/mailman/listinfo/ocfs2-users</a>
    <br>
  </blockquote>
</blockquote>
<br>
Sunil Mushran wrote:
<blockquote cite="mid4586E9E7.8080406@oracle.com" type="cite">As per
the config, your node names are 'san' and 'mail'. <br>
Are the names the same as the hostname? <br>
  <br>
Do on both nodes: <br>
# for i in /config/cluster/san/node/*/local ; do LOCAL=`cat $i`; if [
$LOCAL -eq 1 ] ; then echo $i; fi; done; <br>
  <br>
You should see /config/cluster/san/node/mail/local on mail and <br>
/config/cluster/san/node/san/local on san. <br>
  <br>
For more, refer to the user's guide, faq sand the mount/umount support <br>
guide in the doc section on <a class="moz-txt-link-freetext" href="http://oss.oracle.com/projects/ocfs2">http://oss.oracle.com/projects/ocfs2</a>.
</blockquote>
<br>
Thanks for the suggestion, but if I enter:<br>
<br>
<i class="moz-txt-slash">for i in <span class="moz-txt-tag">/</span>config/cluster/san/node<span
 class="moz-txt-tag">/</span></i><i>*/local ; do LOCAL=`cat $i`; if [
$LOCAL -eq 1 ] ; then echo $i; fi; done; </i><br>
<br>
as you suggested, I get <br>
<br>
<i>cat: /config/cluster/san/node/*/local: No such file or directory<br>
-bash: [: -eq: unary operator expected<br>
</i><br>
So I guess there is either a typo in your query, or there is an issue
with my set up. I dont have enough linux knowledge (yet ;) to decide
which one it is...<br>
The hostnames equal the node names. <br>
Last night I added another node, just to see what happens, and to my
surprise all goes well. Now, these are my thoughts, please bear with me:<br>
<br>
san is the vm where an iscsi target is running, it consists of a deb
installation, with 2 additional virtual hdd's (sdb &amp; sdc), which I
export. On sdb and sdc I have created an ocfs2 fs.<br>
On the other nodes, amongst which 'mail' is one of them, I connect to
the target using an iscsi initiator, which works fine. As soon as I
mount the new iscsi drive, and I monitor activity on 'san' using watch
-d -n 1 "echo \"hb\" | debugfs.ocfs2 -n /dev/sdb" I see a heartbeat
originating from node 0. If I do the same from another node which I've
added, 'deb01', I see another heartbeat appearing from that node.<br>
Everything works fine so far.<br>
Now, as soon as I mount /dev/sdb on 'san' itself, I get the 'another
node is heartbeating in our slot!' message, and the system fences all
nodes, which results in kernel panics. Apparently 'san' is trying to
heartbeat on slot 0, which already is occupied by 'mail'. Looking at
the cluster.conf, 'san' should select slot 1. How come it is trying to
use 0 then?<br>
Am I correct in assuming that I cannot mount the ocfs2 fs on the system
which is running the cluster???<br>
<br>
-Patrick<br>
</body>
</html>