<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"><html><head><meta content="text/html;charset=UTF-8" http-equiv="Content-Type"></head><body ><div style='font-size:10pt;'><div>Hi Team,<br></div><div><br></div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;We are going to use ceph with ocfs2 in production, here my doubt is 12 clients performance and throughput&nbsp;with 1Gig is enough or need to change network level.<br></div><div><br></div><div id=""><div><span class="colour" style="color:rgb(0, 0, 0)">Regards</span><br></div><div><span class="colour" style="color:rgb(0, 0, 0)">Prabu</span><br></div><div><b></b><span class="size" style="font-size:16px"><span class="colour" style="color:rgb(192, 192, 192)"><span class="font" style="font-family:arial, helvetica, sans-serif"><span class="size" style="font-size:24px"><span class="colour" style="color:rgb(0, 0, 255)"></span></span><span></span></span></span></span><br></div></div><div class="zmail_extra"><div id="1"><div> ---- On Thu, 30 Jul 2015 20:04:54 +0530 <b>gjprabu &lt;gjprabu@zohocorp.com&gt;</b> wrote ----<br></div></div><div><br></div><blockquote style="border-left: 1px solid #cccccc; padding-left: 6px; margin:0 0 0 5px"><div><div style="font-size: 10.0pt;"><div>Thanks guozhonghua. Its working.<br></div><div><br></div><div><div><span class="colour" style="color:rgb(0, 0, 0)">Regards</span><br></div><div>Prabu<br></div><div style="color: rgb(255,0,0);"><br></div><div><span class="size" style="font-size:16px"><span class="colour" style="color:rgb(192, 192, 192)"><span class="font" style="font-family:arial, helvetica, sans-serif"><span class="size" style="font-size:24px"><span class="colour" style="color:rgb(0, 0, 255)"></span></span><span></span></span></span></span><br></div></div><div><br></div><div class="zmail_extra"><div><div><br></div><div>---- On Thu, 30 Jul 2015 16:29:18 +0530 <b>Guozhonghua &lt;<a href="mailto:guozhonghua@h3c.com" target="_blank">guozhonghua@h3c.com</a>&gt;</b> wrote ----<br></div></div><div><br></div><blockquote style="border-left: 1.0px solid rgb(204,204,204);padding-left: 6.0px;margin: 0 0 0 5.0px;"><div><div><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">Hi, </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt"></span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">The number of the node should begin with 1 in the&nbsp; cluster.conf, you can try it. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">I always start with 1. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt"></span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">You should check the&nbsp; directory: ls -al /sys/kernel/config/cluster/pool/node ; and all the three node should have same node directory information  on three nodes. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt"></span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">Otherwise, umount all the fs, copy one /etc/ocfs2/cluster.conf to other two node. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">service o2cb offline/unload ; &nbsp;service o2cb online ;</span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">Remount the disk again and check the nodes info again. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt"></span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt">The cluter.conf file should be same on everyone node. </span></span></span><br></p><p><span class="colour" style="color:rgb(31, 73, 125)"><span class="font" style="font-family:Calibri, sans-serif"><span class="size" style="font-size:10.5pt"></span></span></span><br></p><div><div style="border: none;border-top: solid rgb(181,196,223) 1.0pt;padding: 3.0pt 0.0cm 0.0cm 0.0cm;"><p><b><span class="size" style="font-size:10pt">发件人<span>:</span></span></b><span class="size" style="font-size:10pt"><a href="mailto:ocfs2-users-bounces@oss.oracle.com" target="_blank">ocfs2-users-bounces@oss.oracle.com</a> [mailto:<a href="mailto:ocfs2-users-bounces@oss.oracle.com" target="_blank">ocfs2-users-bounces@oss.oracle.com</a>] </span><b><span class="size" style="font-size:10pt">代表 </span></b><span class="size" style="font-size:10pt">gjprabu<br></span><b><span class="size" style="font-size:10pt">发送时间<span>:</span></span></b><span class="size" style="font-size:10pt"> 2015</span><span class="size" style="font-size:10pt">年<span>7</span>月<span>30</span>日<span> 17:57<br></span><b>收件人<span>:</span></b><span><a href="mailto:ocfs2-users@oss.oracle.com" target="_blank">ocfs2-users@oss.oracle.com</a><br></span><b>主题<span>:</span></b><span> [Ocfs2-users] ceph osd mounting issue with ocfs2 file system</span></span></p></div></div><p><span></span><br></p><div><div><p><span class="size" style="font-size:10pt">Hi All,</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span><span class="size" style="font-size:10pt">&nbsp;&nbsp; We are using ceph with two OSD and three clients. Clients try to mount with OCFS2 file system. Here when i start mounting only two clients i can able to mount properly and  third client giving below errors. Some time i can able to mount third client but data not sync to third client.</span></span><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><b><span class="size" style="font-size:10pt">mount /dev/rbd/rbd/integdownloads /soho/build/downloads</span></b><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt">mount.ocfs2: Invalid argument while mounting /dev/rbd0 on /soho/build/downloads. Check 'dmesg' for more information on this error.</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><b><u><span class="size" style="font-size:10pt">dmesg</span></u></b><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.676688] (mount.ocfs2,1807,4):dlm_send_nodeinfo:1294 ERROR: node mismatch -22, node 0</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.676766] (mount.ocfs2,1807,4):dlm_try_to_join_domain:1681 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677278] (mount.ocfs2,1807,8):dlm_join_domain:1950 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677443] (mount.ocfs2,1807,8):dlm_register_domain:2210 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677541] (mount.ocfs2,1807,8):o2cb_cluster_connect:368 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677602] (mount.ocfs2,1807,8):ocfs2_dlm_init:2988 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677703] (mount.ocfs2,1807,8):ocfs2_mount_volume:1864 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677800] ocfs2: Unmounting device (252,0) on (node 0)</span><br></p></div><div><p><span class="size" style="font-size:10pt">[1280548.677808] (mount.ocfs2,1807,8):ocfs2_fill_super:1238 ERROR: status = -22</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><b><u><span class="size" style="font-size:10pt">OCFS2 configuration</span></u></b><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt">cluster:</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; node_count=3</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; heartbeat_mode = local</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name=ocfs2</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt">node:</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_port = 7777</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_address = 192.168.112.192</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; number = 0</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = integ-hm5</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cluster = ocfs2</span><br></p></div><div><p><span class="size" style="font-size:10pt">node:</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_port = 7777</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_address = 192.168.113.42</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; number = 1</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = integ-soho</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cluster = ocfs2</span><br></p></div><div><p><span class="size" style="font-size:10pt">node:</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_port = 7778</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ip_address = 192.168.112.115</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; number = 2</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; name = integ-hm2</span><br></p></div><div><p><span class="size" style="font-size:10pt">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cluster = ocfs2</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><b><span class="size" style="font-size:10pt">Version :-&nbsp; </span></b><span class="size" style="font-size:10pt">o2cb 1.8.0</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><b><span class="size" style="font-size:10pt">OS : -</span></b><span class="size" style="font-size:10pt"> Centos 7 64 bit (Kernel 3.18.16)</span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div><div><div><p><span><span class="colour" style="color:black"><span class="size" style="font-size:10pt">Regards</span></span></span><span class="size" style="font-size:10pt"></span><br></p></div><div><p><span class="size" style="font-size:10pt">Prabu GJ</span><br></p></div><div><p><span class="colour" style="color:red"><span class="size" style="font-size:10pt"></span></span><br></p></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div></div><div><p><span class="size" style="font-size:10pt"></span><br></p></div></div></div><div><span class="colour" style="color:gray"><span class="size" style="font-size:7.5pt"><span>-------------------------------------------------------------------------------------------------------------------------------------<br></span>本邮件及其附件含有杭州华三通信技术有限公司的保密信息,仅限于发送给上面地址中列出<span><br></span>的个人或群组。禁止任何其他人以任何形式使用(包括但不限于全部或部分地泄露、复制、<span><br></span>或散发)本邮件中的信息。如果您错收了本邮件,请您立即电话或邮件通知发件人并删除本<span><br></span>邮件!<span><br></span></span></span><span class="colour" style="color:gray"><span class="font" style="font-family:Arial, sans-serif"><span class="size" style="font-size:7.5pt">This e-mail and its attachments contain confidential information from H3C, which is <br> intended only for the person or entity whose address is listed above. Any use of the <br> information contained herein in any way (including, but not limited to, total or partial <br> disclosure, reproduction, or dissemination) by persons other than the intended <br> recipient(s) is prohibited. If you receive this e-mail in error, please notify the sender <br> by phone or email immediately and delete it!</span></span></span></div></div></blockquote></div><div><br></div></div><div>_______________________________________________ <br></div><div>Ocfs2-users mailing list <br></div><div><a href="mailto:Ocfs2-users@oss.oracle.com" target="_blank">Ocfs2-users@oss.oracle.com</a> <br></div><div><a href="https://oss.oracle.com/mailman/listinfo/ocfs2-users" target="_blank">https://oss.oracle.com/mailman/listinfo/ocfs2-users</a><br></div></div></blockquote></div><div><br></div></div></body></html>