<div>Alexei,</div>  <div>&nbsp;</div>  <div>&nbsp; I do not agree on the heavily loaded part. Oracle run certification tests for their database, so the OCFS2 must have passed through this certification process, which must include high load scenarios. Last time I checked&nbsp;LVM2 was not supported for RAC use, so it&nbsp;probably was not tested.</div>  <div>&nbsp;</div>  <div>&nbsp;&nbsp;I do agree on the part of OCFS2+LVM and OCFS2+LVM+NFS not being well tested. Also I suspect one cannot run&nbsp;a Active-Active NFS cluster without special NFS software. It would need to be Active-Passive.</div>  <div>&nbsp;</div>  <div>Regards,</div>  <div>Luis<BR><BR><B><I>Alexei_Roudnev &lt;Alexei_Roudnev@exigengroup.com&gt;</I></B> wrote:</div>  <BLOCKQUOTE class=replbq style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #1010ff 2px solid">Yes, it can be done.<BR><BR>Question is in reliability:<BR>- OCFSv2 is not very stable when it is about millions of files;<BR>- OCFSv2 cluster
 tend to self-fence after a small SAN storage glitches (it <BR>is by design so you can't heal it even if<BR>you fix all timeouts - just to improve);<BR>- OCFSv2 + LVM +_ NFS is not well tested territory.<BR><BR>It should work - in theory, IT works practically, under average load and FS <BR>size. No one knows how it behaves on a very big storage and a very big file <BR>systems in 1 - 2 years of active usage. I manage ti get stable OCFSv2 system <BR>here, after applying few pathces and discovering few issues, BUT<BR>I use it on lightly-loaded file system (which is not critical at all)to get <BR>more statistics on behavior before I wil use it for anything else.<BR><BR>If comparing with heartbeat + LVM + reiserfs + NFS:<BR>- all technologies in stack are well tested and heavily used;<BR>- heartbeat have external fencing (stonith) so it is extremely reliable in <BR>the long term - it can recover from almost any failure (sometimes it dont <BR>feel failure, it's true);<BR>-
 ReiserFS (or ext3) proved to be very stable on a huge file systems (it is <BR>widely used, so we dont expect any problems here).<BR>One problem comes from Novell - since they stoped using it as a default, I <BR>can';t trust to ReiserFS on SLES10 (because it is not default) but we stil <BR>can trust into it on SLES9 etc... (where it is default).<BR><BR>Common rule - if you want reliable system, use defaults where possible. <BR>OCFSv2 + NFS is not default yet (through OCFSv2 improved dramatically during <BR>last 2 years).<BR><BR>----- Original Message ----- <BR>From: "Pavel Georgiev" <PAVEL@NETCLIME.COM><BR>To: <OCFS2-USERS@OSS.ORACLE.COM><BR>Sent: Wednesday, October 10, 2007 1:25 AM<BR>Subject: Re: [Ocfs2-users] Cluster setup<BR><BR><BR>&gt; How about using just OCFSv2 as I described in my first mail - two servers<BR>&gt; export their storage, the rest of the servers mount it and a failure of <BR>&gt; any<BR>&gt; of the two storage servers remains transparent to the
 clients. Can this be<BR>&gt; done with OCFSv2?<BR>&gt;<BR>&gt;<BR>&gt; On Tuesday 09 October 2007 21:46:15 Alexei_Roudnev wrote:<BR>&gt;&gt; You better use<BR>&gt;&gt;<BR>&gt;&gt; LVM + heartbeat + NFS + cold failover cluster.<BR>&gt;&gt;<BR>&gt;&gt; It works 100% stable and is 100% safe from the bugs (and it allows online<BR>&gt;&gt; resizing, if your HBA or iSCSI can add lun's on the fly).<BR>&gt;&gt;<BR>&gt;&gt; Combining NFS + LVM + OCFSv2 can cause many unpredictable problems, esp. <BR>&gt;&gt; on<BR>&gt;&gt; the unusual (for OCFSv2) system (such as Ubuntu).<BR>&gt;&gt;<BR>&gt;&gt; ----- Original Message -----<BR>&gt;&gt; From: "Brian Anderson" <BANDERSON@ATHENAHEALTH.COM><BR>&gt;&gt; To: <OCFS2-USERS@OSS.ORACLE.COM><BR>&gt;&gt; Sent: Tuesday, October 09, 2007 11:35 AM<BR>&gt;&gt; Subject: RE: [Ocfs2-users] Cluster setup<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; Not exactly. I'm in a similar boat right now. I have 3 NFS servers all<BR>&gt;&gt; mounting an OCFS2
 volume. Each NFS server has its own IP, and the<BR>&gt;&gt; clients load balance manually... some mount fs1, others fs2, and the<BR>&gt;&gt; rest fs3. In an ideal world, I'd have the NFS cluster presenting a<BR>&gt;&gt; single IP, and failing over / load balancing some other way.<BR>&gt;&gt;<BR>&gt;&gt; I'm looking at NFS v4 as one potential avenue (no single IP, but it does<BR>&gt;&gt; let you fail over from 1 server to the next in line), and commercial<BR>&gt;&gt; products such as IBRIX.<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; Brian<BR>&gt;&gt;<BR>&gt;&gt; &gt; -----Original Message-----<BR>&gt;&gt; &gt; From: ocfs2-users-bounces@oss.oracle.com<BR>&gt;&gt; &gt; [mailto:ocfs2-users-bounces@oss.oracle.com] On Behalf Of Sunil Mushran<BR>&gt;&gt; &gt; Sent: Tuesday, October 09, 2007 2:27 PM<BR>&gt;&gt; &gt; To: Luis Freitas<BR>&gt;&gt; &gt; Cc: ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; Subject: Re: [Ocfs2-users] Cluster setup<BR>&gt;&gt;
 &gt;<BR>&gt;&gt; &gt; Unsure what you mean. If the two servers mount the same<BR>&gt;&gt; &gt; ocfs2 volume and export them via nfs, isn't that clustered nfs?<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; Luis Freitas wrote:<BR>&gt;&gt; &gt; &gt; Is there any cluster NFS solution out there? (Two NFS<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; servers sharing<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; the same filesystem with distributed locking and failover<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; capability)<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; Regards,<BR>&gt;&gt; &gt; &gt; Luis<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; */Sunil Mushran <SUNIL.MUSHRAN@ORACLE.COM>/* wrote:<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; Appears what you are looking for is a mix of ocfs2 and nfs.<BR>&gt;&gt; &gt; &gt; The storage servers mount the shared disks and the reexport<BR>&gt;&gt; &gt; &gt; them via nfs to the remaining servers.<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; ubuntu 6.06 is too old. If you are stuck on
 Ubuntu LTS, the<BR>&gt;&gt; &gt; &gt; next version 7.10 should have all you want.<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; Pavel Georgiev wrote:<BR>&gt;&gt; &gt; &gt; &gt; Hi List,<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; I`m trying to build a cluster storage with commodity<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; hardware in<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; a way that<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; the all the data would be on &gt; 1 server. It should<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; have the meet<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; the<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; following requirements:<BR>&gt;&gt; &gt; &gt; &gt; 1) If one of the servers goes down, the cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; should continue<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; to work with<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; rw access from all clients.<BR>&gt;&gt; &gt; &gt; &gt; 2) Clients that mount the storage should not be
 part<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; of cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; (not export<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; any disk storage) - I have few servers with huge disks that I<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; want to store<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; data on (currently 2 servers, maybe more in the future) and I<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; want to<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; storethe data only on them, the rest of the server should just<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; mount and use<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; that storage with the ability to continue operation if one of<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; the two storage<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; servers goes down.<BR>&gt;&gt; &gt; &gt; &gt; 3) More servers should be able to join the cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; and at given<BR>&gt;&gt;
 &gt;<BR>&gt;&gt; &gt; &gt; point,<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; expanding the total size of the cluster, hopefully without<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; rebuilding the<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; storage.<BR>&gt;&gt; &gt; &gt; &gt; 4) Load balance is not a issue - all the load can go to one of<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; the two storage<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; servers (although its better to be balanced), the main goal is<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; to have<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; redundant storage<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; Does ocfs2 meet these requirements? I read few howtos but none<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; of them<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; mentioned my second requirement (only some of the servers to<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; hold the
 data).<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; Are there any specific steps to do to accomplish (2) and (3)?<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; I`m using Ubuntu 6.06 on x86.<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; Thanks!<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; _______________________________________________<BR>&gt;&gt; &gt; &gt; &gt; Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; &gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; &gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; _______________________________________________<BR>&gt;&gt; &gt; &gt; Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; --------------------------------------------------------------<BR>&gt;&gt; &gt; ----------<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; Take the
 Internet to Go: Yahoo!Go puts the Internet in your pocket:<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; <HTTP: evt="48253/*http://mobile.yahoo.com/go?<br" us.rd.yahoo.com>&gt;&gt; &gt; refer=1GNXIC&gt;<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; mail, news, photos &amp; more.<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; --------------------------------------------------------------<BR>&gt;&gt; &gt; ----------<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; _______________________________________________<BR>&gt;&gt; &gt; &gt; Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; _______________________________________________<BR>&gt;&gt; &gt; Ocfs2-users mailing list<BR>&gt;&gt; &gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt;<BR>&gt;&gt; _______________________________________________<BR>&gt;&gt; Ocfs2-users mailing
 list<BR>&gt;&gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; _______________________________________________<BR>&gt;&gt; Ocfs2-users mailing list<BR>&gt;&gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;<BR>&gt;<BR>&gt;<BR>&gt; _______________________________________________<BR>&gt; Ocfs2-users mailing list<BR>&gt; Ocfs2-users@oss.oracle.com<BR>&gt; http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt; <BR><BR><BR>_______________________________________________<BR>Ocfs2-users mailing list<BR>Ocfs2-users@oss.oracle.com<BR>http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR></BLOCKQUOTE><BR><p>&#32;
      <hr size=1>Don't let your dream ride pass you by.  <a href="http://us.rd.yahoo.com/evt=51200/*http://autos.yahoo.com/index.html;_ylc=X3oDMTFibjNlcHF0BF9TAzk3MTA3MDc2BHNlYwNtYWlsdGFncwRzbGsDYXV0b3MtZHJlYW1jYXI-">  Make it a reality</a> with Yahoo! Autos.