<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=iso-8859-1">
<META content="MSHTML 6.00.6000.16544" name=GENERATOR>
<STYLE></STYLE>
</HEAD>
<BODY bgColor=#ffffff>
<DIV><FONT face=Arial size=2>Oracle can run anything, but</FONT></DIV>
<DIV><FONT face=Arial size=2>- oracle QA quality is below any requirements (not 
because Oracle is bad but because they test 10 - 20% of all possible 
configurations).</FONT></DIV>
<DIV><FONT face=Arial size=2>&nbsp; We find 5 Oracle bugs during 4 days of heavy 
testing on our new DB system only... and unlimited ## of bugs aside of this (the 
best one -= sqlplus die if system uptime &gt; 204 days! way!!!... fixed in 
10.2.0.3,</FONT></DIV>
<DIV><FONT face=Arial size=2>- more important, oracle tests oracle access (which 
means - files are stable; # of files is limited; # of users is 1 - one - user; 
access lists are not used; </FONT></DIV>
<DIV><FONT face=Arial size=2># of FS operations is very limited). It is very 
different from _common use NFS server_.</FONT></DIV>
<DIV><FONT face=Arial size=2></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial size=2>Does Oracle tests behavior of OCFSv2 in case 
of:</FONT></DIV>
<DIV><FONT face=Arial size=2>- 1,000 different users;</FONT></DIV>
<DIV><FONT face=Arial size=2>- host1 appends to the file and host2 truncate it; 
then host3 rename file.</FONT></DIV>
<DIV><FONT face=Arial size=2>- file is removed on node1 but still open on 
node2;</FONT></DIV>
<DIV><FONT face=Arial size=2>- one node creates file and other try to rename 
another file into it.</FONT></DIV>
<DIV><FONT face=Arial size=2>- 900 GB file sytem and we create 1,000,000 
directories with 5,000,000 files in it</FONT></DIV>
<DIV><FONT face=Arial size=2>- directory with 100,000 files inside</FONT></DIV>
<DIV><FONT face=Arial size=2>- file name length 512 symbols in UTF8 
encoding</FONT></DIV>
<DIV><FONT face=Arial size=2>- we run 'mkdir x; rmdir x' in a loop for a 
week...</FONT></DIV>
<DIV><FONT face=Arial size=2>etc etc...</FONT></DIV>
<DIV><FONT face=Arial size=2>??</FONT></DIV>
<DIV><FONT face=Arial size=2></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial size=2>I am more concerned about OCFSv2 usage as a common 
file system, and not so many about LVM + OCFSv2. OCFSv2 looks pretty stable when 
used for limited ## of files and limited usage scenario (such as Oracle usage) 
but not as a common file system used by thousand of students with unlimited 
fantasy...</FONT></DIV>
<BLOCKQUOTE 
style="PADDING-RIGHT: 0px; PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #000000 2px solid; MARGIN-RIGHT: 0px">
  <DIV style="FONT: 10pt arial">----- Original Message ----- </DIV>
  <DIV 
  style="BACKGROUND: #e4e4e4; FONT: 10pt arial; font-color: black"><B>From:</B> 
  <A title=lfreitas34@yahoo.com href="mailto:lfreitas34@yahoo.com">Luis 
  Freitas</A> </DIV>
  <DIV style="FONT: 10pt arial"><B>To:</B> <A 
  title=Alexei_Roudnev@exigengroup.com 
  href="mailto:Alexei_Roudnev@exigengroup.com">Alexei_Roudnev</A> ; <A 
  title=pavel@netclime.com href="mailto:pavel@netclime.com">Pavel Georgiev</A> ; 
  <A title=ocfs2-users@oss.oracle.com 
  href="mailto:ocfs2-users@oss.oracle.com">ocfs2-users@oss.oracle.com</A> </DIV>
  <DIV style="FONT: 10pt arial"><B>Sent:</B> Wednesday, October 10, 2007 5:09 
  PM</DIV>
  <DIV style="FONT: 10pt arial"><B>Subject:</B> Re: [Ocfs2-users] Cluster 
  setup</DIV>
  <DIV><BR></DIV>
  <DIV>Alexei,</DIV>
  <DIV>&nbsp;</DIV>
  <DIV>&nbsp; I do not agree on the heavily loaded part. Oracle run 
  certification tests for their database, so the OCFS2 must have passed through 
  this certification process, which must include high load scenarios. Last time 
  I checked&nbsp;LVM2 was not supported for RAC use, so it&nbsp;probably was not 
  tested.</DIV>
  <DIV>&nbsp;</DIV>
  <DIV>&nbsp;&nbsp;I do agree on the part of OCFS2+LVM and OCFS2+LVM+NFS not 
  being well tested. Also I suspect one cannot run&nbsp;a Active-Active NFS 
  cluster without special NFS software. It would need to be 
Active-Passive.</DIV>
  <DIV>&nbsp;</DIV>
  <DIV>Regards,</DIV>
  <DIV>Luis<BR><BR><B><I>Alexei_Roudnev 
  &lt;Alexei_Roudnev@exigengroup.com&gt;</I></B> wrote:</DIV>
  <BLOCKQUOTE class=replbq 
  style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #1010ff 2px solid">Yes, 
    it can be done.<BR><BR>Question is in reliability:<BR>- OCFSv2 is not very 
    stable when it is about millions of files;<BR>- OCFSv2 cluster tend to 
    self-fence after a small SAN storage glitches (it <BR>is by design so you 
    can't heal it even if<BR>you fix all timeouts - just to improve);<BR>- 
    OCFSv2 + LVM +_ NFS is not well tested territory.<BR><BR>It should work - in 
    theory, IT works practically, under average load and FS <BR>size. No one 
    knows how it behaves on a very big storage and a very big file <BR>systems 
    in 1 - 2 years of active usage. I manage ti get stable OCFSv2 system 
    <BR>here, after applying few pathces and discovering few issues, BUT<BR>I 
    use it on lightly-loaded file system (which is not critical at all)to get 
    <BR>more statistics on behavior before I wil use it for anything 
    else.<BR><BR>If comparing with heartbeat + LVM + reiserfs + NFS:<BR>- all 
    technologies in stack are well tested and heavily used;<BR>- heartbeat have 
    external fencing (stonith) so it is extremely reliable in <BR>the long term 
    - it can recover from almost any failure (sometimes it dont <BR>feel 
    failure, it's true);<BR>- ReiserFS (or ext3) proved to be very stable on a 
    huge file systems (it is <BR>widely used, so we dont expect any problems 
    here).<BR>One problem comes from Novell - since they stoped using it as a 
    default, I <BR>can';t trust to ReiserFS on SLES10 (because it is not 
    default) but we stil <BR>can trust into it on SLES9 etc... (where it is 
    default).<BR><BR>Common rule - if you want reliable system, use defaults 
    where possible. <BR>OCFSv2 + NFS is not default yet (through OCFSv2 improved 
    dramatically during <BR>last 2 years).<BR><BR>----- Original Message ----- 
    <BR>From: "Pavel Georgiev" <PAVEL@NETCLIME.COM><BR>To: 
    <OCFS2-USERS@OSS.ORACLE.COM><BR>Sent: Wednesday, October 10, 2007 1:25 
    AM<BR>Subject: Re: [Ocfs2-users] Cluster setup<BR><BR><BR>&gt; How about 
    using just OCFSv2 as I described in my first mail - two servers<BR>&gt; 
    export their storage, the rest of the servers mount it and a failure of 
    <BR>&gt; any<BR>&gt; of the two storage servers remains transparent to the 
    clients. Can this be<BR>&gt; done with OCFSv2?<BR>&gt;<BR>&gt;<BR>&gt; On 
    Tuesday 09 October 2007 21:46:15 Alexei_Roudnev wrote:<BR>&gt;&gt; You 
    better use<BR>&gt;&gt;<BR>&gt;&gt; LVM + heartbeat + NFS + cold failover 
    cluster.<BR>&gt;&gt;<BR>&gt;&gt; It works 100% stable and is 100% safe from 
    the bugs (and it allows online<BR>&gt;&gt; resizing, if your HBA or iSCSI 
    can add lun's on the fly).<BR>&gt;&gt;<BR>&gt;&gt; Combining NFS + LVM + 
    OCFSv2 can cause many unpredictable problems, esp. <BR>&gt;&gt; 
    on<BR>&gt;&gt; the unusual (for OCFSv2) system (such as 
    Ubuntu).<BR>&gt;&gt;<BR>&gt;&gt; ----- Original Message -----<BR>&gt;&gt; 
    From: "Brian Anderson" <BANDERSON@ATHENAHEALTH.COM><BR>&gt;&gt; To: 
    <OCFS2-USERS@OSS.ORACLE.COM><BR>&gt;&gt; Sent: Tuesday, October 09, 2007 
    11:35 AM<BR>&gt;&gt; Subject: RE: [Ocfs2-users] Cluster 
    setup<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; Not exactly. I'm in a 
    similar boat right now. I have 3 NFS servers all<BR>&gt;&gt; mounting an 
    OCFS2 volume. Each NFS server has its own IP, and the<BR>&gt;&gt; clients 
    load balance manually... some mount fs1, others fs2, and the<BR>&gt;&gt; 
    rest fs3. In an ideal world, I'd have the NFS cluster presenting 
    a<BR>&gt;&gt; single IP, and failing over / load balancing some other 
    way.<BR>&gt;&gt;<BR>&gt;&gt; I'm looking at NFS v4 as one potential avenue 
    (no single IP, but it does<BR>&gt;&gt; let you fail over from 1 server to 
    the next in line), and commercial<BR>&gt;&gt; products such as 
    IBRIX.<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; 
    Brian<BR>&gt;&gt;<BR>&gt;&gt; &gt; -----Original Message-----<BR>&gt;&gt; 
    &gt; From: ocfs2-users-bounces@oss.oracle.com<BR>&gt;&gt; &gt; 
    [mailto:ocfs2-users-bounces@oss.oracle.com] On Behalf Of Sunil 
    Mushran<BR>&gt;&gt; &gt; Sent: Tuesday, October 09, 2007 2:27 PM<BR>&gt;&gt; 
    &gt; To: Luis Freitas<BR>&gt;&gt; &gt; Cc: 
    ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; Subject: Re: [Ocfs2-users] 
    Cluster setup<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; Unsure what you mean. If the 
    two servers mount the same<BR>&gt;&gt; &gt; ocfs2 volume and export them via 
    nfs, isn't that clustered nfs?<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; Luis 
    Freitas wrote:<BR>&gt;&gt; &gt; &gt; Is there any cluster NFS solution out 
    there? (Two NFS<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; servers 
    sharing<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; the same filesystem with 
    distributed locking and failover<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; 
    capability)<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; Regards,<BR>&gt;&gt; &gt; 
    &gt; Luis<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; */Sunil Mushran 
    <SUNIL.MUSHRAN@ORACLE.COM>/* wrote:<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; 
    &gt; Appears what you are looking for is a mix of ocfs2 and nfs.<BR>&gt;&gt; 
    &gt; &gt; The storage servers mount the shared disks and the 
    reexport<BR>&gt;&gt; &gt; &gt; them via nfs to the remaining 
    servers.<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; ubuntu 6.06 is too old. 
    If you are stuck on Ubuntu LTS, the<BR>&gt;&gt; &gt; &gt; next version 7.10 
    should have all you want.<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; Pavel 
    Georgiev wrote:<BR>&gt;&gt; &gt; &gt; &gt; Hi List,<BR>&gt;&gt; &gt; &gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; &gt; I`m trying to build a cluster storage with 
    commodity<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; hardware in<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; a way that<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; 
    &gt; &gt; the all the data would be on &gt; 1 server. It should<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; have the meet<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; 
    the<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; following 
    requirements:<BR>&gt;&gt; &gt; &gt; &gt; 1) If one of the servers goes down, 
    the cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; should continue<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; to work with<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; 
    &gt; &gt; &gt; rw access from all clients.<BR>&gt;&gt; &gt; &gt; &gt; 2) 
    Clients that mount the storage should not be part<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; of cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; (not 
    export<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; any disk storage) - 
    I have few servers with huge disks that I<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; 
    &gt; &gt; want to store<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; 
    data on (currently 2 servers, maybe more in the future) and I<BR>&gt;&gt; 
    &gt; &gt;<BR>&gt;&gt; &gt; &gt; want to<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; 
    &gt; &gt; &gt; storethe data only on them, the rest of the server should 
    just<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; mount and use<BR>&gt;&gt; 
    &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; that storage with the ability to 
    continue operation if one of<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; the 
    two storage<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; servers goes 
    down.<BR>&gt;&gt; &gt; &gt; &gt; 3) More servers should be able to join the 
    cluster<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; and at given<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; point,<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; 
    &gt; &gt; expanding the total size of the cluster, hopefully 
    without<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; rebuilding 
    the<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; storage.<BR>&gt;&gt; 
    &gt; &gt; &gt; 4) Load balance is not a issue - all the load can go to one 
    of<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; the two storage<BR>&gt;&gt; 
    &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; servers (although its better to be 
    balanced), the main goal is<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; to 
    have<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; redundant 
    storage<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; Does ocfs2 
    meet these requirements? I read few howtos but none<BR>&gt;&gt; &gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; of them<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; 
    &gt; &gt; mentioned my second requirement (only some of the servers 
    to<BR>&gt;&gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; hold the data).<BR>&gt;&gt; 
    &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; Are there any specific steps to do to 
    accomplish (2) and (3)?<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; 
    &gt; I`m using Ubuntu 6.06 on x86.<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; 
    &gt; &gt; &gt; Thanks!<BR>&gt;&gt; &gt; &gt; &gt;<BR>&gt;&gt; &gt; &gt; &gt; 
    _______________________________________________<BR>&gt;&gt; &gt; &gt; &gt; 
    Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; &gt; 
    Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; &gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; &gt; 
    &gt;<BR>&gt;&gt; &gt; &gt; 
    _______________________________________________<BR>&gt;&gt; &gt; &gt; 
    Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; 
    Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; 
    --------------------------------------------------------------<BR>&gt;&gt; 
    &gt; ----------<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; Take the Internet to 
    Go: Yahoo!Go puts the Internet in your pocket:<BR>&gt;&gt; &gt;<BR>&gt;&gt; 
    &gt; <HTTP: us.rd.yahoo.com 
    evt="48253/*http://mobile.yahoo.com/go?<br">&gt;&gt; &gt; 
    refer=1GNXIC&gt;<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; mail, news, photos 
    &amp; more.<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; 
    --------------------------------------------------------------<BR>&gt;&gt; 
    &gt; ----------<BR>&gt;&gt; &gt;<BR>&gt;&gt; &gt; &gt; 
    _______________________________________________<BR>&gt;&gt; &gt; &gt; 
    Ocfs2-users mailing list<BR>&gt;&gt; &gt; &gt; 
    Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; &gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt; 
    &gt;<BR>&gt;&gt; &gt; 
    _______________________________________________<BR>&gt;&gt; &gt; Ocfs2-users 
    mailing list<BR>&gt;&gt; &gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; &gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt;<BR>&gt;&gt; 
    _______________________________________________<BR>&gt;&gt; Ocfs2-users 
    mailing list<BR>&gt;&gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; 
    _______________________________________________<BR>&gt;&gt; Ocfs2-users 
    mailing list<BR>&gt;&gt; Ocfs2-users@oss.oracle.com<BR>&gt;&gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt;<BR>&gt;<BR>&gt;<BR>&gt; 
    _______________________________________________<BR>&gt; Ocfs2-users mailing 
    list<BR>&gt; Ocfs2-users@oss.oracle.com<BR>&gt; 
    http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR>&gt; 
    <BR><BR><BR>_______________________________________________<BR>Ocfs2-users 
    mailing 
    list<BR>Ocfs2-users@oss.oracle.com<BR>http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR></BLOCKQUOTE><BR>
  <P>
  <HR SIZE=1>
  Don't let your dream ride pass you by. <A 
  href="http://us.rd.yahoo.com/evt=51200/*http://autos.yahoo.com/index.html;_ylc=X3oDMTFibjNlcHF0BF9TAzk3MTA3MDc2BHNlYwNtYWlsdGFncwRzbGsDYXV0b3MtZHJlYW1jYXI-">Make 
  it a reality</A> with Yahoo! Autos. </BLOCKQUOTE></BODY></HTML>