<div dir="ltr">Patrick,<div><br></div><div>I believe that your suggestion about NFSv3 is the solution to my problem. Since I switched over to that things have been running perfectly. I&#39;ve had no failures of any type reported by my systems, or users. I think I might actually be able to unwind, so a heartfelt thanks!</div>
<div><br></div><div>Adam.</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Jul 17, 2013 at 11:24 AM, Adam Randall <span dir="ltr">&lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I&#39;ve figured out how to make NFSv3 work with iptables (what fun!...). I&#39;ve switched my servers to that, and we&#39;ll see how it goes.<span class="HOEnZb"><font color="#888888"><div>
<br></div><div>Adam.</div></font></span></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br>
<br><div class="gmail_quote">On Wed, Jul 17, 2013 at 10:10 AM, Adam Randall <span dir="ltr">&lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div dir="ltr">The problem I have with NFSv3 is that it&#39;s difficult to make it work with iptables. I&#39;ll give it a go, however, and see how it affects things.<div><br></div><div>Also, should I instead be considering iSCSI instead of NFS?<span><font color="#888888"><br>


<div><br></div><div>Adam.</div></font></span></div></div><div><div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Jul 17, 2013 at 7:51 AM, Patrick J. LoPresti <span dir="ltr">&lt;<a href="mailto:patl@patl.com" target="_blank">patl@patl.com</a>&gt;</span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I would seriously try &quot;nfsvers=3&quot; in those mount options.<br>
<br>
In my experience, Linux NFS features take around 10 years before the<br>
bugs are shaken out. And NFSv4 is much, much more complicated than<br>
most. (They added a &quot;generation number&quot; to the file handle, but if the<br>
underlying file system does not implement generation numbers, I have<br>
no idea what will happen...)<br>
<br>
 - Pat<br>
<div><div><br>
On Wed, Jul 17, 2013 at 7:47 AM, Adam Randall &lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt; wrote:<br>
&gt; My changes to exports had no effect it seems. I awoke to four errors from my<br>
&gt; processing engine. All of them came from the same server, which makes me<br>
&gt; curious. I&#39;ve turned that one off and will see what happens.<br>
&gt;<br>
&gt;<br>
&gt; On Tue, Jul 16, 2013 at 11:22 PM, Adam Randall &lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; I&#39;ve been doing more digging, and I&#39;ve changed some of the configuration:<br>
&gt;&gt;<br>
&gt;&gt; 1) I&#39;ve changed my nfs mount options to this:<br>
&gt;&gt;<br>
&gt;&gt; 192.168.0.160:/mnt/storage                 /mnt/i2xstorage   nfs<br>
&gt;&gt; defaults,nosuid,noexec,noatime,nodiratime        0 0<br>
&gt;&gt;<br>
&gt;&gt; 2) I&#39;ve changed the /etc/exports for /mnt/storage to this:<br>
&gt;&gt;<br>
&gt;&gt;      /mnt/storage -rw,sync,subtree_check,no_root_squash @trusted<br>
&gt;&gt;<br>
&gt;&gt; In #1, I&#39;ve removed nodev, which I think I accidentally copied over from a<br>
&gt;&gt; tmpfs mount point above it when I originally set up the nfs mount point so<br>
&gt;&gt; long ago. Additionally, I added nodiratime. In #2, it used to be<br>
&gt;&gt; -rw,async,no_subtree_check,no_root_squash. I think the async may be causing<br>
&gt;&gt; what I&#39;m seeing potentially, and the subtree_check should be okay for<br>
&gt;&gt; testing.<br>
&gt;&gt;<br>
&gt;&gt; Hopefully, this will have an effect.<br>
&gt;&gt;<br>
&gt;&gt; Adam.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Jul 16, 2013 at 9:44 PM, Adam Randall &lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Here&#39;s various outputs:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; # grep nfs /etc/mtab:<br>
&gt;&gt;&gt; rpc_pipefs /var/lib/nfs/rpc_pipefs rpc_pipefs rw 0 0<br>
&gt;&gt;&gt; 192.168.0.160:/var/log/dms /mnt/dmslogs nfs<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; rw,noexec,nosuid,nodev,noatime,vers=4,addr=192.168.0.160,clientaddr=192.168.0.150<br>
&gt;&gt;&gt; 0 0<br>
&gt;&gt;&gt; 192.168.0.160:/mnt/storage /mnt/storage nfs<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; rw,noexec,nosuid,nodev,noatime,vers=4,addr=192.168.0.160,clientaddr=192.168.0.150<br>
&gt;&gt;&gt; 0 0<br>
&gt;&gt;&gt; # grep nfs /proc/mounts:<br>
&gt;&gt;&gt; rpc_pipefs /var/lib/nfs/rpc_pipefs rpc_pipefs rw,relatime 0 0<br>
&gt;&gt;&gt; 192.168.0.160:/var/log/dms /mnt/dmslogs nfs4<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; rw,nosuid,nodev,noexec,noatime,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.0.150,local_lock=none,addr=192.168.0.160<br>
&gt;&gt;&gt; 0 0<br>
&gt;&gt;&gt; 192.168.0.160:/mnt/storage /mnt/storage nfs4<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; rw,nosuid,nodev,noexec,noatime,vers=4.0,rsize=1048576,wsize=1048576,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=192.168.0.150,local_lock=none,addr=192.168.0.160<br>
&gt;&gt;&gt; 0 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Also, the output of df -hT | grep nfs:<br>
&gt;&gt;&gt; 192.168.0.160:/var/log/dms nfs       273G  5.6G  253G   3% /mnt/dmslogs<br>
&gt;&gt;&gt; 192.168.0.160:/mnt/storage nfs       2.8T  1.8T  986G  65% /mnt/storage<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;From the looks of it, it appears to be nfs version 4 (though I thought<br>
&gt;&gt;&gt; that<br>
&gt;&gt;&gt; I was running version 3, hrm...).<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; With regards to the ls -lid, one of the directories that wasn&#39;t altered,<br>
&gt;&gt;&gt; but for whatever reason was not accessible due to the handler is this:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; # ls -lid /mnt/storage/reports/5306<br>
&gt;&gt;&gt; 185862043 drwxrwxrwx 4 1095 users 45056 Jul 15 21:37<br>
&gt;&gt;&gt; /mnt/storage/reports/5306<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; In the directory where we create new documents, which creates a folder<br>
&gt;&gt;&gt; for each document (legacy decision), it looks something like this:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; # ls -lid /mnt/storage/dms/documents/819/* | head -n 10<br>
&gt;&gt;&gt; 290518712 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:39<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191174<br>
&gt;&gt;&gt; 290518714 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:39<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191175<br>
&gt;&gt;&gt; 290518716 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:39<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191176<br>
&gt;&gt;&gt; 290518718 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:39<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191177<br>
&gt;&gt;&gt; 290518720 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:39<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191178<br>
&gt;&gt;&gt; 290518722 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:40<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191179<br>
&gt;&gt;&gt; 290518724 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:40<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191180<br>
&gt;&gt;&gt; 290518726 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:47<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191181<br>
&gt;&gt;&gt; 290518728 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:50<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191182<br>
&gt;&gt;&gt; 290518730 drwxrwxrwx 2 nobody nobody 3896 Jul 16 18:52<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/<br>
&gt;&gt;&gt; 819/8191183<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The stale handles seem to appear more when there&#39;s load on the system,<br>
&gt;&gt;&gt; but that&#39;s not overly true. I received notice of two failures (both from the<br>
&gt;&gt;&gt; same server) tonight, as seen here:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Jul 16 19:27:40 imaging4 php: Output of: ls -l<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191226/ 2&gt;&amp;1:<br>
&gt;&gt;&gt; Jul 16 19:27:40 imaging4 php:    ls: cannot access<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191226/: Stale NFS file handle<br>
&gt;&gt;&gt; Jul 16 19:44:15 imaging4 php: Output of: ls -l<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191228/ 2&gt;&amp;1:<br>
&gt;&gt;&gt; Jul 16 19:44:15 imaging4 php:    ls: cannot access<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191228/: Stale NFS file handle<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The above is logged out of my e-mail collecting daemon, which is written<br>
&gt;&gt;&gt; in PHP. When I can&#39;t access the directory that was just created, it uses<br>
&gt;&gt;&gt; syslog() to write the above information out.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;From the same server, doing ls -lid I get these for those two<br>
&gt;&gt;&gt; directories:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 290518819 drwxrwxrwx 2 nobody nobody 3896 Jul 16 19:44<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191228<br>
&gt;&gt;&gt; 290518816 drwxrwxrwx 2 nobody nobody 3896 Jul 16 19:27<br>
&gt;&gt;&gt; /mnt/storage/dms/documents/819/8191226<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Stating the directories showed that the modified times coorespond to the<br>
&gt;&gt;&gt; logs above:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Modify: 2013-07-16 19:27:40.786142391 -0700<br>
&gt;&gt;&gt; Modify: 2013-07-16 19:44:15.458250738 -0700<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; By the time it happened, to the time I got back, the stale handle cleared<br>
&gt;&gt;&gt; itself.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; If it&#39;s at all relevant, this is the fstab:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 192.168.0.160:/var/log/dms                 /mnt/dmslogs      nfs<br>
&gt;&gt;&gt; defaults,nodev,nosuid,noexec,noatime            0 0<br>
&gt;&gt;&gt; 192.168.0.160:/mnt/storage                 /mnt/storage      nfs<br>
&gt;&gt;&gt; defaults,nodev,nosuid,noexec,noatime            0 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Lastly, in a fit of grasping at straws, I did unmount the ocfs2 partition<br>
&gt;&gt;&gt; on the secondary server, and stopped ocfs2 service. I was thinking that<br>
&gt;&gt;&gt; maybe having it in master/master mode could cause what I was seeing. Alas,<br>
&gt;&gt;&gt; that&#39;s not the case as the above errors came after I did that.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Is there anything else that I can provide that might be of help?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Adam.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Tue, Jul 16, 2013 at 5:15 PM, Patrick J. LoPresti &lt;<a href="mailto:lopresti@gmail.com" target="_blank">lopresti@gmail.com</a>&gt;<br>
&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; What version is the NFS mount? (&quot;cat /proc/mounts&quot; on the NFS client)<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; NFSv2 only allowed 64 bits in the file handle. With the<br>
&gt;&gt;&gt;&gt; &quot;subtree_check&quot; option on the NFS server, 32 of those bits are used<br>
&gt;&gt;&gt;&gt; for the subtree check, leaving only 32 for the inode. (This is from<br>
&gt;&gt;&gt;&gt; memory; I may have the exact numbers wrong. But the principle<br>
&gt;&gt;&gt;&gt; applies.)<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; See<br>
&gt;&gt;&gt;&gt; &lt;<a href="https://oss.oracle.com/projects/ocfs2/dist/documentation/v1.2/ocfs2_faq.html#NFS" target="_blank">https://oss.oracle.com/projects/ocfs2/dist/documentation/v1.2/ocfs2_faq.html#NFS</a>&gt;<br>



&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; If you run &quot;ls -lid &lt;directory&gt;&quot; for directories that work and those<br>
&gt;&gt;&gt;&gt; that fail, and you find that the failing directories all have huge<br>
&gt;&gt;&gt;&gt; inode numbers, that will help confirm that this is the problem.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Also if you are using NFSv2 and switch to v3 or set the<br>
&gt;&gt;&gt;&gt; &quot;no_subtree_check&quot; option and it fixes the problem, that will also<br>
&gt;&gt;&gt;&gt; help confirm that this is the problem. :-)<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;  - Pat<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Tue, Jul 16, 2013 at 5:07 PM, Adam Randall &lt;<a href="mailto:randalla@gmail.com" target="_blank">randalla@gmail.com</a>&gt;<br>
&gt;&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt; &gt; Please forgive my lack of experience, but I&#39;ve just recently started<br>
&gt;&gt;&gt;&gt; &gt; deeply<br>
&gt;&gt;&gt;&gt; &gt; working with ocfs2 and am not familiar with all it&#39;s caveats.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; We&#39;ve just deployed two servers that have SAN arrays attached to them.<br>
&gt;&gt;&gt;&gt; &gt; These<br>
&gt;&gt;&gt;&gt; &gt; arrays are synchronized with DRBD in master/master mode, with ocfs2<br>
&gt;&gt;&gt;&gt; &gt; configured on top of that. In all my testing everything worked well,<br>
&gt;&gt;&gt;&gt; &gt; except<br>
&gt;&gt;&gt;&gt; &gt; for an issue with symbolic links throwing an exception in the kernel<br>
&gt;&gt;&gt;&gt; &gt; (ths<br>
&gt;&gt;&gt;&gt; &gt; was fixed by applying a patch I found here:<br>
&gt;&gt;&gt;&gt; &gt; <a href="http://comments.gmane.org/gmane.comp.file-systems.ocfs2.devel/8008" target="_blank">comments.gmane.org/gmane.comp.file-systems.ocfs2.devel/8008</a>). Of these<br>
&gt;&gt;&gt;&gt; &gt; machines, one of them is designated the master and the other is it&#39;s<br>
&gt;&gt;&gt;&gt; &gt; backup.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; Host is Gentoo linux running the 3.8.13.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; I have four other machines that are connecting to the master ocfs2<br>
&gt;&gt;&gt;&gt; &gt; partition<br>
&gt;&gt;&gt;&gt; &gt; using nfs. The problem I&#39;m having is that on these machines, I&#39;m<br>
&gt;&gt;&gt;&gt; &gt; randomly<br>
&gt;&gt;&gt;&gt; &gt; getting read errors while trying to enter directories over nfs. In all<br>
&gt;&gt;&gt;&gt; &gt; of<br>
&gt;&gt;&gt;&gt; &gt; these cases, except on, these directories are immediately unavailable<br>
&gt;&gt;&gt;&gt; &gt; after<br>
&gt;&gt;&gt;&gt; &gt; they are created. The error that comes back is always something like<br>
&gt;&gt;&gt;&gt; &gt; this:<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; ls: cannot access /mnt/storage/documents/818/8189794/: Stale NFS file<br>
&gt;&gt;&gt;&gt; &gt; handle<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; The mount point is /mnt/storage. Other directories on the mount are<br>
&gt;&gt;&gt;&gt; &gt; available, and on other servers the same directory can be accessed<br>
&gt;&gt;&gt;&gt; &gt; perfectly<br>
&gt;&gt;&gt;&gt; &gt; fine.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; I haven&#39;t been able to reproduce this issue in isolated testing.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; The four machines that connect via NFS are doing one of two things:<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; 1) processing e-mail through a php driven daemon (read and write,<br>
&gt;&gt;&gt;&gt; &gt; creating<br>
&gt;&gt;&gt;&gt; &gt; directories)<br>
&gt;&gt;&gt;&gt; &gt; 2) serving report files in PDF format over the web via a php web<br>
&gt;&gt;&gt;&gt; &gt; application<br>
&gt;&gt;&gt;&gt; &gt; (read only)<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; I believe that the ocfs2 version if 1.5. I found this in the kernel<br>
&gt;&gt;&gt;&gt; &gt; source<br>
&gt;&gt;&gt;&gt; &gt; itself, but haven&#39;t figured out how to determine this in the shell.<br>
&gt;&gt;&gt;&gt; &gt; ocfs2-tools is version 1.8.2, which is what ocfs2 wanted (maybe this<br>
&gt;&gt;&gt;&gt; &gt; is<br>
&gt;&gt;&gt;&gt; &gt; ocfs2 1.8 then?).<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; The only other path I can think to take is to abandon OCFS2 and use<br>
&gt;&gt;&gt;&gt; &gt; DRBD in<br>
&gt;&gt;&gt;&gt; &gt; master/slave mode with ext4 on top of that. This would still provide<br>
&gt;&gt;&gt;&gt; &gt; me with<br>
&gt;&gt;&gt;&gt; &gt; the redundancy I want, but at a lack of not being able to use both<br>
&gt;&gt;&gt;&gt; &gt; machines<br>
&gt;&gt;&gt;&gt; &gt; simultaneously.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; If anyone has any advice, I&#39;d love to hear it.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; Thanks in advance,<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; Adam.<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt; &gt; Adam Randall<br>
&gt;&gt;&gt;&gt; &gt; <a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>
&gt;&gt;&gt;&gt; &gt; AIM: blitz574<br>
&gt;&gt;&gt;&gt; &gt; Twitter: @randalla0622<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; &quot;To err is human... to really foul up requires the root password.&quot;<br>
&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; &gt; Ocfs2-users mailing list<br>
&gt;&gt;&gt;&gt; &gt; <a href="mailto:Ocfs2-users@oss.oracle.com" target="_blank">Ocfs2-users@oss.oracle.com</a><br>
&gt;&gt;&gt;&gt; &gt; <a href="https://oss.oracle.com/mailman/listinfo/ocfs2-users" target="_blank">https://oss.oracle.com/mailman/listinfo/ocfs2-users</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Adam Randall<br>
&gt;&gt;&gt; <a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>
&gt;&gt;&gt; AIM: blitz574<br>
&gt;&gt;&gt; Twitter: @randalla0622<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &quot;To err is human... to really foul up requires the root password.&quot;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Adam Randall<br>
&gt;&gt; <a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>
&gt;&gt; AIM: blitz574<br>
&gt;&gt; Twitter: @randalla0622<br>
&gt;&gt;<br>
&gt;&gt; &quot;To err is human... to really foul up requires the root password.&quot;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Adam Randall<br>
&gt; <a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>
&gt; AIM: blitz574<br>
&gt; Twitter: @randalla0622<br>
&gt;<br>
&gt; &quot;To err is human... to really foul up requires the root password.&quot;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Ocfs2-users mailing list<br>
&gt; <a href="mailto:Ocfs2-users@oss.oracle.com" target="_blank">Ocfs2-users@oss.oracle.com</a><br>
&gt; <a href="https://oss.oracle.com/mailman/listinfo/ocfs2-users" target="_blank">https://oss.oracle.com/mailman/listinfo/ocfs2-users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>Adam Randall<br><a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>AIM: blitz574<br>Twitter: @randalla0622<br><br>&quot;To err is human... to really foul up requires the root password.&quot;
</div>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>Adam Randall<br><a href="http://www.xaren.net" target="_blank">http://www.xaren.net</a><br>AIM: blitz574<br>Twitter: @randalla0622<br><br>&quot;To err is human... to really foul up requires the root password.&quot;
</div>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>Adam Randall<br><a href="http://www.xaren.net">http://www.xaren.net</a><br>AIM: blitz574<br>Twitter: @randalla0622<br><br>&quot;To err is human... to really foul up requires the root password.&quot;
</div>