<div>&nbsp;</div>  <div>For test&nbsp;and research you could look into DRDB, which should be rather stable.&nbsp;</div>  <div>&nbsp;</div>  <div>If you are adventurous, you could try running RAID1 over two iSCSI targets, or use ATA over ethernet. I am pretty sure that the linux md tools are not cluster aware. Dont know if LVM2 has mirroring.</div>  <div>&nbsp;</div>  <div>I dont recomend any of these two options for running&nbsp;a Oracle database, even on a test environment. </div>  <div>&nbsp;</div>  <div><B><I>Randy Ramsdell &lt;rramsdell@livedatagroup.com&gt;</I></B> wrote:</div>  <BLOCKQUOTE class=replbq style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #1010ff 2px solid">Benjamin Smith wrote:<BR>&gt; I'm stumped. I'm doing some research on clustered file systems to be deployed <BR>&gt; over winter break, and am testing on spare machines first.<BR>&gt;<BR>&gt; I have two identically configured computers, each with a 10 GB <BR>&gt; partition, /dev/hda2. I intend
 to combine these two LAN/RAID1 style to <BR>&gt; represent 10 GB of redundant cluster storage, so that if either machine <BR>&gt; fails, computing can resume with reasonable efficiency. <BR>&gt;<BR>&gt; These machines are called "cluster1" and "cluster2", and are currently on a <BR>&gt; local Gb LAN. They are running CentOS 4.4 (recompile of RHEL 4.4) I've set up <BR>&gt; SSH RSA keys so that I can ssh directly from either to the other without <BR>&gt; passwords, though I use a non-standard port, defined in ssh_config and <BR>&gt; sshd_config. <BR>&gt;<BR>&gt; I've installed the RPMs without incident. I've set up a cluster called "ocfs2" <BR>&gt; with nodes "cluster1" and "cluster2", with the corresponding LAN IP <BR>&gt; addresses. I've confirmed that configuration changes populate to cluster2 <BR>&gt; when I push the appropriate button in the X11 ocfs2console on cluster1. I've <BR>&gt; checked the firewall(s) to allow inbound TCP to port 7777 connections on both <BR>&gt;
 machines, and verified this with nmap. I've also tried turning off iptables <BR>&gt; completely. On cluster1, I've formatted and mounted partition "oracle" <BR>&gt; to /meda/cluster using the ocfs2console and I can r/w to this partition with <BR>&gt; other applications. There's about a 5-second delay when mounting/unmounting, <BR>&gt; and the FAQ reflects that this is normal. SELinux is completely off. <BR>&gt;<BR>&gt; Questions: <BR>&gt;<BR>&gt; 1) How do I get this "oracle" partition to show/mount on host cluster2, and <BR>&gt; subsequent systems added to the cluster? Should I be expecting a /dev/* block <BR>&gt; device to mount, or is there some other program I should be using, similar to <BR>&gt; smbmount? <BR>&gt; <BR>As the previous post states, you need a shared storage. A quick and easy <BR>way to do this is to install iscsi-target on another system (target1) <BR>and then use open-iscsi to log into the target you just created. So <BR>have a third system that create
 the shared target. Then on cluster1 log <BR>into the target to create the ocfs2 cluster FS. At this point, you can <BR>mount this target on cluster1. On cluster2, log into the target and <BR>mount as you would normally. Of course you will need the correct cluster <BR>set up. Now you have two systems mounting the shared storage and both r/w.<BR><BR>Note: You may be able to do this with just two systems. Use cluster1 as <BR>the iscsi target system and ocfs2. On cluster1 install iscsi-target <BR>software and log into the volume share from cluster1 itself. Cluster2 <BR>would just log in to the the target as normal.<BR><BR>&gt; 2) How do I get this /dev/hda2 (aka "oracle") on cluster1 to combine (RAID1 <BR>&gt; style) with /dev/hda2 on cluster2, so that if either host goes down I still <BR>&gt; have a complete FS to work from? Am I mis-understanding the abilities and <BR>&gt; intentions of OCFS2? Do I need to do something with NBD, GNBD, ENDB, or <BR>&gt; similar? If so, what's
 the "recommended" approach? <BR>&gt;<BR>&gt; <BR>Yes you are misunderstanding how ocfs2 works. To use raid for the <BR>described purposes, you must use it on the target1 system mentioned <BR>above. On target1, raid two drives or two partitions and then use this <BR>array as the target volume you export to cluster1 and cluster2. This way <BR>you have a raid array for data protection and ocfs2 for service integrity.<BR>&gt; Thanks,<BR>&gt;<BR>&gt; -Ben <BR>&gt;<BR>&gt; <BR><BR><BR>_______________________________________________<BR>Ocfs2-users mailing list<BR>Ocfs2-users@oss.oracle.com<BR>http://oss.oracle.com/mailman/listinfo/ocfs2-users<BR></BLOCKQUOTE><BR><p>&#32;__________________________________________________<br>Do You Yahoo!?<br>Tired of spam?  Yahoo! Mail has the best spam protection around <br>http://mail.yahoo.com