<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii"><meta name=Generator content="Microsoft Word 14 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Consolas;
        panose-1:2 11 6 9 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p.MsoPlainText, li.MsoPlainText, div.MsoPlainText
        {mso-style-priority:99;
        mso-style-link:"Plain Text Char";
        margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
span.PlainTextChar
        {mso-style-name:"Plain Text Char";
        mso-style-priority:99;
        mso-style-link:"Plain Text";
        font-family:"Calibri","sans-serif";}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri","sans-serif";}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link=blue vlink=purple><div class=WordSection1><p class=MsoPlainText><span style='font-size:10.0pt;font-family:"Arial","sans-serif"'>What is the block size? <o:p></o:p></span></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>-----Original Message-----<br>From: ocfs2-users-bounces@oss.oracle.com [mailto:ocfs2-users-bounces@oss.oracle.com] On Behalf Of Josep Guerrero<br>Sent: Thursday, April 21, 2011 4:43 PM<br>To: ocfs2-users@oss.oracle.com<br>Subject: [Ocfs2-users] How long for an fsck?</p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>I have a cluster with 8 nodes, all of them running Debian Lenny (plus some additions so multipath and Infiniband works), which share an array of 48 1TB disks. Those disks form 22 pairs of hardware RAID1, plus 4 spares). The first<o:p></o:p></p><p class=MsoPlainText>21 pairs are organized in two striped LVM logical volumes, of 16 and 3 TB, both formatted with ocfs2. The kernel is the version supplied with the distribution (2.6.26-2-amd64).<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>I wanted to run an fsck on both volumes because of some errors I was getting (probably unrelated to the filesystems, but I wanted to check). On the 3TB volume (around 10% full) the check worked perfectly, and finished in less than an hour (this was run with the fsck.ocfs2 provided by Lenny ocfs2-tools, version 1.4.1):<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>==============<o:p></o:p></p><p class=MsoPlainText>root@hidra0:/usr/local/src# fsck.ocfs2 -f /dev/hidrahome/lvol1 Checking OCFS2 filesystem in /dev/hidrahome/lvol1:<o:p></o:p></p><p class=MsoPlainText>&nbsp; label:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;NONE&gt;<o:p></o:p></p><p class=MsoPlainText>&nbsp; uuid:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ab 76 a9 41 fa df 4c ac a3 9f 26 c5 ae 34 1a 3f <o:p></o:p></p><p class=MsoPlainText>&nbsp;&nbsp;number of blocks:&nbsp;&nbsp; 959809536<o:p></o:p></p><p class=MsoPlainText>&nbsp; bytes per block:&nbsp;&nbsp;&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; number of clusters: 959809536<o:p></o:p></p><p class=MsoPlainText>&nbsp; bytes per cluster:&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; max slots:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 8<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>/dev/hidrahome/lvol1 was run with -f, check forced.<o:p></o:p></p><p class=MsoPlainText>Pass 0a: Checking cluster allocation chains Pass 0b: Checking inode allocation chains Pass 0c: Checking extent block allocation chains Pass 1: Checking inodes and blocks.<o:p></o:p></p><p class=MsoPlainText>Pass 2: Checking directory entries.<o:p></o:p></p><p class=MsoPlainText>Pass 3: Checking directory connectivity.<o:p></o:p></p><p class=MsoPlainText>Pass 4a: checking for orphaned inodes<o:p></o:p></p><p class=MsoPlainText>Pass 4b: Checking inodes link counts.<o:p></o:p></p><p class=MsoPlainText>All passes succeeded.<o:p></o:p></p><p class=MsoPlainText>============<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>but the check for the second filesystem (around 40% full) did this:<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>============<o:p></o:p></p><p class=MsoPlainText>hidra0:/usr/local/src# fsck.ocfs2 -f /dev/hidrahome/lvol0 Checking OCFS2 filesystem in /dev/hidrahome/lvol0:<o:p></o:p></p><p class=MsoPlainText>&nbsp; label:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;NONE&gt;<o:p></o:p></p><p class=MsoPlainText>&nbsp; uuid:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6a a9 0e aa cf 33 45 4c b4 72 3a b6 7c 3b 8d 57<o:p></o:p></p><p class=MsoPlainText>&nbsp; number of blocks:&nbsp;&nbsp; 4168098816<o:p></o:p></p><p class=MsoPlainText>&nbsp; bytes per block:&nbsp;&nbsp;&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; number of clusters: 4168098816<o:p></o:p></p><p class=MsoPlainText>&nbsp; bytes per cluster:&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; max slots:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 8<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>/dev/hidrahome/lvol0 was run with -f, check forced.<o:p></o:p></p><p class=MsoPlainText>Pass 0a: Checking cluster allocation chains =============<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>and stayed there for 8 hours (all the time keeping one core around 100% CPU usage and with a light load on the disks; this was consistent with the same step in the previous run, but of course it didn't take so long). I thought that maybe I had run into some bug, so I interrupted the process, downloaded ocfs2-tools 1.4.4 sources, compiled them, and tried with that fsck, obtaining similar results, since it's been running for almost 7 hours like this:<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>=============<o:p></o:p></p><p class=MsoPlainText>hidra0:/usr/local/src/ocfs2-tools-1.4.4/fsck.ocfs2# ./fsck.ocfs2 -f<o:p></o:p></p><p class=MsoPlainText>/dev/hidrahome/lvol0<o:p></o:p></p><p class=MsoPlainText>fsck.ocfs2 1.4.4<o:p></o:p></p><p class=MsoPlainText>Checking OCFS2 filesystem in /dev/hidrahome/lvol0:<o:p></o:p></p><p class=MsoPlainText>&nbsp; Label:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;NONE&gt;<o:p></o:p></p><p class=MsoPlainText>&nbsp; UUID:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6AA90EAACF33454CB4723AB67C3B8D57<o:p></o:p></p><p class=MsoPlainText>&nbsp; Number of blocks:&nbsp;&nbsp; 4168098816<o:p></o:p></p><p class=MsoPlainText>&nbsp; Block size:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; Number of clusters: 4168098816<o:p></o:p></p><p class=MsoPlainText>&nbsp; Cluster size:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4096<o:p></o:p></p><p class=MsoPlainText>&nbsp; Number of slots:&nbsp;&nbsp;&nbsp; 8<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>/dev/hidrahome/lvol0 was run with -f, check forced.<o:p></o:p></p><p class=MsoPlainText>Pass 0a: Checking cluster allocation chains<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>=============<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>and with one core CPU at 100%. <o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>Could someone tell me if this is normal? I've been searching the web and checking manuals for information on how long this checks should take, and apart from one message in this list mentioning that 3 days in a 8 TB filesystem with 300 GB was too long, I haven't been able to find anything. <o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>If this is normal, is there any way to estimate, taking into account that the first filesystem uses exactly the same disks and took less than an hour to check, how long it should take for this other filesystem?<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>Thanks!<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>Josep Guerrero<o:p></o:p></p><p class=MsoPlainText><o:p>&nbsp;</o:p></p><p class=MsoPlainText>_______________________________________________<o:p></o:p></p><p class=MsoPlainText>Ocfs2-users mailing list<o:p></o:p></p><p class=MsoPlainText><a href="mailto:Ocfs2-users@oss.oracle.com"><span style='color:windowtext;text-decoration:none'>Ocfs2-users@oss.oracle.com</span></a><o:p></o:p></p><p class=MsoPlainText><a href="http://oss.oracle.com/mailman/listinfo/ocfs2-users"><span style='color:windowtext;text-decoration:none'>http://oss.oracle.com/mailman/listinfo/ocfs2-users</span></a><o:p></o:p></p></div></body></html>