<div>The fallocate() oops is probably the same that is fixed by this patch.</div><a href="https://oss.oracle.com/git/?p=smushran/linux-2.6.git;a=commit;h=a2118b301104a24381b414bc93371d666fe8d43a">https://oss.oracle.com/git/?p=smushran/linux-2.6.git;a=commit;h=a2118b301104a24381b414bc93371d666fe8d43a</a><div>
<br></div><div>Is in the list of patches that are ready to be pushed.</div><div><a href="https://oss.oracle.com/git/?p=smushran/linux-2.6.git;a=shortlog;h=mw-3.4-mar15">https://oss.oracle.com/git/?p=smushran/linux-2.6.git;a=shortlog;h=mw-3.4-mar15</a></div>
<div><br><div class="gmail_quote">On Mon, Jul 30, 2012 at 12:53 AM, Joel Becker <span dir="ltr">&lt;<a href="mailto:jlbec@evilplan.org" target="_blank">jlbec@evilplan.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="HOEnZb"><div class="h5">On Mon, Jul 30, 2012 at 09:45:14AM +0200, Vincent ETIENNE wrote:<br>
&gt;<br>
&gt; HI,<br>
&gt;<br>
&gt; Le 30/07/2012 08:30, Joel Becker a écrit :<br>
&gt; &gt; On Sat, Jul 28, 2012 at 12:18:30AM +0200, Vincent ETIENNE wrote:<br>
&gt; &gt;&gt; Hello<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Get this on first write made ( by deliver sending mail to inform of the<br>
&gt; &gt;&gt; restart of services  )<br>
&gt; &gt;&gt; Home partition (the one receiving the mail) is based on ocfs2 created<br>
&gt; &gt;&gt; from drbd block device in primary/primary mode<br>
&gt; &gt;&gt; These drbd devices are based on lvm.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; system is running linux-3.5.0, identical symptom with linux 3.3 and 3.2<br>
&gt; &gt;&gt; but working with linux 3.0 kernel<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; reproduced on two machines ( so different hardware involved on this one<br>
&gt; &gt;&gt; software md raid on SATA, on second one areca hardware raid card )<br>
&gt; &gt;&gt; but the 2 machines are the one sharing this partition ( so share the<br>
&gt; &gt;&gt; same data )<br>
&gt; &gt;     Hmm.  Any chance you can bisect this further?<br>
&gt;<br>
&gt; Will try to. Will take a few days as the server is in production ( but<br>
&gt; used as backup so...)<br>
&gt;<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.169213] ------------[ cut here<br>
&gt; &gt;&gt; ]------------<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.169261] kernel BUG at<br>
&gt; &gt;&gt; fs/buffer.c:2886!<br>
&gt; &gt;     This is:<br>
&gt; &gt;<br>
&gt; &gt;     BUG_ON(!buffer_mapped(bh));<br>
&gt; &gt;<br>
&gt; &gt; in submit_bh().<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003] Call Trace:<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81327546&gt;] ?<br>
&gt; &gt;&gt; ocfs2_read_blocks+0x176/0x6c0<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8114e541&gt;] ?<br>
&gt; &gt;&gt; T.1552+0x91/0x2b0<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81346ad0&gt;] ?<br>
&gt; &gt;&gt; ocfs2_find_actor+0x120/0x120<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff813464f7&gt;] ?<br>
&gt; &gt;&gt; ocfs2_read_inode_block_full+0x37/0x60<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff813964ff&gt;] ?<br>
&gt; &gt;&gt; ocfs2_fast_symlink_readpage+0x2f/0x160<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81111585&gt;] ?<br>
&gt; &gt;&gt; do_read_cache_page+0x85/0x180<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff813964d0&gt;] ?<br>
&gt; &gt;&gt; ocfs2_fill_super+0x2500/0x2500<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff811116d9&gt;] ?<br>
&gt; &gt;&gt; read_cache_page+0x9/0x20<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8115c705&gt;] ?<br>
&gt; &gt;&gt; page_getlink+0x25/0x80<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8115c77b&gt;] ?<br>
&gt; &gt;&gt; page_follow_link_light+0x1b/0x30<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8116099b&gt;] ?<br>
&gt; &gt;&gt; path_lookupat+0x38b/0x720<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81160d5c&gt;] ?<br>
&gt; &gt;&gt; do_path_lookup+0x2c/0xd0<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81346f31&gt;] ?<br>
&gt; &gt;&gt; ocfs2_inode_revalidate+0x71/0x160<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81161c0c&gt;] ?<br>
&gt; &gt;&gt; user_path_at_empty+0x5c/0xb0<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8106714a&gt;] ?<br>
&gt; &gt;&gt; do_page_fault+0x1aa/0x3c0<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81156f2d&gt;] ?<br>
&gt; &gt;&gt; cp_new_stat+0x10d/0x120<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff81157021&gt;] ?<br>
&gt; &gt;&gt; vfs_fstatat+0x41/0x80<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff8115715f&gt;] ?<br>
&gt; &gt;&gt; sys_newstat+0x1f/0x50<br>
&gt; &gt;&gt; Jul 27 23:41:41 jupiter2 kernel: [  351.170003]  [&lt;ffffffff817ecee2&gt;] ?<br>
&gt; &gt;&gt; system_call_fastpath+0x16/0x1b<br>
&gt; &gt;     This stack trace is from 3.5, because of the location of the<br>
&gt; &gt; BUG.  The call path in the trace suggests the code added by Al&#39;s ea022d,<br>
&gt; &gt; but you say it breaks in 3.2 and 3.3 as well.  Can you give me a trace<br>
&gt; &gt; from 3.2?<br>
&gt;<br>
&gt; For a 3.2 kernel i get this stack trace. Different trace form 3.5 but<br>
&gt; exactly at the same moment. and for the same reasons.<br>
&gt; Seems to be less immmediate than with 3.5 but more a subjective<br>
&gt; imrpession than something based on fact. ( it takes a few seconds after<br>
&gt; deliver is started to have the bug )<br>
<br>
</div></div>Totally different stack trace.  Not in symlink code, but instead in<br>
fallocate.  Weird.  I wonder if you are hitting two things.  Bisection<br>
will definitely help.<br>
<br>
Joel<br>
<div><div class="h5"><br>
&gt; [  716.402833] o2dlm: Joining domain B43153ED20B942E291251F2C138ADA9E (<br>
&gt; 0 1 ) 2 nodes<br>
&gt; [  716.501511] ocfs2: Mounting device (147,2) on (node 1, slot 0) with<br>
&gt; ordered data mode.<br>
&gt; [  716.505744] mount.ocfs2 used greatest stack depth: 2936 bytes left<br>
&gt; [  727.133743] deliver used greatest stack depth: 2632 bytes left<br>
&gt; [  764.167029] deliver used greatest stack depth: 1896 bytes left<br>
&gt; [  764.778872] BUG: unable to handle kernel NULL pointer dereference at<br>
&gt; 0000000000000038<br>
&gt; [  764.778897] IP: [&lt;ffffffff8133c51a&gt;]<br>
&gt; __ocfs2_change_file_space+0x75a/0x1690<br>
&gt; [  764.778922] PGD 62697067 PUD 67a81067 PMD 0<br>
&gt; [  764.778939] Oops: 0000 [#1] SMP<br>
&gt; [  764.778953] CPU 0<br>
&gt; [  764.778959] Modules linked in: drbd lru_cache ipv6 [last unloaded: drbd]<br>
&gt; [  764.778986]<br>
&gt; [  764.778993] Pid: 5909, comm: deliver Not tainted 3.2.12-gentoo #2 HP<br>
&gt; ProLiant ML150 G3/ML150 G3<br>
&gt; [  764.779017] RIP: 0010:[&lt;ffffffff8133c51a&gt;]  [&lt;ffffffff8133c51a&gt;]<br>
&gt; __ocfs2_change_file_space+0x75a/0x1690<br>
&gt; [  764.779041] RSP: 0018:ffff880067b2dd98  EFLAGS: 00010246<br>
&gt; [  764.779053] RAX: 0000000000000000 RBX: ffff880067f82000 RCX:<br>
&gt; ffff880063d11000<br>
&gt; [  764.779069] RDX: 0000000000000000 RSI: 0000000000000001 RDI:<br>
&gt; ffff88007ae83288<br>
&gt; [  764.779085] RBP: ffff880055d1f138 R08: 0010000000000000 R09:<br>
&gt; ffff880063d11000<br>
&gt; [  764.779100] R10: 0000000000000000 R11: 0000000000000000 R12:<br>
&gt; ffff88007ae83288<br>
&gt; [  764.779115] R13: 0000000000000000 R14: 0000000000000000 R15:<br>
&gt; 00000000000000df<br>
&gt; [  764.779132] FS:  00007f1e40eb5700(0000) GS:ffff88007fc00000(0000)<br>
&gt; knlGS:0000000000000000<br>
&gt; [  764.779149] CS:  0010 DS: 0000 ES: 0000 CR0: 000000008005003b<br>
&gt; [  764.779219] CR2: 0000000000000038 CR3: 0000000067ab5000 CR4:<br>
&gt; 00000000000006f0<br>
&gt; [  764.779291] DR0: 0000000000000000 DR1: 0000000000000000 DR2:<br>
&gt; 0000000000000000<br>
&gt; [  764.779364] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7:<br>
&gt; 0000000000000400<br>
&gt; [  764.779436] Process deliver (pid: 5909, threadinfo ffff880067b2c000,<br>
&gt; task ffff88007bedbc00)<br>
&gt; [  764.779569] Stack:<br>
&gt; [  764.779634]  ffffea0001647840 ffffffff8112983f 0000000000000000<br>
&gt; ffff880000000000<br>
&gt; [  764.779768]  00000000000de000 ffffffff81333f35 ffffffff8133f880<br>
&gt; 0000000000000000<br>
&gt; [  764.779903]  000000017d002240 ffff880055d1f1d8 ffff880000000001<br>
&gt; ffff880067976708<br>
&gt; [  764.780009] Call Trace:<br>
&gt; [  764.780009]  [&lt;ffffffff8112983f&gt;] ? handle_pte_fault+0x7cf/0x9e0<br>
&gt; [  764.780009]  [&lt;ffffffff81333f35&gt;] ?<br>
&gt; ocfs2_inode_lock_full_nested+0x355/0xb40<br>
&gt; [  764.780009]  [&lt;ffffffff8133f880&gt;] ? ocfs2_inode_revalidate+0x70/0x160<br>
&gt; [  764.780009]  [&lt;ffffffff8106337a&gt;] ? do_page_fault+0x1aa/0x3c0<br>
&gt; [  764.780009]  [&lt;ffffffff8114e780&gt;] ? cp_new_stat+0xe0/0x100<br>
&gt; [  764.780009]  [&lt;ffffffff8133d4cd&gt;] ? ocfs2_fallocate+0x7d/0x90<br>
&gt; [  764.780009]  [&lt;ffffffff811489e7&gt;] ? do_fallocate+0x117/0x120<br>
&gt; [  764.780009]  [&lt;ffffffff81148a34&gt;] ? sys_fallocate+0x44/0x70<br>
&gt; [  764.780009]  [&lt;ffffffff81771bbb&gt;] ? system_call_fastpath+0x16/0x1b<br>
&gt; [  764.780009] Code: 89 45 60 48 89 55 68 48 89 45 70 48 89 55 78 4c 89<br>
&gt; e7 48 8b 94 24 00 01 00 00 e8 12 31 00 00 41 89 c2 85 c0 78 2e 48 8b 54<br>
&gt; 24 38 &lt;f7&gt; 42 38 00 10 10 00 74 06 41 80 4c 24 14 01 44 89 54 24 18 4c<br>
&gt; [  764.780785] RIP  [&lt;ffffffff8133c51a&gt;]<br>
&gt; __ocfs2_change_file_space+0x75a/0x1690<br>
&gt; [  764.780785]  RSP &lt;ffff880067b2dd98&gt;<br>
&gt; [  764.780785] CR2: 0000000000000038<br>
&gt; [  764.781561] ---[ end trace 654757aba94c3768 ]---<br>
&gt;<br>
&gt; Vincent<br>
&gt;<br>
&gt; &gt; Joel<br>
&gt; &gt;<br>
&gt;<br>
&gt; --<br>
</div></div>&gt; To unsubscribe from this list: send the line &quot;unsubscribe linux-kernel&quot; in<br>
<div class="im">&gt; the body of a message to <a href="mailto:majordomo@vger.kernel.org">majordomo@vger.kernel.org</a><br>
&gt; More majordomo info at  <a href="http://vger.kernel.org/majordomo-info.html" target="_blank">http://vger.kernel.org/majordomo-info.html</a><br>
</div>&gt; Please read the FAQ at  <a href="http://www.tux.org/lkml/" target="_blank">http://www.tux.org/lkml/</a><br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
<br>
Life&#39;s Little Instruction Book #456<br>
<br>
        &quot;Send your loved one flowers.  Think of a reason later.&quot;<br>
<br>
                        <a href="http://www.jlbec.org/" target="_blank">http://www.jlbec.org/</a><br>
                        <a href="mailto:jlbec@evilplan.org">jlbec@evilplan.org</a><br>
</font></span><div class="HOEnZb"><div class="h5">--<br>
To unsubscribe from this list: send the line &quot;unsubscribe linux-fsdevel&quot; in<br>
the body of a message to <a href="mailto:majordomo@vger.kernel.org">majordomo@vger.kernel.org</a><br>
More majordomo info at  <a href="http://vger.kernel.org/majordomo-info.html" target="_blank">http://vger.kernel.org/majordomo-info.html</a><br>
</div></div></blockquote></div><br></div>