<div dir="ltr">Just a quick note on btrfs, as of a recent-ish kernel (current maybe 9 months ago?) I used btrfs in a storage cluster and it worked well UNTIL the memory pressure got high. It&#39;s a real pig when it comes to RAM usage, and if you get into high memory pressure situations, it will fail spectacular and awful ways. I personally would not consider it ready for prime time, but I know some people have a particular need for some of the features it offers and so have managed to have some success with it by being very mindful of how they deploy. It&#39;s definitely not the &quot;set it and forget&quot; filesystem most of us are accustomed to.<div><br></div><div>QH</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Nov 1, 2015 at 10:18 AM, adam bultman <span dir="ltr">&lt;<a href="mailto:adamb@glaven.org" target="_blank">adamb@glaven.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
<br>
On 10/31/2015 08:27 AM, Sean LeBlanc wrote:<br>
&gt; Anyone doing this? As many of you may or may not know, I dabble in the<br>
&gt; BSDs from time to time, and one of those more recent outcomes of that<br>
&gt; dabbling was a FreeNAS server I set up about 2 years ago to support Time<br>
&gt; Machine for macs as well as content for a Plex server.<br>
&gt;<br>
</span><span class="">&gt; They give a bit more background on ZFS - I didn&#39;t realize that Snoracle<br>
&gt; took it closed source after acquisition, and that what is commonly<br>
&gt; called &quot;ZFS&quot; is probably really OpenZFS, and that Snoracle has their own<br>
&gt; version now, different than what the rest of world calls ZFS.<br>
</span>&gt; ___________________________<br>
<br>
For a lark (and for legitimate business purposes) I spent some time<br>
working with ZFS on linux, in it&#39;s two forms (more or less).<br>
<br>
My server was a Dell Poweredge R900 (I think?);  quad proc, quad core,<br>
128GB of ECC RAM.  Boot drive was 5 or 6 of the built-in drives in a<br>
RAID5, with 2 SSDs for log and L2ARC.  I also had an 2 port emulex 10G<br>
NIC in it, too.  I tried multiple different shelves for running ZFS on -<br>
old Netapp shelves (FC connected DS14s, one with 500G ATA drives,<br>
another with 300G FC drives) and two SAS connected shelves of 300G SAS<br>
drives.  (Not all at once,  mind you.)<br>
<br>
With CentOS6 *and* CentOS7, I couldn&#39;t get native ZFS to work<br>
reliably.   I also tried zfsonlinux, and that *also* didn&#39;t work<br>
reliably.  The system would basically crash if I *really* pushed the<br>
server hard or seemingly if the RAM cache got too full.<br>
<br>
I was getting ready to blame the RAM (but it checked out with memtest86,<br>
multiple times) or the 10Gb NIC, but when I installed FreeBSD on the<br>
server and tested some more, it worked *perfectly*, and never once crashed.<br>
<br>
I spent a decent amount of time trying to get ZFS working on linux - but<br>
to no avail.  Maybe I did something wrong several times in a row, and<br>
somehow the default FreeBSD setup is idiot proof - or something&#39;s wrong<br>
with my hardware and somehow I never hit the bug/problem running<br>
FreeBSD.   I have another box I&#39;m going to test with (only 64GB of RAM,<br>
and 2 Intel X5550 CPUs) once I find the time to put CentOS 7 on it - and<br>
hopefully it&#39;ll work a whole lot better, since I have a large number of<br>
disk shelves sitting around, waiting to be used.<br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
--<br>
Adam<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
_______________________________________________<br>
clue mailing list: <a href="mailto:clue@cluedenver.org">clue@cluedenver.org</a><br>
For information, account preferences, or to unsubscribe see:<br>
<a href="http://cluedenver.org/mailman/listinfo/clue" rel="noreferrer" target="_blank">http://cluedenver.org/mailman/listinfo/clue</a><br>
</div></div></blockquote></div><br></div>