We use glusterfs with open nebula on two kvm nodes with mirroring with 6 bricks per node. We recommend gluster 3.3 with a back end network connection, 10GbE or IB. For stress testing the file system you can use dbench on a cluster of VMs. Gluster 3.2 wasn't very robust to node failure but 3.3 is far more stable. I would say its ready for development lab use and moderately heavy loads. For best performance, I would suggest using cgroups to shield the glusterfs processes from the kvm processes or use separate storage hosts.<div class="gmail_extra">
<br><br><div class="gmail_quote">On Fri, Nov 2, 2012 at 5:03 AM, Giovanni Toraldo <span dir="ltr"><<a href="mailto:me@gionn.net" target="_blank">me@gionn.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">On Fri, Nov 2, 2012 at 9:46 AM, Timothy Ehlers <<a href="mailto:ehlerst@gmail.com">ehlerst@gmail.com</a>> wrote:<br>
> How does an instance react to a gluster node<br>
> failure? On my POC cloud, killing a server causes all the other boxes to<br>
> hang while the node times out in gluster.<br>
<br>
</div>This is a GlusterFS well-known configuration issue, you may read<br>
documentation or ask about it on their ML.<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Giovanni Toraldo<br>
<a href="http://gionn.net" target="_blank">http://gionn.net</a><br>
</font></span><div class="HOEnZb"><div class="h5">_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
</div></div></blockquote></div><br></div>