<div dir="ltr">Hi Daniel,<div><br></div><div>Thanks for the insight.</div><div><br></div><div>So basically, to sum it up, there is currently no way of running the OpenNebula management node (with all functionality inside one VM) on it's own virtualisation cluster (and thus managing itself along with the rest of the cluster).</div><div><br></div><div>This would mean that you need two physical servers to create a (proper) redundant (active / passive) setup?!</div><div><br></div><div>Thats a shame since we'd like to keep hardware to the minimum for this. But if the best practice is to have two physical servers then I guess we'll have to live with that and just maken it happen.</div><div><br></div><div>Although I'm still hoping for a better solution. So I'd be very interested in hearing how others created their redundant OpenNebula management node, is 2x server hardware "the best practice" or are there other solutions (with less hardware) to achieve this?</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">2014-11-13 12:33 GMT+01:00 Daniel Dehennin <span dir="ltr"><<a href="mailto:daniel.dehennin@baby-gnu.org" target="_blank">daniel.dehennin@baby-gnu.org</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">Giancarlo De Filippis <<a href="mailto:gdefilippis@ltbl.it">gdefilippis@ltbl.it</a>> writes:<br>
<br>
> I hope (like you) that someone (users or OpenNebula Team) have best<br>
> practices on how to run OpenNebula in a VM.<br>
<br>
</span>Hello,<br>
<br>
The ONE frontend VM can not manage itself, you must use something else.<br>
<br>
I made a test with pacemaker/corosync and it can be quite easy[1]:<br>
<br>
#+begin_src conf<br>
primitive Stonith-ONE-Frontend stonith:external/libvirt \<br>
        params hostlist="one-frontend" hypervisor_uri="qemu:///system" \<br>
        pcmk_host_list="one-frontend" pcmk_host_check="static-list" \<br>
        op monitor interval="30m"<br>
primitive ONE-Frontend-VM ocf:heartbeat:VirtualDomain \<br>
        params config="/var/lib/one/datastores/one/one.xml" \<br>
        op start interval="0" timeout="90" \<br>
        op stop interval="0" timeout="100" \<br>
        utilization cpu="1" hv_memory="1024"<br>
group ONE-Frontend Stonith-ONE-Frontend ONE-Frontend-VM<br>
location ONE-Frontend-run-on-hypervisor ONE-Frontend \<br>
        rule $id="ONE-Frontend-run-on-hypervisor-rule" 40: #uname eq nebula1 \<br>
        rule $id="ONE-Frontend-run-on-hypervisor-rule-0" 30: #uname eq nebula3 \<br>
        rule $id="ONE-Frontend-run-on-hypervisor-rule-1" 20: #uname eq nebula2<br>
#+end_src<br>
<br>
I have troubles with my cluster because my nodes _and_ the ONE frontend<br>
needs to access the same SAN.<br>
<br>
My nodes have two LUNs over multipath FC (/dev/mapper/SAN-FS{1,2}), they<br>
are both PV of a cluster volume group (cLVM) with a GFS2 on top.<br>
<br>
So I need:<br>
<br>
- corosync for messaging<br>
- dlm for cLVM and GFS2<br>
- cLVM<br>
- GFS2<br>
<br>
I add the LUNs as raw block disks to my frontend VM and install the<br>
whole stack in it, but I'm facing some communication issues, and manage<br>
to solve somes[3].<br>
<br>
According to the pacemaker mailing list, having the nodes _and_ a VM in<br>
the same pacemaker/corosync cluster ”sounds like a recipe for<br>
disaster”[2].<br>
<br>
Hope this will help you have a picture of the topic.<br>
<br>
Regards.<br>
<br>
Footnotes:<br>
[1]  <a href="http://clusterlabs.org/doc/en-US/Pacemaker/1.1-crmsh/html-single/Clusters_from_Scratch/index.html" target="_blank">http://clusterlabs.org/doc/en-US/Pacemaker/1.1-crmsh/html-single/Clusters_from_Scratch/index.html</a><br>
<br>
[2]  <a href="http://oss.clusterlabs.org/pipermail/pacemaker/2014-November/023000.html" target="_blank">http://oss.clusterlabs.org/pipermail/pacemaker/2014-November/023000.html</a><br>
<br>
[3]  <a href="http://oss.clusterlabs.org/pipermail/pacemaker/2014-November/022964.html" target="_blank">http://oss.clusterlabs.org/pipermail/pacemaker/2014-November/022964.html</a><br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Daniel Dehennin<br>
Récupérer ma clef GPG: gpg --recv-keys 0xCC1E9E5B7A6FE2DF<br>
Fingerprint: 3E69 014E 5C23 50E8 9ED6  2AAD CC1E 9E5B 7A6F E2DF<br>
</font></span><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">Bart G.</div>
</div>