<div dir="ltr">As far as I know, the shared_lvm hasn't been updated lately:<div>- <a href="https://github.com/OpenNebula/addon-shared-lvm-single-lock">https://github.com/OpenNebula/addon-shared-lvm-single-lock</a></div>

<div>- <a href="http://community.opennebula.org/shared_lvm">http://community.opennebula.org/shared_lvm</a></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Jun 27, 2014 at 9:40 PM, Miloš Kozák <span dir="ltr"><<a href="mailto:milos.kozak@lejmr.com" target="_blank">milos.kozak@lejmr.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
it is great to know, is it related to the improved monitoring in ONE? I am getting ready for trials of ONE 4.6.<br>
<br>
We are using shared_lvm driver, so I would like to know if the new LVM driver is compatible with it? Or I can expect some major issues? I havent had enough time to check..<br>
<br>
Thanks Milos<br>
<br>
<br>
Dne 14-06-27 12:18 PM, Tino Vazquez napsal(a):<div class="HOEnZb"><div class="h5"><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
Issues with delete and shutdown have been greatly improved in<br>
OpenNebula 4.4+, I would recommend upgrading as far as possible.<br>
<br>
Best,<br>
<br>
-Tino<br>
<br>
--<br>
OpenNebula - Flexible Enterprise Cloud Made Simple<br>
<br>
--<br>
Constantino Vázquez Blanco, PhD, MSc<br>
Senior Infrastructure Architect at C12G Labs<br>
<a href="http://www.c12g.com" target="_blank">www.c12g.com</a> | @C12G | <a href="http://es.linkedin.com/in/tinova" target="_blank">es.linkedin.com/in/tinova</a><br>
<br>
--<br>
Confidentiality Warning: The information contained in this e-mail and<br>
any accompanying documents, unless otherwise expressly indicated, is<br>
confidential and privileged, and is intended solely for the person<br>
and/or entity to whom it is addressed (i.e. those identified in the<br>
"To" and "cc" box). They are the property of C12G Labs S.L..<br>
Unauthorized distribution, review, use, disclosure, or copying of this<br>
communication, or any part thereof, is strictly prohibited and may be<br>
unlawful. If you have received this e-mail in error, please notify us<br>
immediately by e-mail at <a href="mailto:abuse@c12g.com" target="_blank">abuse@c12g.com</a> and delete the e-mail and<br>
attachments and any copy from your system. C12G thanks you for your<br>
cooperation.<br>
<br>
<br>
On 26 June 2014 16:42, Steven Timm <<a href="mailto:timm@fnal.gov" target="_blank">timm@fnal.gov</a>> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
We have also seen this behavior in OpenNebula 3.2.<br>
It appears that the failure mode occurs because the onevm delete<br>
(or shutdown or migrate) doesn't correctly verify that the virtual machine<br>
has gone away.<br>
It sends the acpi terminate signal to the virtual machine<br>
but if that fails, the VM will keep running.  There is no<br>
signal sent to libvirt to kill the machine regardless.<br>
OpenNebula<br>
deletes the disk.0 from underneath it but that doesn't stop<br>
the vm from running, it stays running on the deleted file handle.<br>
<br>
On the plus side, I once was able to recover the full disk image<br>
of a VM that shouldn't have been deleted, that way, by going<br>
to the /proc file system and dd'ing from the still-open file<br>
handle of the process.<br>
<br>
We've written a set of utilities to check the consistency<br>
of the leases database with what is actually running on the cloud,<br>
and alert us if there are any differences.<br>
<br>
Steve Timm<br>
<br>
<br>
<br>
On Thu, 26 Jun 2014, Milos Kozak wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi, I would like to add that I have experienced it few times with ONE<br>
3.8..<br>
<br>
On 6/26/2014 9:34 AM, Robert Tanase wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
      Hi all,<br>
<br>
      We are using Opennebula 4.2 system with several hosts ( KVM +<br>
      network storage) .<br>
<br>
      Recently we have discovered, by having disk r/w issues on a VM, that<br>
      after a delete - recreate action, specific VM is running on two<br>
      different hosts: the old placement host and the new placement host.<br>
<br>
      We are using the hooks system for host failure and a cron job at 5<br>
      minutes which is (re)deploying pending machines on available running<br>
      hosts.<br>
<br>
      By checking oned log files we couldn't find any abnormal behavior<br>
      and we are stuck.<br>
<br>
      Please guide us to find the root cause of this issue if is possible.<br>
<br>
      --<br>
      Thank you,<br>
      Robert Tanase<br>
<br>
<br>
<br>
  ______________________________<u></u>_________________<br>
  Users mailing list<br>
  <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
  <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/<u></u>listinfo.cgi/users-opennebula.<u></u>org</a><br>
<br>
</blockquote>
______________________________<u></u>_________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/<u></u>listinfo.cgi/users-opennebula.<u></u>org</a><br>
<br>
<br>
</blockquote>
------------------------------<u></u>------------------------------<u></u>------<br>
Steven C. Timm, Ph.D  <a href="tel:%28630%29%20840-8525" value="+16308408525" target="_blank">(630) 840-8525</a><br>
<a href="mailto:timm@fnal.gov" target="_blank">timm@fnal.gov</a>  <a href="http://home.fnal.gov/~timm/" target="_blank">http://home.fnal.gov/~timm/</a><br>
Fermilab Scientific Computing Division, Scientific Computing Services Quad.<br>
Grid and Cloud Services Dept., Associate Dept. Head for Cloud Computing<br>
<br>
______________________________<u></u>_________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/<u></u>listinfo.cgi/users-opennebula.<u></u>org</a><br>
</blockquote></blockquote>
<br>
______________________________<u></u>_________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/<u></u>listinfo.cgi/users-opennebula.<u></u>org</a><br>
</div></div></blockquote></div><br></div><br clear="all"><div><br></div>-- <br><div dir="ltr"><div>Jaime Melis<br>Project Engineer<br>OpenNebula - Flexible Enterprise Cloud Made Simple<br><a href="http://www.OpenNebula.org" target="_blank">www.OpenNebula.org</a> | <a href="mailto:jmelis@opennebula.org" target="_blank">jmelis@opennebula.org</a></div>

</div>