<div dir="ltr">Hi<div><br></div><div>I confirm the bug, it was introduced to address "Feature #2848: Add a configuration flag to enable individual VM monitoring". </div><div><br></div><div>By default VM monitoring is disable to prevent a tsunami of pro-active VM monitoring requests in case of massive failure of hypervisors. In that situation OpenNebula would try to contact the VMs collapsing the drivers and effectively blocking any other healthy hypervisor.</div>

<div><br></div><div>We are doing a maintenance release (4.6.1) next week, and this will be solved. In the meantime you can either delete the vm_monitoring table, or just set VM_INDIVIDUAL_MONITORING to "yes".</div>

<div><br></div><div>Thanks Wilma for the heads up.</div><div><br></div><div>Cheers</div><div><br></div><div>Ruben</div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">

On Wed, May 14, 2014 at 11:08 PM, Stefan Kooman <span dir="ltr"><<a href="mailto:stefan@bit.nl" target="_blank">stefan@bit.nl</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div class="">Quoting Stefan Kooman (<a href="mailto:stefan@bit.nl">stefan@bit.nl</a>):<br>
<br>
> After reading the above things start to make sense. We're using a<br>
> MySQL master-master replication setup, with one oned server as primary<br>
> master. The amount of network traffic, InnoDB activity, disk throughput,<br>
> etc have gone up tremendously. See attached images to get an impression.<br>
> For newly created vm's opening "capacity" or "network" tab this isn't a problem, yet.<br>
> But for vm's that are already running for month's this is a problem. I<br>
> see the sunstone instance that is serving me dropping out of the<br>
> load-balancer for not replying to health-checks in time. Just by<br>
> clicking the "network" tab of a long running vm.<br>
><br>
> If this is a bug I need a workaround soon before running out of disk<br>
> space ;).<br>
><br>
> Gr. Stefan<br>
><br>
> P.s Thanks for Wilma for spotting this, haven't had time to look into<br>
> this issue: too busy with reverting back from trusty -> saucy on<br>
> hypervisors, more on that later.<br>
<br>
</div>Pff, added those bloody attachments ;).<br>
<br>
Gr. Stefan<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
--<br>
| BIT BV  <a href="http://www.bit.nl/" target="_blank">http://www.bit.nl/</a>        Kamer van Koophandel 09090351<br>
| GPG: 0xD14839C6                   <a href="tel:%2B31%20318%20648%20688" value="+31318648688">+31 318 648 688</a> / <a href="mailto:info@bit.nl">info@bit.nl</a><br>
</div></div><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div dir="ltr"><div><div>-- <br></div></div>Ruben S. Montero, PhD<br>Project co-Lead and Chief Architect<div>OpenNebula - Flexible Enterprise Cloud Made Simple<br>

<a href="http://www.OpenNebula.org" target="_blank">www.OpenNebula.org</a> | <a href="mailto:rsmontero@opennebula.org" target="_blank">rsmontero@opennebula.org</a> | @OpenNebula</div></div>
</div>