Just to conclude the issue:<br><br>After almost 2 days, the migration has succeed:<br><br>Tue Oct 18 11:00:31 2011 [LCM][I]: New VM state is MIGRATE<br>Thu Oct 20 06:06:57 2011 [LCM][I]: New VM state is RUNNING<br><div class="gmail_quote">
<br>And the machine seems to be working perfectly so I'll just say:<br>*stay calm and patience<br><br>Thanks a lot for the support and for the great product,<br>Samuel.<br><br>On 19 October 2011 11:56, samuel <span dir="ltr"><<a href="mailto:samu60@gmail.com">samu60@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">So the only option is to backup somehow the migrating instance and manually recover Open Nebula? The main concern is what will be the status of the currently migrating VM....probably the best is to recreate it?<br>
<br>Would it be good to add a timeout in the migrate script so it launches an error to Open Nebula? I'm sorry but I'm not familiar with One internals and I'm not sure what will be affected if we add timeout to the live migration virsh command...<br>

<br>Thanks for your support,<br><font color="#888888">Samuel.</font><div><div></div><div class="h5"><br><br><div class="gmail_quote">On 18 October 2011 22:53, Javier Fontan <span dir="ltr"><<a href="mailto:jfontan@opennebula.org" target="_blank">jfontan@opennebula.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Unfortunately I don't know of any way to stop or recover the failed<br>
migration with OpenNebula or manually.<br>
<br>
Rebooting a physical host will basically destroy the running VMs and<br>
most probably the disks will be corrupted.<br>
<div><div></div><div><br>
On Tue, Oct 18, 2011 at 2:34 PM, samuel <<a href="mailto:samu60@gmail.com" target="_blank">samu60@gmail.com</a>> wrote:<br>
> I add more information so you can follow the steps taken and the final<br>
> issue.<br>
><br>
> 1)segfault on node 2:<br>
> [620617.517308] kvm[28860]: segfault at 420 ip 0000000000413714 sp<br>
> 00007fff9136ea70 error 4 in qemu-system-x86_64[400000+335000]<br>
><br>
> VMs work OK<br>
><br>
> 2)restart libvirt on node 2<br>
> /init.d/libvirt-bin restart<br>
><br>
> libvirt is able to check local VM:<br>
> # virsh list<br>
>  Id Nombre               Estado<br>
> ----------------------------------<br>
>   2 one-47               ejecutando<br>
>   3 one-44               ejecutando<br>
><br>
> 3)tried to live-migrate one-44 from node2 to node3 using the sunstone web<br>
> interface<br>
><br>
> vm.log:<br>
> Tue Oct 18 11:00:31 2011 [LCM][I]: New VM state is MIGRATE<br>
><br>
> oned.log:<br>
> Tue Oct 18 11:00:31 2011 [DiM][D]: Live-migrating VM 44<br>
> Tue Oct 18 11:00:31 2011 [ReM][D]: VirtualMachineInfo method invoked<br>
><br>
> 4)the end situation is:<br>
> one-44 is in MIGRATE state for opennebula (there's no timeout paremeter set<br>
> for the virsh live-migrate so it will be there forever (?))<br>
><br>
> root@node3:# virsh list<br>
>  Id Nombre               Estado<br>
> ----------------------------------<br>
><br>
> root@node2:# virsh list<br>
>  Id Nombre               Estado<br>
> ----------------------------------<br>
>   2 one-47               ejecutando<br>
>   3 one-44               ejecutando<br>
><br>
><br>
> /var/log/libvirt/qemu/one-44.log is empty in both nodes (node2 and node3).<br>
><br>
> My question is:<br>
><br>
> i)How can I stop the live migration from the open nebula view so it does not<br>
> lose the whole picture of the cloud and it keeps consistency?<br>
> ii)is it safe to restart node2 or node3?<br>
><br>
> Thank you in advance for any hint on this issue.<br>
><br>
> Samuel.<br>
> On 18 October 2011 11:58, samuel <<a href="mailto:samu60@gmail.com" target="_blank">samu60@gmail.com</a>> wrote:<br>
>><br>
>> hi all,<br>
>><br>
>> I'm having an issue with live migration.T here was a running instance on a<br>
>> node that had a qemu segfault (i've noticed afterwards because the instances<br>
>> were working).I've tried to live migrate the instance to another node<br>
>> without problems but the instance remains in MIGRATE state "forever".<br>
>> *is there any method to stope the live migration?<br>
>> *if I restart the node with a qemu segfault, will the instances run ok<br>
>> again? They have been running but the communication between opennebula and<br>
>> KVM is broken so I'm not sure whether the cloud will keep consistency. I<br>
>> think I read that if the name of the instance is the same and the node is<br>
>> the same, opennebula will keep consistency.<br>
>><br>
>> Can anyone help me, please?<br>
>><br>
>> Thanks in advance,.<br>
>> Samuel.<br>
>><br>
><br>
><br>
</div></div>> _______________________________________________<br>
> Users mailing list<br>
> <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
><br>
><br>
<font color="#888888"><br>
<br>
<br>
--<br>
Javier Fontán Muiños<br>
Project Engineer<br>
OpenNebula Toolkit | <a href="http://opennebula.org" target="_blank">opennebula.org</a><br>
</font></blockquote></div><br>
</div></div></blockquote></div><br>