Hi Székelyi,<div><br></div><div>We are currently in the process of releasing next version of OpenNebula, and I am afraid we won&#39;t have time to look into this for 1.6.</div><div><br></div><div>I encourage you to use a hack for now in the vmm_kvm driver, we will come back to support this in the core since it seems a reasonable thing to have.</div>

<div><br></div><div>Best regards,</div><div><br></div><div>-Tino</div><div><br></div><div>--<br>Constantino Vázquez Blanco | <a href="http://dsa-research.org/tinova">dsa-research.org/tinova</a><br>Virtualization Technology Engineer / Researcher<br>

OpenNebula Toolkit | <a href="http://opennebula.org">opennebula.org</a><br>
<br><br><div class="gmail_quote">2010/7/8 Székelyi Szabolcs <span dir="ltr">&lt;<a href="mailto:szekelyi@niif.hu">szekelyi@niif.hu</a>&gt;</span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Hi,<br>
<br>
any news on this? Actually this issue is blocking our progress in a project,<br>
so we&#39;d really like to hear your opinion. Maybe I forgot to write that we&#39;d<br>
willingly fix this ourselves and then contribute the changes back to<br>
OpenNebula. We&#39;re seeking your advice to make sure that the work we put into<br>
this conforms to your plans, standards and requirements.<br>
<br>
Note that we ran into the same problem recently in relation to setting up the<br>
ebtables-based network for VMs on live migration. [0]<br>
<br>
Thanks,<br>
<font color="#888888">--<br>
cc<br>
<br>
[0] <a href="http://lists.opennebula.org/pipermail/users-opennebula.org/2010-
July/002303.html" target="_blank">http://lists.opennebula.org/pipermail/users-opennebula.org/2010-<br>
July/002303.html</a><br>
</font><div><div></div><div class="h5"><br>
On Wednesday 23 June 2010 20.09.23 Székelyi Szabolcs wrote:<br>
&gt; Hello,<br>
&gt;<br>
&gt; we faced a problem and thought about more than one ways to fix it,<br>
&gt; unfortunately they require source modification. We would like to know your<br>
&gt; opinion.<br>
&gt;<br>
&gt; The problem is that we&#39;d like to use iSCSI targets to store the VMs&#39; disks,<br>
&gt; one target per VM. The idea is that if a VM starts running on a host, then<br>
&gt; the host logs in to the corresponding iSCSI target, thus sees the disk<br>
&gt; images for that VM.<br>
&gt;<br>
&gt; This works now, we&#39;re able to do this with a custom TM driver. The problem<br>
&gt; is with live migration. Unfortunately we found no possibility to make ONE<br>
&gt; call a trigger that logs in to the target on the destination host right<br>
&gt; before live migration starts, which means the VM is unable to start on the<br>
&gt; new host.<br>
&gt;<br>
&gt; The most clear solution seems to be to make LCM call not just the VMM to do<br>
&gt; the migration, but the TM driver beforehand [1] [2]. Due to the<br>
&gt; asynchronous nature of LCM, new VM states must be introduced, just like as<br>
&gt; it is done now with non-live migration.<br>
&gt;<br>
&gt; Another possibility is to hack VirtualMachineManager or<br>
&gt; VirtualMachineManagerDriver to somehow run the appropriate commands before<br>
&gt; (and after) migration, before returning the result to the LCM.<br>
&gt;<br>
&gt; The third and most ugly way would be to hack one_vmm_kvm.rb (yes, we&#39;re<br>
&gt; using KVM) to do the job.<br>
&gt;<br>
&gt; What is your opinion about the way to implement this?<br>
&gt;<br>
&gt; Thanks,<br>
</div></div><div><div></div><div class="h5">_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
</div></div></blockquote></div><br></div>