Hi Székelyi,<div><br></div><div>We are currently in the process of releasing next version of OpenNebula, and I am afraid we won't have time to look into this for 1.6.</div><div><br></div><div>I encourage you to use a hack for now in the vmm_kvm driver, we will come back to support this in the core since it seems a reasonable thing to have.</div>

<div><br></div><div>Best regards,</div><div><br></div><div>-Tino</div><div><br></div><div>--<br>Constantino Vázquez Blanco | <a href="http://dsa-research.org/tinova">dsa-research.org/tinova</a><br>Virtualization Technology Engineer / Researcher<br>

OpenNebula Toolkit | <a href="http://opennebula.org">opennebula.org</a><br>
<br><br><div class="gmail_quote">2010/7/8 Székelyi Szabolcs <span dir="ltr"><<a href="mailto:szekelyi@niif.hu">szekelyi@niif.hu</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Hi,<br>
<br>
any news on this? Actually this issue is blocking our progress in a project,<br>
so we'd really like to hear your opinion. Maybe I forgot to write that we'd<br>
willingly fix this ourselves and then contribute the changes back to<br>
OpenNebula. We're seeking your advice to make sure that the work we put into<br>
this conforms to your plans, standards and requirements.<br>
<br>
Note that we ran into the same problem recently in relation to setting up the<br>
ebtables-based network for VMs on live migration. [0]<br>
<br>
Thanks,<br>
<font color="#888888">--<br>
cc<br>
<br>
[0] <a href="http://lists.opennebula.org/pipermail/users-opennebula.org/2010-
July/002303.html" target="_blank">http://lists.opennebula.org/pipermail/users-opennebula.org/2010-<br>
July/002303.html</a><br>
</font><div><div></div><div class="h5"><br>
On Wednesday 23 June 2010 20.09.23 Székelyi Szabolcs wrote:<br>
> Hello,<br>
><br>
> we faced a problem and thought about more than one ways to fix it,<br>
> unfortunately they require source modification. We would like to know your<br>
> opinion.<br>
><br>
> The problem is that we'd like to use iSCSI targets to store the VMs' disks,<br>
> one target per VM. The idea is that if a VM starts running on a host, then<br>
> the host logs in to the corresponding iSCSI target, thus sees the disk<br>
> images for that VM.<br>
><br>
> This works now, we're able to do this with a custom TM driver. The problem<br>
> is with live migration. Unfortunately we found no possibility to make ONE<br>
> call a trigger that logs in to the target on the destination host right<br>
> before live migration starts, which means the VM is unable to start on the<br>
> new host.<br>
><br>
> The most clear solution seems to be to make LCM call not just the VMM to do<br>
> the migration, but the TM driver beforehand [1] [2]. Due to the<br>
> asynchronous nature of LCM, new VM states must be introduced, just like as<br>
> it is done now with non-live migration.<br>
><br>
> Another possibility is to hack VirtualMachineManager or<br>
> VirtualMachineManagerDriver to somehow run the appropriate commands before<br>
> (and after) migration, before returning the result to the LCM.<br>
><br>
> The third and most ugly way would be to hack one_vmm_kvm.rb (yes, we're<br>
> using KVM) to do the job.<br>
><br>
> What is your opinion about the way to implement this?<br>
><br>
> Thanks,<br>
</div></div><div><div></div><div class="h5">_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
</div></div></blockquote></div><br></div>