<div dir="ltr">Hi Michael<div><br></div><div>Progress for this is in here:</div><div><br></div><div><a href="http://dev.opennebula.org/issues/1712" target="_blank">http://dev.opennebula.org/issues/1712</a><br></div><div><br>

</div><div>This issue basically implements scheduling for storage. A cluster may have multiple system DS, you select one based on requirements and rank (as you do for hosts). For example:</div>
<div><br></div><div>1.- You can require a VM to run in a System DS with tag STORAGE_TYPE equal to SSD</div><div>2.- Among all the System DS with SSD pick that with more FREE_MB</div><div><br></div><div>So the scheduler will schedule a host and a system DS for you combining different host and storage policies.</div>


<div><br></div><div>Note that all the disks of a VM will use the same system DS. For example a VM with two DISKs (one non-persistent and one volatile), the non-persisten disk will be cloned and the volatile disk created on the selected DS. But both on the same one. Note that if the disk is persistent just links are created and the DS schedule is only relevant for the volatile disk.</div>


<div><br></div><div>Cheers</div><div><br></div><div>Ruben</div><div><br></div><div><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Aug 23, 2013 at 3:30 PM, Michael Curran <span dir="ltr"><<a href="mailto:michael.curran@connectsolutions.com" target="_blank">michael.curran@connectsolutions.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Tino --<br>
<br>
 Where do we see the progress notes for 4.4 -- im especially interested in the multiple system datastores -- as that will make my current VMware installation easier to migrate (we have well over 100+ datastores that cannot be concatenated to 1)<br>



<br>
Right now I am assuming that if you get multiple system datastores , that would include choosing the datastore for the volatile disk that you add to a VM?<br>
<div><br>
Michael Curran | connectsolutions | Lead Network Architect<br>
Phone <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



<br>
-----Original Message-----<br>
From: Tino Vazquez [mailto:<a href="mailto:cvazquez@c12g.com" target="_blank">cvazquez@c12g.com</a>]<br>
</div><div>Sent: Thursday, August 22, 2013 12:08 PM<br>
</div><div>To: Michael Curran<br>
Cc: <a href="mailto:users@lists.opennebula.org" target="_blank">users@lists.opennebula.org</a><br>
Subject: Re: [one-users] esxi vm instantiation not on scsi disk<br>
<br>
Hi Michael,<br>
<br>
</div><div>I think the problem is that the FSTYPE should read something like "vmdk_thin", instead of "vmfs".<br>
<br>
Also, please upgrade to 4.2.0, I believe you are using some development version ;)<br>
<br>
Hope it helps,<br>
<br>
</div><div>-Tino<br>
--<br>
Constantino Vázquez Blanco, PhD, MSc<br>
Senior Infrastructure Architect at C12G Labs <a href="http://www.c12g.com" target="_blank">www.c12g.com</a> | @C12G | <a href="http://es.linkedin.com/in/tinova" target="_blank">es.linkedin.com/in/tinova</a><br>
<br>
--<br>
Confidentiality Warning: The information contained in this e-mail and any accompanying documents, unless otherwise expressly indicated, is confidential and privileged, and is intended solely for the person and/or entity to whom it is addressed (i.e. those identified in the "To" and "cc" box). They are the property of C12G Labs S.L..<br>



Unauthorized distribution, review, use, disclosure, or copying of this communication, or any part thereof, is strictly prohibited and may be unlawful. If you have received this e-mail in error, please notify us immediately by e-mail at <a href="mailto:abuse@c12g.com" target="_blank">abuse@c12g.com</a> and delete the e-mail and attachments and any copy from your system. C12G thanks you for your cooperation.<br>



<br>
<br>
</div><div>On Thu, Aug 22, 2013 at 5:38 PM, Michael Curran <<a href="mailto:michael.curran@connectsolutions.com" target="_blank">michael.curran@connectsolutions.com</a>> wrote:<br>
> Using 4.2 (reads 4.1.80 ?)<br>
><br>
</div><div>> Michael Curran | connectsolutions | Lead Network Architect Phone<br>
> <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



><br>
> -----Original Message-----<br>
> From: Tino Vazquez [mailto:<a href="mailto:cvazquez@c12g.com" target="_blank">cvazquez@c12g.com</a>]<br>
</div><div>> Sent: Thursday, August 22, 2013 11:24 AM<br>
> To: Michael Curran<br>
</div><div>> Cc: Javier Fontan; <a href="mailto:users@lists.opennebula.org" target="_blank">users@lists.opennebula.org</a><br>
> Subject: Re: [one-users] esxi vm instantiation not on scsi disk<br>
><br>
> Hi Michael,<br>
><br>
</div><div>> What version of OpenNebula are you using?<br>
><br>
</div><div>> Regards,<br>
><br>
> -Tino<br>
> --<br>
> Constantino Vázquez Blanco, PhD, MSc<br>
> Senior Infrastructure Architect at C12G Labs <a href="http://www.c12g.com" target="_blank">www.c12g.com</a> | @C12G |<br>
> <a href="http://es.linkedin.com/in/tinova" target="_blank">es.linkedin.com/in/tinova</a><br>
><br>
> --<br>
> Confidentiality Warning: The information contained in this e-mail and any accompanying documents, unless otherwise expressly indicated, is confidential and privileged, and is intended solely for the person and/or entity to whom it is addressed (i.e. those identified in the "To" and "cc" box). They are the property of C12G Labs S.L..<br>



> Unauthorized distribution, review, use, disclosure, or copying of this communication, or any part thereof, is strictly prohibited and may be unlawful. If you have received this e-mail in error, please notify us immediately by e-mail at <a href="mailto:abuse@c12g.com" target="_blank">abuse@c12g.com</a> and delete the e-mail and attachments and any copy from your system. C12G thanks you for your cooperation.<br>



><br>
><br>
</div><div>> On Thu, Aug 22, 2013 at 5:11 PM, Michael Curran <<a href="mailto:michael.curran@connectsolutions.com" target="_blank">michael.curran@connectsolutions.com</a>> wrote:<br>
>> Not sure why - -thought it allowed me to attach a volume but it<br>
>> doesn't -- this is why<br>
>><br>
>> Still running an MFKS to create a volume, there is no MKFS with esxi<br>
>> -- its VMKFSTOOLS<br>
>><br>
>> Thu Aug 22 08:09:51 2013 [VMM][I]: Command execution fail:<br>
>> /var/lib/one/remotes/tm/vmfs/mkimage 15360 vmfs<br>
>> 10.7.0.55:/vmfs/volumes/102/30/disk.2 30 102 Thu Aug 22 08:09:51 2013<br>
>> [VMM][I]: mkimage: Making filesystem of 15360M and type vmfs at<br>
>> 10.7.0.55:/vmfs/volumes/102/30/disk.2<br>
>> Thu Aug 22 08:09:51 2013 [VMM][E]: mkimage: Command "export<br>
>> PATH=/usr/sbin:/sbin:$PATH Thu Aug 22 08:09:51 2013 [VMM][I]:<br>
>> Thu Aug 22 08:09:51 2013 [VMM][I]: if [ ! -d<br>
>> /vmfs/volumes/102/30/disk.2 ]; then Thu Aug 22 08:09:51 2013 [VMM][I]:<br>
>> mkdir -p /vmfs/volumes/102/30/disk.2 Thu Aug 22 08:09:51 2013<br>
>> [VMM][I]: fi Thu Aug 22 08:09:51 2013 [VMM][I]:<br>
>> Thu Aug 22 08:09:51 2013 [VMM][I]: mkfs -t vmfs<br>
>> /vmfs/volumes/102/30/disk.2" failed: sh: mkfs: not found Thu Aug 22<br>
>> 08:09:51 2013 [VMM][E]: Could not create image<br>
>> /vmfs/volumes/102/30/disk.2 Thu Aug 22 08:09:51 2013 [VMM][I]: ExitCode: 127 Thu Aug 22 08:09:51 2013 [VMM][I]: Failed to execute transfer manager driver operation: tm_attach.<br>
>> Thu Aug 22 08:09:51 2013 [VMM][E]: Error attaching new VM Disk: Could<br>
>> not create image /vmfs/volumes/102/30/disk.2<br>
>><br>
</div><div>>> Michael Curran | connectsolutions | Lead Network Architect Phone<br>
>> <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



>><br>
>> -----Original Message-----<br>
</div><div>>> From: <a href="mailto:users-bounces@lists.opennebula.org" target="_blank">users-bounces@lists.opennebula.org</a><br>
>> [mailto:<a href="mailto:users-bounces@lists.opennebula.org" target="_blank">users-bounces@lists.opennebula.org</a>] On Behalf Of Michael<br>
>> Curran<br>
>> Sent: Tuesday, August 20, 2013 9:21 AM<br>
>> To: Javier Fontan<br>
</div><div>>> Cc: <a href="mailto:users@lists.opennebula.org" target="_blank">users@lists.opennebula.org</a><br>
>> Subject: Re: [one-users] esxi vm instantiation not on scsi disk<br>
>><br>
</div><div>>> Thanks Javier!!<br>
>><br>
>> That allows me to attach a disk to the host -- Im no working on<br>
>> resolving why the windows VM thinks it's a hardware reconfig -- think<br>
>> the vmx isn't being built properly<br>
>><br>
</div><div>>> Michael Curran | connectsolutions | Lead Network Architect Phone<br>
>> <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



>><br>
>> -----Original Message-----<br>
</div><div>>> From: Javier Fontan [mailto:<a href="mailto:jfontan@opennebula.org" target="_blank">jfontan@opennebula.org</a>]<br>
</div><div>>> Sent: Monday, August 19, 2013 10:51 AM<br>
>> To: Michael Curran<br>
>> Cc: <a href="mailto:users@lists.opennebula.org" target="_blank">users@lists.opennebula.org</a><br>
>> Subject: Re: [one-users] esxi vm instantiation not on scsi disk<br>
>><br>
</div><div>>> With vmware the image file system initialization is not supported. Try usin as FSTYPE "vmfs_thin" instead of "raw". You will have to initialize the fs manually in the VM.<br>

>><br>
>> On Mon, Aug 19, 2013 at 4:17 PM, Michael Curran <<a href="mailto:michael.curran@connectsolutions.com" target="_blank">michael.curran@connectsolutions.com</a>> wrote:<br>
>>> Javier --<br>
>>><br>
>>>  Thanks!! That resolved that portion of the issue<br>
>>> ======================<br>
>>><br>
>>> Does anyone know if this is a bug report or a feature request that I need to make?<br>
>>><br>
>>> Vmware ESXi5.1 does not use mkfs to create a raw disk and attach it<br>
>>> to the VM instances , it uses vmkfstools to do this task<br>
>>><br>
>>> Mon Aug 19 07:07:24 2013 [VMM][I]:<br>
>>> Mon Aug 19 07:07:24 2013 [VMM][I]: if [ ! -d<br>
>>> /vmfs/volumes/102/16/disk.2 ]; then Mon Aug 19 07:07:24 2013 [VMM][I]:<br>
>>> mkdir -p /vmfs/volumes/102/16/disk.2 Mon Aug 19 07:07:24 2013<br>
>>> [VMM][I]: fi Mon Aug 19 07:07:24 2013 [VMM][I]:<br>
>>> Mon Aug 19 07:07:24 2013 [VMM][I]: mkfs -t RAW<br>
>>> /vmfs/volumes/102/16/disk.2" failed: sh: mkfs: not found Mon Aug 19<br>
>>> 07:07:24 2013 [VMM][E]: Could not create image<br>
>>> /vmfs/volumes/102/16/disk.2 Mon Aug 19 07:07:24 2013 [VMM][I]: ExitCode: 127 Mon Aug 19 07:07:24 2013 [VMM][I]: Failed to execute transfer manager driver operation: tm_attach.<br>
>>> Mon Aug 19 07:07:24 2013 [VMM][E]: Error attaching new VM Disk:<br>
>>> Could not create image /vmfs/volumes/102/16/disk.2<br>
>>><br>
>>> Since it cannot attach a disk using mkfs , it fails to add the additional disk. I suppose I could create a blank disk image and register it in the IMAGES Datastore and attach that for now -- Based on our use of that extra disk and VMware's ability to re-size them (especially for windows), this could lead to a large number of disks to manage on a given VM, instead of the ability to expand the disk.<br>



>>><br>
</div><div>>>> Michael Curran | connectsolutions | Lead Network Architect Phone<br>
>>> <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



>>><br>
>>> -----Original Message-----<br>
</div><div>>>> From: Javier Fontan [mailto:<a href="mailto:jfontan@opennebula.org" target="_blank">jfontan@opennebula.org</a>]<br>
</div><div>>>> Sent: Monday, August 19, 2013 9:04 AM<br>
>>> To: Michael Curran<br>
>>> Cc: <a href="mailto:users@lists.opennebula.org" target="_blank">users@lists.opennebula.org</a><br>
>>> Subject: Re: [one-users] esxi vm instantiation not on scsi disk<br>
>>><br>
</div><div><div>>>> Set the disk or image TARGET to "sda" or DEV_PREFIX to "sd".<br>
>>><br>
>>> On Thu, Aug 15, 2013 at 4:09 PM, Michael Curran <<a href="mailto:michael.curran@connectsolutions.com" target="_blank">michael.curran@connectsolutions.com</a>> wrote:<br>
>>>> So - I am having an issue with building VM's in ESXi from templates<br>
>>>><br>
>>>><br>
>>>><br>
>>>> The root drive always instantiates as IDE and not SCSI - and no<br>
>>>> SCSI adapter is added that would allow me to add more disks to the<br>
>>>> VM<br>
>>>><br>
>>>> Looking over this part of scripts_common.sh for VMKFSTOOLS - it<br>
>>>> doesn't appear to look like the build task from VMware's site - I<br>
>>>> don't see the -a that identifies the BUS type<br>
>>>><br>
>>>><br>
>>>><br>
>>>> I have added this to the actual disk IMAGE<br>
>>>><br>
>>>><br>
>>>><br>
>>>> BUS="scsi"<br>
>>>><br>
>>>><br>
>>>><br>
>>>> And these to the template<br>
>>>><br>
>>>><br>
>>>><br>
>>>> DISK=[<br>
>>>><br>
>>>>   BUS="scsi",<br>
>>>><br>
>>>>   IMAGE_ID="0" ]<br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
>>>> RAW=[<br>
>>>><br>
>>>>   DATA="<devices><controller type='scsi' index='0'<br>
>>>> model='lsilogic'/></devices>",<br>
>>>><br>
>>>>   TYPE="vmware" ]<br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
>>>> But never see a SCSI attached disk as the primary disk - always IDE<br>
>>>><br>
>>>><br>
>>>><br>
>>>> Any suggestions?<br>
>>>><br>
>>>><br>
>>>><br>
>>>> function mkfs_command {<br>
>>>><br>
>>>>     DST=$1<br>
>>>><br>
>>>>     FSTYPE=${2:-ext3}<br>
>>>><br>
>>>>     SIZE=${3:-0}<br>
>>>><br>
>>>><br>
>>>><br>
>>>>     # Specific options for different FS<br>
>>>><br>
>>>>     case "$FSTYPE" in<br>
>>>><br>
>>>>         "ext2"|"ext3"|"ext4"|"ntfs")<br>
>>>><br>
>>>>             OPTS="-F"<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>><br>
>>>><br>
>>>>         "reiserfs")<br>
>>>><br>
>>>>             OPTS="-f -q"<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>><br>
>>>><br>
>>>>         "jfs")<br>
>>>><br>
>>>>             OPTS="-q"<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>         "raw"|"")<br>
>>>><br>
>>>>             echo ""<br>
>>>><br>
>>>>             return 0<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>         "swap")<br>
>>>><br>
>>>>             echo "$MKSWAP -L swap $DST"<br>
>>>><br>
>>>>             return 0<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>         "qcow2")<br>
>>>><br>
>>>>             echo "$QEMU_IMG create -f qcow2 $DST ${SIZE}M"<br>
>>>><br>
>>>>             return 0<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>         "vmdk_"*)<br>
>>>><br>
>>>>             VMWARE_DISK_TYPE=`echo $FSTYPE|cut -d'_' -f 2`<br>
>>>><br>
>>>><br>
>>>><br>
>>>>             echo "$VMWARE_DISK_TYPE" | \<br>
>>>><br>
>>>>             grep '\<thin\>\|\<zeroedthic\>\|\<eagerzeroedthick\>'<br>
>>>> 2>&1 /dev/null<br>
>>>><br>
>>>><br>
>>>><br>
>>>>             if [ $? -eq 1 ] ; then<br>
>>>><br>
>>>>                 VMWARE_DISK_TYPE="thin"<br>
>>>><br>
>>>>             fi<br>
>>>><br>
>>>><br>
>>>><br>
>>>>             echo "$VMKFSTOOLS -U $DST/disk.vmdk; \<br>
>>>><br>
>>>>                   rm -f $DST/*; \<br>
>>>><br>
>>>>                   $VMKFSTOOLS -c ${SIZE}M  -d ${VMWARE_DISK_TYPE}<br>
>>>> $DST /disk.vmdk"<br>
>>>><br>
>>>>             return 0<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>         *)<br>
>>>><br>
>>>>             OPTS=""<br>
>>>><br>
>>>>             ;;<br>
>>>><br>
>>>>     esac<br>
>>>><br>
>>>><br>
>>>><br>
>>>>     echo "$MKFS -t $FSTYPE $OPTS $DST"<br>
>>>><br>
>>>> }<br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
>>>><br>
</div></div><div>>>>> Michael Curran | connectsolutions | Lead Network Architect<br>
>>>><br>
>>>> Phone <a href="tel:614.568.2285" value="+16145682285" target="_blank">614.568.2285</a> | Mobile <a href="tel:614.403.6320" value="+16144036320" target="_blank">614.403.6320</a> | <a href="http://www.connectsolutions.com" target="_blank">www.connectsolutions.com</a><br>



>>>><br>
>>>><br>
>>>><br>
>>>><br>
</div><div>>>>> _______________________________________________<br>
>>>> Users mailing list<br>
>>>> <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
>>>> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
>>>><br>
>>><br>
>>><br>
>>><br>
</div><div>>>> --<br>
>>> Join us at OpenNebulaConf2013 in Berlin from the 24th to the 26th of September 2013!<br>
>>><br>
>>> Javier Fontán Muiños<br>
>>> Developer<br>
>>> OpenNebula - The Open Source Toolkit for Data Center Virtualization<br>
>>> <a href="http://www.OpenNebula.org" target="_blank">www.OpenNebula.org</a> | @OpenNebula | <a href="http://github.com/jfontan" target="_blank">github.com/jfontan</a><br>
>><br>
>><br>
>><br>
>> --<br>
>> Join us at OpenNebulaConf2013 in Berlin from the 24th to the 26th of September 2013!<br>
>><br>
>> Javier Fontán Muiños<br>
>> Developer<br>
>> OpenNebula - The Open Source Toolkit for Data Center Virtualization<br>
>> <a href="http://www.OpenNebula.org" target="_blank">www.OpenNebula.org</a> | @OpenNebula | <a href="http://github.com/jfontan" target="_blank">github.com/jfontan</a><br>
</div><div><div>>> _______________________________________________<br>
>> Users mailing list<br>
>> <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
>> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
>> _______________________________________________<br>
>> Users mailing list<br>
>> <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
>> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
> _______________________________________________<br>
> Users mailing list<br>
> <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br clear="all"><div><br></div>-- <br></a><div dir="ltr"><a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank"><div>

<div><div>-- </div><div>Join us at OpenNebulaConf2013 in Berlin, 24-26 September, 2013</div></div><div>-- </div></div>Ruben S. Montero, PhD<br>Project co-Lead and Chief Architect<br>OpenNebula - The Open Source Solution for Data Center Virtualization<br>

</a><a href="http://www.OpenNebula.org" target="_blank">www.OpenNebula.org</a> | <a href="mailto:rsmontero@opennebula.org" target="_blank">rsmontero@opennebula.org</a> | @OpenNebula</div>

</div></div></blockquote></div></div></div>