<div>HI,everyone</div><div>    when I  create  many VMs(more than  100),it still  scp images from   image datastores.it  will be very  slow. Is there  any way  to accelerate  for creating VM  like local caching  images;</div><div><div><br></div><div><br></div><div style="font-size: 12px;font-family: Arial Narrow;padding:2px 0 2px 0;">------------------ Original ------------------</div><div style="font-size: 12px;background:#efefef;padding:8px;"><div><b>From: </b> "users-request";<users-request@lists.opennebula.org>;</div><div><b>Date: </b> Wed, Nov 13, 2013 12:43 PM</div><div><b>To: </b> "users"<users@lists.opennebula.org>; <wbr></div><div></div><div><b>Subject: </b> Users Digest, Vol 69, Issue 49</div></div><div><br></div>Send Users mailing list submissions to<br>     users@lists.opennebula.org<br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>       http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>or, via email, send a message with subject or body 'help' to<br>   users-request@lists.opennebula.org<br><br>You can reach the person managing the list at<br>   users-owner@lists.opennebula.org<br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of Users digest..."<br><br><br>Today's Topics:<br><br>   1. Re: How to manage vm created by opennebula by virsh   tools? (caohf)<br>   2. Re: how to reset VM ID??? (???)<br>   3. Re: VM in Opennebula for Esxi 5.1 failed (Catalina Quinde)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Wed, 13 Nov 2013 09:02:47 +0800<br>From: caohf <caohf@wedogame.com><br>To: vishnu e divakaran <vishnued@gmail.com><br>Cc: "users@lists.opennebula.org" <Users@lists.opennebula.org><br>Subject: Re: [one-users] How to manage vm created by opennebula by<br>    virsh   tools?<br>Message-ID: <201311130902475444642@wedogame.com><br>Content-Type: text/plain; charset="utf-8"<br><br>HI:<br>Here is a document for virsh-install ,this command can help you create a image file.<br>http://www.techotopia.com/index.php/Installing_a_CentOS_KVM_Guest_OS_from_the_Command-line_(virt-install)<br><br>After you finsh the installlation,you can import the  image file into opennebula via sunstone.<br><br><br><br> Best Wishes!<br> Dennis<br><br>From: vishnu e divakaran<br>Date: 2013-11-12 21:40<br>To: caohf<br>Subject: Re: [one-users] How to manage vm created by opennebula by virsh tools?<br>dear friend,<br><br>can you tell me how can I create a image file using virsh? any sample code or anything. <br><br><br><br><br>On 12 November 2013 15:03, caohf <caohf@wedogame.com> wrote:<br><br>Thanks for your help.<br><br><br><br><br><br>Best wishes<br>Dennis<br><br>From: Sharuzzaman Ahmat Raslan<br>Date: 2013-11-12 14:48<br>To: caohf<br>CC: users@lists.opennebula.org<br>Subject: Re: Re: [one-users] How to manage vm created by opennebula by virsh tools?<br>Hi Dennis,<br><br><br>When Opennebula shutdown a VM, it will destroy the XML file on the host, and unregister the VM from KVM.<br><br><br>If you just want it to stop, so that you can do something to the image, eg. making a backup, you can use the command<br><br><br>onevm suspend <vmid><br><br><br>then the VM will still be available in the host, and can be queried by virsh list command.<br><br><br>Read more at:<br><br>http://opennebula.org/documentation:rel4.2:vm_guide_2<br>http://opennebula.org/doc/4.2/cli/onevm.1.html<br><br><br><br><br><br><br><br><br><br>On Tue, Nov 12, 2013 at 12:33 PM, caohf <caohf@wedogame.com> wrote:<br><br><br>Thanks <br><br>But when i use  virsh  list --all command<br><br><br>-----------------------------------------------------------------<br>[root@opennebula-node1 ~]# virsh  list --all<br> Id    Name                           State<br>----------------------------------------------------<br> 43    one-111                        running<br> 44    one-104                        running<br> 48    one-123                        running<br> -     centos5.6.kvm                  shut off<br>----------------------------------------------------------------<br><br><br>if the vm managed by one  is runnning ,it can be list by virsh list --all command<br><br>when I destory a vm.<br><br><br>-------------------------------------------------------------------------  <br>[root@opennebula-node1 ~]# virsh  destroy 44<br>Domain 44 destroyed<br>------------------------------------------------------------------------<br><br><br>It can't be display by virsh command<br><br><br>--------------------------------------------------------<br>[root@opennebula-node1 ~]# virsh  list --all<br> Id    Name                           State<br>----------------------------------------------------<br> 43    one-111                        running<br> 48    one-123                        running<br> -     centos5.6.kvm                  shut off<br>-----------------------------------------------------------<br><br>How to fix this <br><br><br><br>Best Wishes!<br>Dennis<br><br>From: Sharuzzaman Ahmat Raslan<br>Date: 2013-11-12 11:48<br>To: caohf<br>CC: users@lists.opennebula.org<br>Subject: Re: Re: [one-users] How to manage vm created by opennebula by virsh tools?<br>Hi Dennis,<br><br><br>Opennebula is still using libvirt for KVM-based nodes.<br><br><br>You can still stop/start the VM using normal virsh command, such as virsh stop, virsh start, virsh attach-device etc.<br><br><br>But doing so directly to the VM, will cause your VM to not shutting down properly if you onevm shutdown from Opennebula later. That's what I have experience before.<br><br><br>Thanks.<br><br><br><br><br><br><br><br>On Tue, Nov 12, 2013 at 11:34 AM, caohf <caohf@wedogame.com> wrote:<br><br>Hi :<br> I have another  system use virsh(libvirt) manage the kvm vms,when i use opennebula ,I also want to use my old system.<br> Opennebula provide the libvirt drivers in the old version.<br><br><br><br>  <br>Best Wishes!<br>Dennis<br><br>From: Sharuzzaman Ahmat Raslan<br>Date: 2013-11-12 11:13<br>To: caohf<br>CC: users@lists.opennebula.org<br>Subject: Re: [one-users] How to manage vm created by opennebula by virsh tools?<br>Hi Dennis,<br><br><br>What actually that you want to achieve?<br><br><br>Thanks.<br><br><br><br><br><br><br>On Tue, Nov 12, 2013 at 9:58 AM, caohf <caohf@wedogame.com> wrote:<br><br>Dear All:<br>How to manage vm created by opennebula by virsh tool? <br><br><br><br><br>Best Wishes!<br>Dennis<br><br><br>_______________________________________________<br>Users mailing list<br>Users@lists.opennebula.org<br>http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br><br><br><br><br><br>-- <br>Sharuzzaman Ahmat Raslan <br><br><br><br>-- <br>Sharuzzaman Ahmat Raslan <br><br><br><br>-- <br>Sharuzzaman Ahmat Raslan <br><br>_______________________________________________<br>Users mailing list<br>Users@lists.opennebula.org<br>http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131113/d9e95aa7/attachment-0001.htm><br><br>------------------------------<br><br>Message: 2<br>Date: Wed, 13 Nov 2013 10:22:40 +0900<br>From: ??? <jaekeun0208@gmail.com><br>To: Javier Fontan <jfontan@opennebula.org><br>Cc: Users OpenNebula <users@lists.opennebula.org><br>Subject: Re: [one-users] how to reset VM ID???<br>Message-ID:<br>        <CAPvw6THpk-mvyvcacUN_O9PO=pGA_z1h5yTya1xaYz-1dG8RYw@mail.gmail.com><br>Content-Type: text/plain; charset="utf-8"<br><br>should I open all port?? from 5900 to 65535??<br><br><br><br><br>2013/11/12 Javier Fontan <jfontan@opennebula.org><br><br>> There's not an way to reset ID and we discourage it. The code to<br>> generate the VNC port is<br>><br>> --8<------<br>> int limit = 65535;<br>> oss << ( base_port + ( oid % (limit - base_port) ));<br>> ------>8--<br>><br>> base_port is 5900 by default. You should not have problems with the<br>> port as it goes back to 5900 after reaching 65535.<br>><br>><br>><br>> On Tue, Nov 12, 2013 at 9:35 AM, ??? <jaekeun0208@gmail.com> wrote:<br>> > Dear All<br>> ><br>> > how to reset VM ID??<br>> ><br>> > I already exceed over 10400.....<br>> ><br>> > actually, I want to control vnc port.<br>> > I saw the VM log file in qemu. It show me that the vnc port is same with<br>> VM<br>> > ID.<br>> ><br>> > If I specify the vnc port in opennebula template, I can`t make 2 more VMs<br>> > with same template because of vnc port duplication.<br>> ><br>> > thanks :D<br>> ><br>> > _______________________________________________<br>> > Users mailing list<br>> > Users@lists.opennebula.org<br>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> ><br>><br>><br>><br>> --<br>> Javier Font?n Mui?os<br>> Developer<br>> OpenNebula - The Open Source Toolkit for Data Center Virtualization<br>> www.OpenNebula.org | @OpenNebula | github.com/jfontan<br>><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131113/77c99a89/attachment-0001.htm><br><br>------------------------------<br><br>Message: 3<br>Date: Tue, 12 Nov 2013 23:43:45 -0500<br>From: Catalina Quinde <catalinaquinde@gmail.com><br>To: users@lists.opennebula.org<br>Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>Message-ID:<br>  <CAPgz++zva8tb3hBfzJqazCSjC+QF7SqgdOZrJBQrGgbn=z9UJQ@mail.gmail.com><br>Content-Type: text/plain; charset="iso-8859-1"<br><br>Tino,<br><br>In my case Esxi is installed on a flash memory and the computer  hard disk<br>has partitions with several other hypervisors<br><br>I used Vsphere client to create the datastores 102 and 103, with the<br>options Add Datastore, Disk / LUN .... but on the screen where you select<br>the hard disk on which to create the datastores, displayed the original<br>computer hard drive and not flash memory where you really should add the<br>datastore, then, there is an error message for creating datastore.<br><br>Can not change the host configuration<br>Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object<br>"ha-datastoresystem" on ESXi "192 168 147 131" failed....<br><br>Esxi is installed in flash memory.<br><br>Regards, Caty.<br><br><br>2013/11/12 < users-request@lists.opennebula.org><br><br>> Send Users mailing list submissions to<br>>         users@lists.opennebula.org<br>><br>> To subscribe or unsubscribe via the World Wide Web, visit<br>>         http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> or, via email, send a message with subject or body 'help' to<br>>         users-request@lists.opennebula.org<br>><br>> You can reach the person managing the list at<br>>         users-owner@lists.opennebula.org<br>><br>> When replying, please edit your Subject line so it is more specific<br>> than "Re: Contents of Users digest..."<br>><br>><br>> Today's Topics:<br>><br>>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>><br>><br>> ----------------------------------------------------------------------<br>><br>> Message: 1<br>> Date: Tue, 12 Nov 2013 18:36:43 +0100<br>> From: Tino Vazquez <tinova79@gmail.com><br>> To: Catalina Quinde <catalinaquinde@gmail.com><br>> Cc: users <users@lists.opennebula.org><br>> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> Message-ID:<br>>         <<br>> CAHfKwc2LoKDt97kPZAjB4tCX5RqxddmbvBDRZqM6mauT1DNUvA@mail.gmail.com><br>> Content-Type: text/plain; charset=ISO-8859-1<br>><br>> Hi Catalina,<br>><br>> You need to mount both datastores (102 and 103) in the ESX so they can<br>> access them. So, there should be the following routes present in the<br>> ESX<br>><br>>  * /vmfs/volumes/102<br>>  * /vmfs/volumes/103<br>><br>> Regards,<br>><br>> -Tino<br>> --<br>> Constantino V?zquez Blanco, PhD, MSc<br>> Senior Infrastructure Architect at C12G Labs<br>> www.OpenNebula.org | @tinova79  | es.linkedin.com/in/tinova<br>><br>><br>> On Tue, Nov 12, 2013 at 4:52 PM, Catalina Quinde<br>> <catalinaquinde@gmail.com> wrote:<br>> > Tino, as I explained there are no directories created 102 and 103 in the<br>> /<br>> > vmfs / volumes on node Esxi.<br>> ><br>> > Thanks Tino.<br>> ><br>> ><br>> > 2013/11/12 <users-request@lists.opennebula.org><br>> >><br>> >> Send Users mailing list submissions to<br>> >>         users@lists.opennebula.org<br>> >><br>> >> To subscribe or unsubscribe via the World Wide Web, visit<br>> >>         http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> or, via email, send a message with subject or body 'help' to<br>> >>         users-request@lists.opennebula.org<br>> >><br>> >> You can reach the person managing the list at<br>> >>         users-owner@lists.opennebula.org<br>> >><br>> >> When replying, please edit your Subject line so it is more specific<br>> >> than "Re: Contents of Users digest..."<br>> >><br>> >><br>> >> Today's Topics:<br>> >><br>> >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>> >><br>> >><br>> >> ----------------------------------------------------------------------<br>> >><br>> >> Message: 1<br>> >> Date: Tue, 12 Nov 2013 15:16:23 +0100<br>> >> From: Tino Vazquez <cvazquez@c12g.com><br>> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>> >> Cc: users <users@lists.opennebula.org><br>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> >> Message-ID:<br>> >><br>> >> <CAHfKwc1w930-f9oDhbLRG4GEzK9Au9HrC0D12nO8bjKqqF23dg@mail.gmail.com><br>> >> Content-Type: text/plain; charset=ISO-8859-1<br>> >><br>> >> Hi Catalina,<br>> >><br>> >> Could you make sure that datastores 102 and 103 are mounted in the ESX<br>> >> hosts?<br>> >><br>> >> Regards,<br>> >><br>> >> -Tino<br>> >><br>> >> --<br>> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >><br>> >> --<br>> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> Senior Infrastructure Architect at C12G Labs<br>> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >><br>> >> --<br>> >> Confidentiality Warning: The information contained in this e-mail and<br>> >> any accompanying documents, unless otherwise expressly indicated, is<br>> >> confidential and privileged, and is intended solely for the person<br>> >> and/or entity to whom it is addressed (i.e. those identified in the<br>> >> "To" and "cc" box). They are the property of C12G Labs S.L..<br>> >> Unauthorized distribution, review, use, disclosure, or copying of this<br>> >> communication, or any part thereof, is strictly prohibited and may be<br>> >> unlawful. If you have received this e-mail in error, please notify us<br>> >> immediately by e-mail at abuse@c12g.com and delete the e-mail and<br>> >> attachments and any copy from your system. C12G thanks you for your<br>> >> cooperation.<br>> >><br>> >><br>> >> On Tue, Nov 12, 2013 at 10:55 AM, Tino Vazquez <cvazquez@c12g.com><br>> wrote:<br>> >> > Hi Catalina,<br>> >> ><br>> >> > So, the connectivity to the host seems to be OK, but still the monitor<br>> >> > data doesn't look valid. Let's try to figure out why.<br>> >> ><br>> >> > What's the output of the following (as oneadmin, in the front-end)<br>> >> ><br>> >> >  $ ssh 92.168.147.131  "df -m | grep /vmfs/volumes/103"<br>> >> ><br>> >> > Regards,<br>> >> ><br>> >> > -Tino<br>> >> > --<br>> >> > OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> ><br>> >> > --<br>> >> > Constantino V?zquez Blanco, PhD, MSc<br>> >> > Senior Infrastructure Architect at C12G Labs<br>> >> > www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> ><br>> >> > --<br>> >> > Confidentiality Warning: The information contained in this e-mail and<br>> >> > any accompanying documents, unless otherwise expressly indicated, is<br>> >> > confidential and privileged, and is intended solely for the person<br>> >> > and/or entity to whom it is addressed (i.e. those identified in the<br>> >> > "To" and "cc" box). They are the property of C12G Labs S.L..<br>> >> > Unauthorized distribution, review, use, disclosure, or copying of this<br>> >> > communication, or any part thereof, is strictly prohibited and may be<br>> >> > unlawful. If you have received this e-mail in error, please notify us<br>> >> > immediately by e-mail at abuse@c12g.com and delete the e-mail and<br>> >> > attachments and any copy from your system. C12G thanks you for your<br>> >> > cooperation.<br>> >> ><br>> >> ><br>> >> > On Mon, Nov 11, 2013 at 8:20 PM, Catalina Quinde<br>> >> > <catalinaquinde@gmail.com> wrote:<br>> >> >> Hi Tino, this displays<br>> >> >><br>> >> >> oneadmin@ubuntuOpNeb:~$ bash -x<br>> >> >> /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >><br>> >> >><br>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>  W0N<br>> >><br>> >><br>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >> 103<br>> >> >> + '[' -z '' ']'<br>> >> >> + LIB_LOCATION=/usr/lib/one<br>> >> >> + . /usr/lib/one/sh/scripts_common.sh<br>> >> >> ++ export LANG=C<br>> >> >> ++ LANG=C<br>> >> >> ++ export<br>> >> >><br>> >> >><br>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>> >> >> ++<br>> >> >><br>> >> >><br>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>> >> >> ++ AWK=awk<br>> >> >> ++ BASH=bash<br>> >> >> ++ CUT=cut<br>> >> >> ++ DATE=date<br>> >> >> ++ DD=dd<br>> >> >> ++ DU=du<br>> >> >> ++ GREP=grep<br>> >> >> ++ ISCSIADM=iscsiadm<br>> >> >> ++ LVCREATE=lvcreate<br>> >> >> ++ LVREMOVE=lvremove<br>> >> >> ++ LVRENAME=lvrename<br>> >> >> ++ LVS=lvs<br>> >> >> ++ LN=ln<br>> >> >> ++ MD5SUM=md5sum<br>> >> >> ++ MKFS=mkfs<br>> >> >> ++ MKISOFS=genisoimage<br>> >> >> ++ MKSWAP=mkswap<br>> >> >> ++ QEMU_IMG=qemu-img<br>> >> >> ++ RADOS=rados<br>> >> >> ++ RBD=rbd<br>> >> >> ++ READLINK=readlink<br>> >> >> ++ RM=rm<br>> >> >> ++ SCP=scp<br>> >> >> ++ SED=sed<br>> >> >> ++ SSH=ssh<br>> >> >> ++ SUDO=sudo<br>> >> >> ++ SYNC=sync<br>> >> >> ++ TAR=tar<br>> >> >> ++ TGTADM=tgtadm<br>> >> >> ++ TGTADMIN=tgt-admin<br>> >> >> ++ TGTSETUPLUN=tgt-setup-lun-one<br>> >> >> ++ VMKFSTOOLS=vmkfstools<br>> >> >> ++ WGET=wget<br>> >> >> +++ uname -s<br>> >> >> ++ '[' xLinux = xLinux ']'<br>> >> >> ++ SED='sed -r'<br>> >> >> +++ basename /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >> ++ SCRIPT_NAME=monitor<br>> >> >> ++ dirname /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >> + DRIVER_PATH=/var/lib/one/remotes/datastore/vmfs<br>> >> >> + source /var/lib/one/remotes/datastore/vmfs/../libfs.sh<br>> >> >> +<br>> >> >><br>> >> >><br>> DRV_ACTION=PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEP<br>>  jxU<br>> >><br>> >><br>> WVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >> + ID=103<br>> >> >> + XPATH='/var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>> >> >><br>> >> >><br>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>  W0N<br>> >><br>> >><br>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+'<br>> >> >> + unset i XPATH_ELEMENTS<br>> >> >> + IFS=<br>> >> >> + read -r -d '' element<br>> >> >> ++ /var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>> >> >><br>> >> >><br>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>  W0N<br>> >><br>> >><br>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >> /DS_DRIVER_ACTION_DATA/DATASTORE/BASE_PATH<br>> >> >> /DS_DRIVER_ACTION_DATA/DATASTORE/TEMPLATE/BRIDGE_LIST<br>> >> >> + XPATH_ELEMENTS[i++]=/vmfs/volumes/103<br>> >> >> + IFS=<br>> >> >> + read -r -d '' element<br>> >> >> + XPATH_ELEMENTS[i++]=192.168.147.131<br>> >> >> + IFS=<br>> >> >> + read -r -d '' element<br>> >> >> + BASE_PATH=/vmfs/volumes/103<br>> >> >> + BRIDGE_LIST=192.168.147.131<br>> >> >> ++ get_destination_host 103<br>> >> >> ++ HOSTS_ARRAY=($BRIDGE_LIST)<br>> >> >> +++ expr 103 % 1<br>> >> >> ++ ARRAY_INDEX=0<br>> >> >> ++ echo 192.168.147.131<br>> >> >> + HOST=192.168.147.131<br>> >> >> ++ cat<br>> >> >> + MONITOR_SCRIPT='USED_MB=$(du -sLm /vmfs/volumes/103 2>/dev/null |<br>> cut<br>> >> >> -f1)<br>> >> >><br>> >> >> DF_STR=$(df -m | grep /vmfs/volumes/103 | sed '\''s/ \+/:/g'\'')<br>> >> >><br>> >> >> TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >> FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >><br>> >> >> echo "USED_MB=$USED_MB"<br>> >> >> echo "TOTAL_MB=$TOTAL_MB"<br>> >> >> echo "FREE_MB=$FREE_MB"'<br>> >> >> ++ ssh_monitor_and_log 192.168.147.131 'USED_MB=$(du -sLm<br>> >> >> /vmfs/volumes/103<br>> >> >> 2>/dev/null | cut -f1)<br>> >> >><br>> >> >> DF_STR=$(df -m | grep /vmfs/volumes/103 | sed '\''s/ \+/:/g'\'')<br>> >> >><br>> >> >> TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >> FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >><br>> >> >> echo "USED_MB=$USED_MB"<br>> >> >> echo "TOTAL_MB=$TOTAL_MB"<br>> >> >> echo "FREE_MB=$FREE_MB"'<br>> >> >> + MONITOR_DATA='+++ ssh 192.168.147.131 sh -s<br>> >> >> ++ SSH_EXEC_OUT='\''USED_MB=<br>> >> >> TOTAL_MB=<br>> >> >> FREE_MB='\''<br>> >> >> ++ SSH_EXEC_RC=0<br>> >> >> ++ '\''['\'' 0 -ne 0 '\'']'\''<br>> >> >> ++ echo USED_MB= TOTAL_MB= FREE_MB=<br>> >> >> USED_MB= TOTAL_MB= FREE_MB='<br>> >> >> + MONITOR_STATUS=0<br>> >> >> + '[' 0 = 0 ']'<br>> >> >> + tr ' ' '\n'<br>> >> >> + echo '+++ ssh 192.168.147.131 sh -s<br>> >> >> ++ SSH_EXEC_OUT='\''USED_MB=<br>> >> >> TOTAL_MB=<br>> >> >> FREE_MB='\''<br>> >> >> ++ SSH_EXEC_RC=0<br>> >> >> ++ '\''['\'' 0 -ne 0 '\'']'\''<br>> >> >> ++ echo USED_MB= TOTAL_MB= FREE_MB=<br>> >> >> USED_MB= TOTAL_MB= FREE_MB='<br>> >> >> +++<br>> >> >> ssh<br>> >> >> 192.168.147.131<br>> >> >> sh<br>> >> >> -s<br>> >> >> ++<br>> >> >> SSH_EXEC_OUT='USED_MB=<br>> >> >> TOTAL_MB=<br>> >> >> FREE_MB='<br>> >> >> ++<br>> >> >> SSH_EXEC_RC=0<br>> >> >> ++<br>> >> >> '['<br>> >> >> 0<br>> >> >> -ne<br>> >> >> 0<br>> >> >> ']'<br>> >> >> ++<br>> >> >> echo<br>> >> >> USED_MB=<br>> >> >> TOTAL_MB=<br>> >> >> FREE_MB=<br>> >> >> USED_MB=<br>> >> >> TOTAL_MB=<br>> >> >> FREE_MB=<br>> >> >> oneadmin@ubuntuOpNeb:~$<br>> >> >><br>> >> >><br>> >> >><br>> >> >> 2013/11/11 <users-request@lists.opennebula.org><br>> >> >>><br>> >> >>> Send Users mailing list submissions to<br>> >> >>>         users@lists.opennebula.org<br>> >> >>><br>> >> >>> To subscribe or unsubscribe via the World Wide Web, visit<br>> >> >>><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> or, via email, send a message with subject or body 'help' to<br>> >> >>>         users-request@lists.opennebula.org<br>> >> >>><br>> >> >>> You can reach the person managing the list at<br>> >> >>>         users-owner@lists.opennebula.org<br>> >> >>><br>> >> >>> When replying, please edit your Subject line so it is more specific<br>> >> >>> than "Re: Contents of Users digest..."<br>> >> >>><br>> >> >>><br>> >> >>> Today's Topics:<br>> >> >>><br>> >> >>>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>> >> >>><br>> >> >>><br>> >> >>><br>> ----------------------------------------------------------------------<br>> >> >>><br>> >> >>> Message: 1<br>> >> >>> Date: Mon, 11 Nov 2013 18:20:21 +0100<br>> >> >>> From: Tino Vazquez <cvazquez@c12g.com><br>> >> >>> To: Catalina Quinde <catalinaquinde@gmail.com><br>> >> >>> Cc: users <users@lists.opennebula.org><br>> >> >>> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> >> >>> Message-ID:<br>> >> >>><br>> >> >>> <CAHfKwc3Q1_pp_Xg6p9TujOyELvrSZuzzp=E+FzCKovmEEUaS8A@mail.gmail.com<br>> ><br>> >> >>> Content-Type: text/plain; charset=ISO-8859-1<br>> >> >>><br>> >> >>> Hi Catalina,<br>> >> >>><br>> >> >>> You need to execute it as a single line. you can copy it from this<br>> >> >>> gist:<br>> >> >>><br>> >> >>> https://gist.github.com/jfontan/aea29c477d597f3c97f8<br>> >> >>><br>> >> >>> Regards,<br>> >> >>><br>> >> >>> -Tino<br>> >> >>><br>> >> >>> --<br>> >> >>> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>><br>> >> >>> --<br>> >> >>> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> Senior Infrastructure Architect at C12G Labs<br>> >> >>> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>><br>> >> >>> --<br>> >> >>> Confidentiality Warning: The information contained in this e-mail<br>> and<br>> >> >>> any accompanying documents, unless otherwise expressly indicated, is<br>> >> >>> confidential and privileged, and is intended solely for the person<br>> >> >>> and/or entity to whom it is addressed (i.e. those identified in the<br>> >> >>> "To" and "cc" box). They are the property of C12G Labs S.L..<br>> >> >>> Unauthorized distribution, review, use, disclosure, or copying of<br>> this<br>> >> >>> communication, or any part thereof, is strictly prohibited and may<br>> be<br>> >> >>> unlawful. If you have received this e-mail in error, please notify<br>> us<br>> >> >>> immediately by e-mail at abuse@c12g.com and delete the e-mail and<br>> >> >>> attachments and any copy from your system. C12G thanks you for your<br>> >> >>> cooperation.<br>> >> >>><br>> >> >>><br>> >> >>> On Mon, Nov 11, 2013 at 6:14 PM, Catalina Quinde<br>> >> >>> <catalinaquinde@gmail.com> wrote:<br>> >> >>> > Ready this command displays<br>> >> >>> ><br>> >> >>> > oneadmin@ubuntuOpNeb:~$ bash -x<br>> >> >>> > /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >>> > + '[' -z '' ']'<br>> >> >>> > + LIB_LOCATION=/usr/lib/one<br>> >> >>> > + . /usr/lib/one/sh/scripts_common.sh<br>> >> >>> > ++ export LANG=C<br>> >> >>> > ++ LANG=C<br>> >> >>> > ++ export<br>> >> >>> ><br>> >> >>> ><br>> >> >>> ><br>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>> >> >>> > ++<br>> >> >>> ><br>> >> >>> ><br>> >> >>> ><br>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>> >> >>> > ++ AWK=awk<br>> >> >>> > ++ BASH=bash<br>> >> >>> > ++ CUT=cut<br>> >> >>> > ++ DATE=date<br>> >> >>> > ++ DD=dd<br>> >> >>> > ++ DU=du<br>> >> >>> > ++ GREP=grep<br>> >> >>> > ++ ISCSIADM=iscsiadm<br>> >> >>> > ++ LVCREATE=lvcreate<br>> >> >>> > ++ LVREMOVE=lvremove<br>> >> >>> > ++ LVRENAME=lvrename<br>> >> >>> > ++ LVS=lvs<br>> >> >>> > ++ LN=ln<br>> >> >>> > ++ MD5SUM=md5sum<br>> >> >>> > ++ MKFS=mkfs<br>> >> >>> > ++ MKISOFS=genisoimage<br>> >> >>> > ++ MKSWAP=mkswap<br>> >> >>> > ++ QEMU_IMG=qemu-img<br>> >> >>> > ++ RADOS=rados<br>> >> >>> > ++ RBD=rbd<br>> >> >>> > ++ READLINK=readlink<br>> >> >>> > ++ RM=rm<br>> >> >>> > ++ SCP=scp<br>> >> >>> > ++ SED=sed<br>> >> >>> > ++ SSH=ssh<br>> >> >>> > ++ SUDO=sudo<br>> >> >>> > ++ SYNC=sync<br>> >> >>> > ++ TAR=tar<br>> >> >>> > ++ TGTADM=tgtadm<br>> >> >>> > ++ TGTADMIN=tgt-admin<br>> >> >>> > ++ TGTSETUPLUN=tgt-setup-lun-one<br>> >> >>> > ++ VMKFSTOOLS=vmkfstools<br>> >> >>> > ++ WGET=wget<br>> >> >>> > +++ uname -s<br>> >> >>> > ++ '[' xLinux = xLinux ']'<br>> >> >>> > ++ SED='sed -r'<br>> >> >>> > +++ basename /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >>> > ++ SCRIPT_NAME=monitor<br>> >> >>> > ++ dirname /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >>> > + DRIVER_PATH=/var/lib/one/remotes/datastore/vmfs<br>> >> >>> > + source /var/lib/one/remotes/datastore/vmfs/../libfs.sh<br>> >> >>> > + DRV_ACTION=<br>> >> >>> > + ID=<br>> >> >>> > + XPATH='/var/lib/one/remotes/datastore/vmfs/../xpath.rb -b '<br>> >> >>> > + unset i XPATH_ELEMENTS<br>> >> >>> > + IFS=<br>> >> >>> > + read -r -d '' element<br>> >> >>> > ++ /var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>> >> >>> > /DS_DRIVER_ACTION_DATA/DATASTORE/BASE_PATH<br>> >> >>> > /DS_DRIVER_ACTION_DATA/DATASTORE/TEMPLATE/BRIDGE_LIST<br>> >> >>> > /var/lib/one/remotes/datastore/vmfs/../xpath.rb:61: undefined<br>> method<br>> >> >>> > `elements' for nil:NilClass (NoMethodError)<br>> >> >>> >     from /var/lib/one/remotes/datastore/vmfs/../xpath.rb:60:in<br>> >> >>> > `each'<br>> >> >>> >     from /var/lib/one/remotes/datastore/vmfs/../xpath.rb:60<br>> >> >>> > + BASE_PATH=<br>> >> >>> > + BRIDGE_LIST=<br>> >> >>> > ++ get_destination_host<br>> >> >>> > ++ HOSTS_ARRAY=($BRIDGE_LIST)<br>> >> >>> > +++ expr % 0<br>> >> >>> > expr: syntax error<br>> >> >>> > ++ ARRAY_INDEX=<br>> >> >>> > ++ echo<br>> >> >>> > + HOST=<br>> >> >>> > ++ cat<br>> >> >>> > + MONITOR_SCRIPT='USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'<br>> >> >>> > ++ ssh_monitor_and_log 'USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'<br>> >> >>> > + MONITOR_DATA='+++ ssh '\''USED_MB=$(du'\'' -sLm<br>> >> >>> > '\''2>/dev/null'\''<br>> >> >>> > '\''|'\'' cut '\''-f1)'\'' '\''DF_STR=$(df'\'' -m '\''|'\'' grep<br>> >> >>> > '\''|'\''<br>> >> >>> > sed '\'''\''\'\'''\''s/'\'' '\''\+/:/g'\''\'\'''\'')'\''<br>> >> >>> > '\''TOTAL_MB=$(echo'\'' '\''$DF_STR'\'' '\''|'\'' cut<br>> >> >>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\'' -f '\''2)'\''<br>> >> >>> > '\''FREE_MB=$(echo'\''<br>> >> >>> > '\''$DF_STR'\'' '\''|'\'' cut<br>> '\''-d'\''\'\'''\'':'\''\'\'''\'''\''<br>> >> >>> > -f<br>> >> >>> > '\''4)'\'' echo '\''"USED_MB=$USED_MB"'\'' echo<br>> >> >>> > '\''"TOTAL_MB=$TOTAL_MB"'\''<br>> >> >>> > echo '\''"FREE_MB=$FREE_MB"'\'' sh -s<br>> >> >>> > ++ SSH_EXEC_OUT=<br>> >> >>> > ++ SSH_EXEC_RC=255<br>> >> >>> > ++ '\''['\'' 255 -ne 0 '\'']'\''<br>> >> >>> > ++ log_error '\''Command "" failed: '\''<br>> >> >>> > ++ log_function ERROR '\''Command "" failed: '\''<br>> >> >>> > ++ echo '\''ERROR: monitor: Command "" failed: '\''<br>> >> >>> > ERROR: monitor: Command "" failed:<br>> >> >>> > ++ error_message '\''Cannot monitor USED_MB=$(du -sLm<br>>  2>/dev/null |<br>> >> >>> > cut<br>> >> >>> > -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/ \+/:/g'\''\'\'''\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>> >> >>> > ++ echo '\''ERROR MESSAGE --8<------'\''<br>> >> >>> > ERROR MESSAGE --8<------<br>> >> >>> > ++ echo '\''Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut<br>> -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/ \+/:/g'\''\'\'''\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>> >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"<br>> >> >>> > ++ echo '\''ERROR MESSAGE ------>8--'\''<br>> >> >>> > ERROR MESSAGE ------>8--<br>> >> >>> > ++ exit 255'<br>> >> >>> > + MONITOR_STATUS=255<br>> >> >>> > + '[' 255 = 0 ']'<br>> >> >>> > + echo '+++ ssh '\''USED_MB=$(du'\'' -sLm '\''2>/dev/null'\''<br>> >> >>> > '\''|'\''<br>> >> >>> > cut<br>> >> >>> > '\''-f1)'\'' '\''DF_STR=$(df'\'' -m '\''|'\'' grep '\''|'\'' sed<br>> >> >>> > '\'''\''\'\'''\''s/'\'' '\''\+/:/g'\''\'\'''\'')'\''<br>> >> >>> > '\''TOTAL_MB=$(echo'\''<br>> >> >>> > '\''$DF_STR'\'' '\''|'\'' cut<br>> '\''-d'\''\'\'''\'':'\''\'\'''\'''\''<br>> >> >>> > -f<br>> >> >>> > '\''2)'\'' '\''FREE_MB=$(echo'\'' '\''$DF_STR'\'' '\''|'\'' cut<br>> >> >>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\'' -f '\''4)'\'' echo<br>> >> >>> > '\''"USED_MB=$USED_MB"'\'' echo '\''"TOTAL_MB=$TOTAL_MB"'\'' echo<br>> >> >>> > '\''"FREE_MB=$FREE_MB"'\'' sh -s<br>> >> >>> > ++ SSH_EXEC_OUT=<br>> >> >>> > ++ SSH_EXEC_RC=255<br>> >> >>> > ++ '\''['\'' 255 -ne 0 '\'']'\''<br>> >> >>> > ++ log_error '\''Command "" failed: '\''<br>> >> >>> > ++ log_function ERROR '\''Command "" failed: '\''<br>> >> >>> > ++ echo '\''ERROR: monitor: Command "" failed: '\''<br>> >> >>> > ERROR: monitor: Command "" failed:<br>> >> >>> > ++ error_message '\''Cannot monitor USED_MB=$(du -sLm<br>>  2>/dev/null |<br>> >> >>> > cut<br>> >> >>> > -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/ \+/:/g'\''\'\'''\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>> >> >>> > ++ echo '\''ERROR MESSAGE --8<------'\''<br>> >> >>> > ERROR MESSAGE --8<------<br>> >> >>> > ++ echo '\''Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut<br>> -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/ \+/:/g'\''\'\'''\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>> >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"<br>> >> >>> > ++ echo '\''ERROR MESSAGE ------>8--'\''<br>> >> >>> > ERROR MESSAGE ------>8--<br>> >> >>> > ++ exit 255'<br>> >> >>> > +++ ssh 'USED_MB=$(du' -sLm '2>/dev/null' '|' cut '-f1)'<br>> >> >>> > 'DF_STR=$(df'<br>> >> >>> > -m<br>> >> >>> > '|' grep '|' sed ''\''s/' '\+/:/g'\'')' 'TOTAL_MB=$(echo'<br>> '$DF_STR'<br>> >> >>> > '|'<br>> >> >>> > cut<br>> >> >>> > '-d'\'':'\''' -f '2)' 'FREE_MB=$(echo' '$DF_STR' '|' cut<br>> >> >>> > '-d'\'':'\'''<br>> >> >>> > -f<br>> >> >>> > '4)' echo '"USED_MB=$USED_MB"' echo '"TOTAL_MB=$TOTAL_MB"' echo<br>> >> >>> > '"FREE_MB=$FREE_MB"' sh -s<br>> >> >>> > ++ SSH_EXEC_OUT=<br>> >> >>> > ++ SSH_EXEC_RC=255<br>> >> >>> > ++ '[' 255 -ne 0 ']'<br>> >> >>> > ++ log_error 'Command "" failed: '<br>> >> >>> > ++ log_function ERROR 'Command "" failed: '<br>> >> >>> > ++ echo 'ERROR: monitor: Command "" failed: '<br>> >> >>> > ERROR: monitor: Command "" failed:<br>> >> >>> > ++ error_message 'Cannot monitor USED_MB=$(du -sLm  2>/dev/null |<br>> >> >>> > cut<br>> >> >>> > -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'<br>> >> >>> > ++ echo 'ERROR MESSAGE --8<------'<br>> >> >>> > ERROR MESSAGE --8<------<br>> >> >>> > ++ echo 'Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"'<br>> >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>> >> >>> ><br>> >> >>> > DF_STR=$(df -m | grep  | sed 's/ \+/:/g')<br>> >> >>> ><br>> >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d':' -f 2)<br>> >> >>> > FREE_MB=$(echo $DF_STR | cut -d':' -f 4)<br>> >> >>> ><br>> >> >>> > echo "USED_MB=$USED_MB"<br>> >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>> >> >>> > echo "FREE_MB=$FREE_MB"<br>> >> >>> > ++ echo 'ERROR MESSAGE ------>8--'<br>> >> >>> > ERROR MESSAGE ------>8--<br>> >> >>> > ++ exit 255<br>> >> >>> > + exit 255<br>> >> >>> ><br>> >> >>> ><br>> >> >>> ><br>> >> >>> > 2013/11/11 <users-request@lists.opennebula.org><br>> >> >>> >><br>> >> >>> >> Send Users mailing list submissions to<br>> >> >>> >>         users@lists.opennebula.org<br>> >> >>> >><br>> >> >>> >> To subscribe or unsubscribe via the World Wide Web, visit<br>> >> >>> >><br>> >> >>> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> or, via email, send a message with subject or body 'help' to<br>> >> >>> >>         users-request@lists.opennebula.org<br>> >> >>> >><br>> >> >>> >> You can reach the person managing the list at<br>> >> >>> >>         users-owner@lists.opennebula.org<br>> >> >>> >><br>> >> >>> >> When replying, please edit your Subject line so it is more<br>> specific<br>> >> >>> >> than "Re: Contents of Users digest..."<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> Today's Topics:<br>> >> >>> >><br>> >> >>> >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Hans-Joachim<br>> >> >>> >> Ehlers)<br>> >> >>> >><br>> >> >>> >>    2. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> ----------------------------------------------------------------------<br>> >> >>> >><br>> >> >>> >> Message: 1<br>> >> >>> >> Date: Mon, 11 Nov 2013 17:55:24 +0100<br>> >> >>> >> From: Hans-Joachim Ehlers <HansJoachim.Ehlers@eumetsat.int><br>> >> >>> >> To: 'Catalina Quinde' <catalinaquinde@gmail.com>,<br>> >> >>> >>         "Users@lists.opennebula.org"<br>> >> >>> >> <Users@lists.opennebula.org><br>> >> >>> >><br>> >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> >> >>> >> Message-ID:<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> <<br>> A3ADF8C56ADA0F45BC34F904A6514E280151E8A95E66@EXW10.eum.root.eumetsat.int><br>> >> >>> >><br>> >> >>> >> Content-Type: text/plain; charset="windows-1252"<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> Use the following ONELINER ....<br>> >> >>> >><br>> >> >>> >> $ bash -x  /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >>> >><br>> >> >>> >> From: users-bounces@lists.opennebula.org<br>> >> >>> >> [mailto:users-bounces@lists.opennebula.org] On Behalf Of<br>> Catalina<br>> >> >>> >> Quinde<br>> >> >>> >> Sent: Monday, November 11, 2013 5:50 PM<br>> >> >>> >> To: Users@lists.opennebula.org<br>> >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> >> >>> >><br>> >> >>> >> Hi Tino,<br>> >> >>> >> The comand bash -x /var/lib/one/remotes can't execution because<br>> >> >>> >> this is<br>> >> >>> >> directory:<br>> >> >>> >><br>> >> >>> >> oneadmin@ubuntuOpNeb:~$ bash -x /var/lib/one/remotes/<br>> >> >>> >> /var/lib/one/remotes/: /var/lib/one/remotes/: es un directorio<br>> >> >>> >> This directory contains:<br>> >> >>> >> oneadmin@ubuntuOpNeb:~$ ls /var/lib/one/remotes/<br>> >> >>> >> auth  datastore  hooks  im  scripts_common.rb  scripts_common.sh<br>> >> >>> >> tm<br>> >> >>> >> vmm<br>> >> >>> >> vnm<br>> >> >>> >> -------------- next part --------------<br>> >> >>> >> An HTML attachment was scrubbed...<br>> >> >>> >> URL:<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> <<br>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131111/5c1feeee/attachment-0001.htm<br>> ><br>> >> >>> >><br>> >> >>> >> ------------------------------<br>> >> >>> >><br>> >> >>> >> Message: 2<br>> >> >>> >> Date: Mon, 11 Nov 2013 17:58:35 +0100<br>> >> >>> >><br>> >> >>> >> From: Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>> >> >>> >> Cc: users <Users@lists.opennebula.org><br>> >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>> >> >>> >> Message-ID:<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> <<br>> CAHfKwc21-kkPabWgtNwQs07EbbAiC9b8zzFJwMsRt3EXb0umSg@mail.gmail.com><br>> >> >>> >> Content-Type: text/plain; charset=ISO-8859-1<br>> >> >>> >><br>> >> >>> >> Hi,<br>> >> >>> >><br>> >> >>> >> The following should executed in the same line:<br>> >> >>> >><br>> >> >>> >> ----8<-----<br>> >> >>> >> $ bash -x  /var/lib/one/remotes/datastore/vmfs/monitor<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBF<br>>  Pjw<br>> >>  hW0N<br>> >> >>>  EQV<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> >> >>> >><br>> RBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >>> >> 103<br>> >> >>> >> --->8-----<br>> >> >>> >><br>> >> >>> >> Regards,<br>> >> >>> >><br>> >> >>> >> -T<br>> >> >>> >> --<br>> >> >>> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >><br>> >> >>> >> --<br>> >> >>> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >><br>> >> >>> >> --<br>> >> >>> >> Confidentiality Warning: The information contained in this e-mail<br>> >> >>> >> and<br>> >> >>> >> any accompanying documents, unless otherwise expressly indicated,<br>> >> >>> >> is<br>> >> >>> >> confidential and privileged, and is intended solely for the<br>> person<br>> >> >>> >> and/or entity to whom it is addressed (i.e. those identified in<br>> the<br>> >> >>> >> "To" and "cc" box). They are the property of C12G Labs S.L..<br>> >> >>> >> Unauthorized distribution, review, use, disclosure, or copying of<br>> >> >>> >> this<br>> >> >>> >> communication, or any part thereof, is strictly prohibited and<br>> may<br>> >> >>> >> be<br>> >> >>> >> unlawful. If you have received this e-mail in error, please<br>> notify<br>> >> >>> >> us<br>> >> >>> >> immediately by e-mail at abuse@c12g.com and delete the e-mail<br>> and<br>> >> >>> >> attachments and any copy from your system. C12G thanks you for<br>> your<br>> >> >>> >> cooperation.<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> On Mon, Nov 11, 2013 at 5:50 PM, Catalina Quinde<br>> >> >>> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> > Hi Tino,<br>> >> >>> >> ><br>> >> >>> >> > The comand bash -x /var/lib/one/remotes can't execution because<br>> >> >>> >> > this<br>> >> >>> >> > is<br>> >> >>> >> > directory:<br>> >> >>> >> ><br>> >> >>> >> > oneadmin@ubuntuOpNeb:~$ bash -x /var/lib/one/remotes/<br>> >> >>> >> > /var/lib/one/remotes/: /var/lib/one/remotes/: es un directorio<br>> >> >>> >> ><br>> >> >>> >> > This directory contains:<br>> >> >>> >> ><br>> >> >>> >> > oneadmin@ubuntuOpNeb:~$ ls /var/lib/one/remotes/<br>> >> >>> >> > auth  datastore  hooks  im  scripts_common.rb<br>>  scripts_common.sh<br>> >> >>> >> > tm<br>> >> >>> >> > vmm<br>> >> >>> >> > vnm<br>> >> >>> >> ><br>> >> >>> >> > Regards, Caty.<br>> >> >>> >> ><br>> >> >>> >> > 2013/11/11 Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >><br>> >> >>> >> >> Hi,<br>> >> >>> >> >><br>> >> >>> >> >> The setup looks correct, both DS 102 and 103 have the correct<br>> >> >>> >> >> BASE_PATH. About the monitoring error, could you send the<br>> output<br>> >> >>> >> >> of<br>> >> >>> >> >> the execution of the following as oneadmin in the front-end:<br>> >> >>> >> >><br>> >> >>> >> >>  $ bash -x  /var/lib/one/remotes/<br>> >> >>> >> >> datastore/vmfs/monitor<br>> >> >>> >> >> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> 0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZ<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> WFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xP<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> C9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xP<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> C9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wP<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> C9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> 05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZ<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> nMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UW<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> VBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48V<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> E9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CP<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> jxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0N<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> y4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQ<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >><br>> UQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFP<br>> >> >>> >> >><br>> jwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >>> >> >> 103<br>> >> >>> >> >><br>> >> >>> >> >> Regards,<br>> >> >>> >> >><br>> >> >>> >> >> -Tino<br>> >> >>> >> >> --<br>> >> >>> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >> >><br>> >> >>> >> >> --<br>> >> >>> >> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >> >><br>> >> >>> >> >> --<br>> >> >>> >> >> Confidentiality Warning: The information contained in this<br>> >> >>> >> >> e-mail<br>> >> >>> >> >> and<br>> >> >>> >> >> any accompanying documents, unless otherwise expressly<br>> >> >>> >> >> indicated, is<br>> >> >>> >> >> confidential and privileged, and is intended solely for the<br>> >> >>> >> >> person<br>> >> >>> >> >> and/or entity to whom it is addressed (i.e. those identified<br>> in<br>> >> >>> >> >> the<br>> >> >>> >> >> "To" and "cc" box). They are the property of C12G Labs S.L..<br>> >> >>> >> >> Unauthorized distribution, review, use, disclosure, or copying<br>> >> >>> >> >> of<br>> >> >>> >> >> this<br>> >> >>> >> >> communication, or any part thereof, is strictly prohibited and<br>> >> >>> >> >> may<br>> >> >>> >> >> be<br>> >> >>> >> >> unlawful. If you have received this e-mail in error, please<br>> >> >>> >> >> notify<br>> >> >>> >> >> us<br>> >> >>> >> >> immediately by e-mail at abuse@c12g.com and delete the e-mail<br>> >> >>> >> >> and<br>> >> >>> >> >> attachments and any copy from your system. C12G thanks you for<br>> >> >>> >> >> your<br>> >> >>> >> >> cooperation.<br>> >> >>> >> >><br>> >> >>> >> >><br>> >> >>> >> >> On Mon, Nov 11, 2013 at 4:25 PM, Catalina Quinde<br>> >> >>> >> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> >> > Hi friends,<br>> >> >>> >> >> ><br>> >> >>> >> >> > The result for command "onedatastore show' are:<br>> >> >>> >> >> ><br>> >> >>> >> >> > 1. For datastore system<br>> >> >>> >> >> ><br>> >> >>> >> >> > oneadmin@ubuntuOpNeb:~$ onedatastore show 102<br>> >> >>> >> >> > DATASTORE 102 INFORMATION<br>> >> >>> >> >> > ID             : 102<br>> >> >>> >> >> > NAME           : ssh_dsEsxi<br>> >> >>> >> >> > USER           : oneadmin<br>> >> >>> >> >> > GROUP          : oneadmin<br>> >> >>> >> >> > CLUSTER        : Esxiclus<br>> >> >>> >> >> > TYPE           : SYSTEM<br>> >> >>> >> >> > DS_MAD         : -<br>> >> >>> >> >> > TM_MAD         : vmfs<br>> >> >>> >> >> > BASE PATH      : /vmfs/volumes/102<br>> >> >>> >> >> > DISK_TYPE      : FILE<br>> >> >>> >> >> ><br>> >> >>> >> >> > DATASTORE CAPACITY<br>> >> >>> >> >> > TOTAL:         : -<br>> >> >>> >> >> > USED:          : -<br>> >> >>> >> >> > FREE:          : -<br>> >> >>> >> >> ><br>> >> >>> >> >> > PERMISSIONS<br>> >> >>> >> >> > OWNER          : um-<br>> >> >>> >> >> > GROUP          : u--<br>> >> >>> >> >> > OTHER          : ---<br>> >> >>> >> >> ><br>> >> >>> >> >> > DATASTORE TEMPLATE<br>> >> >>> >> >> > BRIDGE_LIST="192.168.147.131"<br>> >> >>> >> >> > TM_MAD="vmfs"<br>> >> >>> >> >> > TYPE="SYSTEM_DS"<br>> >> >>> >> >> ><br>> >> >>> >> >> > IMAGES<br>> >> >>> >> >> ><br>> >> >>> >> >> > 2. For datastore image<br>> >> >>> >> >> ><br>> >> >>> >> >> > oneadmin@ubuntuOpNeb:~$ onedatastore show 103<br>> >> >>> >> >> > DATASTORE 103 INFORMATION<br>> >> >>> >> >> > ID             : 103<br>> >> >>> >> >> > NAME           : ssh_diEsxi<br>> >> >>> >> >> > USER           : oneadmin<br>> >> >>> >> >> > GROUP          : oneadmin<br>> >> >>> >> >> > CLUSTER        : Esxiclus<br>> >> >>> >> >> > TYPE           : IMAGE<br>> >> >>> >> >> > DS_MAD         : vmfs<br>> >> >>> >> >> > TM_MAD         : vmfs<br>> >> >>> >> >> > BASE PATH      : /vmfs/volumes/103<br>> >> >>> >> >> > DISK_TYPE      : FILE<br>> >> >>> >> >> ><br>> >> >>> >> >> > DATASTORE CAPACITY<br>> >> >>> >> >> > TOTAL:         : 0M<br>> >> >>> >> >> > USED:          : 0M<br>> >> >>> >> >> > FREE:          : 0M<br>> >> >>> >> >> ><br>> >> >>> >> >> > PERMISSIONS<br>> >> >>> >> >> > OWNER          : um-<br>> >> >>> >> >> > GROUP          : u--<br>> >> >>> >> >> > OTHER          : ---<br>> >> >>> >> >> ><br>> >> >>> >> >> > DATASTORE TEMPLATE<br>> >> >>> >> >> > BRIDGE_LIST="192.168.147.131"<br>> >> >>> >> >> > DS_MAD="vmfs"<br>> >> >>> >> >> > TM_MAD="vmfs"<br>> >> >>> >> >> > TYPE="IMAGE_DS"<br>> >> >>> >> >> ><br>> >> >>> >> >> > IMAGES<br>> >> >>> >> >> ><br>> >> >>> >> >> > 3. In oned.log file show:<br>> >> >>> >> >> ><br>> >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][I]: Command execution fail:<br>> >> >>> >> >> > /var/lib/one/remotes/<br>> >> >>> >> >> > datastore/vmfs/monitor<br>> >> >>> >> >> > PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> 0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZ<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> WFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xP<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> C9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xP<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> C9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wP<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> C9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> 05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZ<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> nMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UW<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> VBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48V<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> E9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CP<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> jxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0N<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> y4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQ<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> UQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFP<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> jwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>> >> >>> >> >> > 103<br>> >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][I]: ExitCode: 255<br>> >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][E]: Error monitoring<br>> datastore<br>> >> >>> >> >> > 103:<br>> >> >>> >> >> > -<br>> >> >>> >> >> ><br>> >> >>> >> >> > 4. Sending oned.log file attachment, inside this check nodes<br>> >> >>> >> >> > monitoring<br>> >> >>> >> >> > errors is because I have only Esxi node running at this tame<br>> >> >>> >> >> > others<br>> >> >>> >> >> > nodes<br>> >> >>> >> >> > are turned off.<br>> >> >>> >> >> ><br>> >> >>> >> >> > Regards, Caty.<br>> >> >>> >> >> ><br>> >> >>> >> >> > 2013/11/11 <users-request@lists.opennebula.org><br>> >> >>> >> >> >><br>> >> >>> >> >> >> Send Users mailing list submissions to<br>> >> >>> >> >> >>         users@lists.opennebula.org<br>> >> >>> >> >> >><br>> >> >>> >> >> >> To subscribe or unsubscribe via the World Wide Web, visit<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> or, via email, send a message with subject or body 'help'<br>> to<br>> >> >>> >> >> >>         users-request@lists.opennebula.org<br>> >> >>> >> >> >><br>> >> >>> >> >> >> You can reach the person managing the list at<br>> >> >>> >> >> >>         users-owner@lists.opennebula.org<br>> >> >>> >> >> >><br>> >> >>> >> >> >> When replying, please edit your Subject line so it is more<br>> >> >>> >> >> >> specific<br>> >> >>> >> >> >> than "Re: Contents of Users digest..."<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> Today's Topics:<br>> >> >>> >> >> >><br>> >> >>> >> >> >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino<br>> Vazquez)<br>> >> >>> >> >> >>    2. Re: VM in Opennebula for Esxi 5.1 failed (Tino<br>> Vazquez)<br>> >> >>> >> >> >>    3. Re: Problem with oZones. Error 401 while trying to<br>> >> >>> >> >> >> access a<br>> >> >>> >> >> >>       zone (Tino Vazquez)<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> ----------------------------------------------------------------------<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Message: 1<br>> >> >>> >> >> >> Date: Mon, 11 Nov 2013 11:23:35 +0100<br>> >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>> >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>> >> >>> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1<br>> failed<br>> >> >>> >> >> >> Message-ID:<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> <<br>> CAHfKwc0uhtMvDkkd0bDvVoDMAeXhC8x+7MMd0apE9Ow+47t4Zg@mail.gmail.com><br>> >> >>> >> >> >> Content-Type: text/plain; charset=windows-1252<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Hi Catalina,<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Let's focus first on the 'vmfs' datastore not being<br>> correctly<br>> >> >>> >> >> >> monitored. Could you send us the output of "onedatastore<br>> show<br>> >> >>> >> >> >> <ds_id>"<br>> >> >>> >> >> >> for both the system and the images datastore.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Also, is there any monitor errors in /var/log/one/oned.log?<br>> >> >>> >> >> >> If<br>> >> >>> >> >> >> cannot<br>> >> >>> >> >> >> find the relevant section in the log file, please send it<br>> >> >>> >> >> >> through<br>> >> >>> >> >> >> for<br>> >> >>> >> >> >> analysis.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Best regards,<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> -Tino<br>> >> >>> >> >> >><br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >> >> >><br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >> >> >><br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> Confidentiality Warning: The information contained in this<br>> >> >>> >> >> >> e-mail<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> any accompanying documents, unless otherwise expressly<br>> >> >>> >> >> >> indicated,<br>> >> >>> >> >> >> is<br>> >> >>> >> >> >> confidential and privileged, and is intended solely for the<br>> >> >>> >> >> >> person<br>> >> >>> >> >> >> and/or entity to whom it is addressed (i.e. those<br>> identified<br>> >> >>> >> >> >> in<br>> >> >>> >> >> >> the<br>> >> >>> >> >> >> "To" and "cc" box). They are the property of C12G Labs<br>> S.L..<br>> >> >>> >> >> >> Unauthorized distribution, review, use, disclosure, or<br>> >> >>> >> >> >> copying of<br>> >> >>> >> >> >> this<br>> >> >>> >> >> >> communication, or any part thereof, is strictly prohibited<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> may<br>> >> >>> >> >> >> be<br>> >> >>> >> >> >> unlawful. If you have received this e-mail in error, please<br>> >> >>> >> >> >> notify<br>> >> >>> >> >> >> us<br>> >> >>> >> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>> e-mail<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> attachments and any copy from your system. C12G thanks you<br>> >> >>> >> >> >> for<br>> >> >>> >> >> >> your<br>> >> >>> >> >> >> cooperation.<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> On Mon, Nov 11, 2013 at 2:17 AM, Catalina Quinde<br>> >> >>> >> >> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Hi Daniel,<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thanks for reply,<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 1.       1. I'm using Opennebula 4.2 and node Esxi<br>> version<br>> >> >>> >> >> >> > 5.1.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 2.    I 2. I have used the following links:<br>> >> >>> >> >> >> > http://opennebula.org/documentation:rel4.2:cluster_guide<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > http://opennebula.org/documentation:rel4.2:vmware_ds<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> http://opennebula.org/documentation:rel4.2:system_ds#the_system_datastore_for_multi-cluster_setups<br>> >> >>> >> >> >> > and responses in mail lists.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 33.  I  3. I have enabled ssh between Opennebula and Esxi<br>> >> >>> >> >> >> > to<br>> >> >>> >> >> >> > use<br>> >> >>> >> >> >> > no<br>> >> >>> >> >> >> > password<br>> >> >>> >> >> >> > correctly.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 4.       4. According to documentation should I put the<br>> >> >>> >> >> >> > Esxi<br>> >> >>> >> >> >> > node<br>> >> >>> >> >> >> > inside<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > cluster, as Opennebula is working with several<br>> hypervisors,<br>> >> >>> >> >> >> > has<br>> >> >>> >> >> >> > been<br>> >> >>> >> >> >> > used<br>> >> >>> >> >> >> > the command to create the cluster: ?onecluster create<br>> >> >>> >> >> >> > [namecluster]?.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 5.       5. I added the node Esxi to this cluster with<br>> the<br>> >> >>> >> >> >> > command:<br>> >> >>> >> >> >> > ?onecluster addhost [namecluster] [namenodo]?.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 6.       6. I added to the cluster, virtual network<br>> created<br>> >> >>> >> >> >> > for<br>> >> >>> >> >> >> > Esxi,<br>> >> >>> >> >> >> > which<br>> >> >>> >> >> >> > is also created on the Esxi node through Vsphere Client,<br>> >> >>> >> >> >> > with<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > command:?onecluster addvnet [namecluster]<br>> [namevirtualred]?<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 7.       7. I updated the cluster using the command:<br>> >> >>> >> >> >> > ?onecluster<br>> >> >>> >> >> >> > update<br>> >> >>> >> >> >> > [namecluster]?, to add: DATASTORE_LOCATION, which will<br>> >> >>> >> >> >> > affect<br>> >> >>> >> >> >> > only<br>> >> >>> >> >> >> > that<br>> >> >>> >> >> >> > node, by placing the following:<br>> >> >>> >> >> >> > DATASTORE_LOCATION=/vmfs/volumes<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 8.       8. I have created two files that serve as image<br>> to<br>> >> >>> >> >> >> > create<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > datastores:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > a.       The image file for the datastore system<br>> contains:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > NAME=dsEsxi<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > TM_MAD=vmfs<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > TYPE=SYSTEM_DS<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > BRIDGE_LIST="192.168.147.131"<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > b.      This datastore is linked to the cluster at the<br>> same<br>> >> >>> >> >> >> > time<br>> >> >>> >> >> >> > created<br>> >> >>> >> >> >> > with the command: ?onedatastore create -c [namecluster]<br>> >> >>> >> >> >> > /var/lib/images/system_esxi.ds?.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > c.       The image file for the datastore image contains:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > NAME=diEsxi<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > DS_MAD=vmfs<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > TM_MAD=vmfs<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > TYPE=IMAGE_DS<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > BRIDGE_LIST="192.168.147.131"<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > d.      This datastore is linked to the cluster at the<br>> same<br>> >> >>> >> >> >> > time<br>> >> >>> >> >> >> > created<br>> >> >>> >> >> >> > with the commando:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > ?onedatastore create ?c [namecluster]<br>> >> >>> >> >> >> > /var/lib/images/image_esxi.ds?<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 9.       9. When I list the datastores, you can see that<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > image<br>> >> >>> >> >> >> > datastore<br>> >> >>> >> >> >> > new created has 0M capacity.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > I've done all this procedure since according to the<br>> >> >>> >> >> >> > documentation<br>> >> >>> >> >> >> > followed<br>> >> >>> >> >> >> > at Opennebula 4.2, it changes how to use Esxi node.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Before all of the above to deploy a VM this error<br>> occurred:<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > oneadmin@ubuntuOpNeb:~$ cat /var/log/one/36.log<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:02 2013 [DiM][I]: New VM state is<br>> ACTIVE.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:02 2013 [LCM][I]: New VM state is<br>> PROLOG.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: Command execution fail:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > /var/lib/one/remotes/tm/shared/clone<br>> >> >>> >> >> >> > ubuntuOpNeb:/var/lib/one/datastores/1/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 36 1<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: clone: Cloning<br>> >> >>> >> >> >> > /var/lib/one/datastores/1/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557 in<br>> >> >>> >> >> >> > demos:/var/lib/one/datastores/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 0/36/disk.0<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: clone: Command "cd<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > /var/lib/one/datastores/0/36; cp<br>> /var/lib/one/datastores/1/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> > /var/lib/one/datastores/0/36/disk.0"<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > failed: cp: can't stat '/var/lib/one/datastores/1/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557': No such file or<br>> >> >>> >> >> >> > directory<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error copying<br>> >> >>> >> >> >> > ubuntuOpNeb:/var/lib/one/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > datastores/1/02e8c67d4f59826e9fb12ccb48f77557 to<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: ExitCode: 1<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error executing image<br>> >> >>> >> >> >> > transfer<br>> >> >>> >> >> >> > script:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Error copying ubuntuOpNeb:/var/lib/one/datastores/1/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557 to<br>> >> >>> >> >> >> > demos:/var/lib/one/datastores/<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 0/36/disk.0<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [DiM][I]: New VM state is FAILED<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Now, I suppose that I've to create the image for<br>> opennebula<br>> >> >>> >> >> >> > in<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > new<br>> >> >>> >> >> >> > image<br>> >> >>> >> >> >> > datastore but I can?t do because it has no capacity.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Please help me.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thanks, Caty<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 2013/11/10 <users-request@lists.opennebula.org><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Send Users mailing list submissions to<br>> >> >>> >> >> >> >>         users@lists.opennebula.org<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> To subscribe or unsubscribe via the World Wide Web,<br>> visit<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> >> or, via email, send a message with subject or body<br>> 'help'<br>> >> >>> >> >> >> >> to<br>> >> >>> >> >> >> >>         users-request@lists.opennebula.org<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> You can reach the person managing the list at<br>> >> >>> >> >> >> >>         users-owner@lists.opennebula.org<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> When replying, please edit your Subject line so it is<br>> more<br>> >> >>> >> >> >> >> specific<br>> >> >>> >> >> >> >> than "Re: Contents of Users digest..."<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Today's Topics:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >>    1. VM in Opennebula for Esxi 5.1 failed (Catalina<br>> >> >>> >> >> >> >> Quinde)<br>> >> >>> >> >> >> >>    2. Re: VM in Opennebula for Esxi 5.1 failed (Daniel<br>> >> >>> >> >> >> >> Dehennin)<br>> >> >>> >> >> >> >>    3. ask to password when add ceph datastore<br>> >> >>> >> >> >> >> (12navidb2@gmail.com)<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> ----------------------------------------------------------------------<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Message: 1<br>> >> >>> >> >> >> >> Date: Sat, 9 Nov 2013 19:07:44 -0500<br>> >> >>> >> >> >> >> From: Catalina Quinde <catalinaquinde@gmail.com><br>> >> >>> >> >> >> >> To: users@lists.opennebula.org<br>> >> >>> >> >> >> >> Subject: [one-users] VM in Opennebula for Esxi 5.1<br>> failed<br>> >> >>> >> >> >> >> Message-ID:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> <CAPgz++yOE=CmekTkFjD=<br>> yCFo4uwN6oMYb+z+aYY7VtZ4rOoubw@mail.gmail.com><br>> >> >>> >> >> >> >> Content-Type: text/plain; charset="iso-8859-1"<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Please help me,I created an OpenNebula cluster in which<br>> I<br>> >> >>> >> >> >> >> have<br>> >> >>> >> >> >> >> added<br>> >> >>> >> >> >> >> the<br>> >> >>> >> >> >> >> host Esxi, I've also created two datastores, one for<br>> >> >>> >> >> >> >> system<br>> >> >>> >> >> >> >> and<br>> >> >>> >> >> >> >> one<br>> >> >>> >> >> >> >> for<br>> >> >>> >> >> >> >> images, with features:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> ID 100 system TM_MAD = vmfs<br>> >> >>> >> >> >> >> ID 101 image DS_MAD = vmfs<br>> >> >>> >> >> >> >>                      TM_MAD = vmfs<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> These two datastores I have added to the cluster<br>> created,<br>> >> >>> >> >> >> >> the<br>> >> >>> >> >> >> >> comand<br>> >> >>> >> >> >> >> "onedatastore list" indicates CAPACITY datastore = 0M<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> And in the path "/ var / lib / one / datastores" here<br>> are<br>> >> >>> >> >> >> >> not<br>> >> >>> >> >> >> >> these<br>> >> >>> >> >> >> >> two<br>> >> >>> >> >> >> >> datastores as directories.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> I'm using OpenNebula Esxi 4.2 and 5.1.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Greetings.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Caty.<br>> >> >>> >> >> >> >> -------------- next part --------------<br>> >> >>> >> >> >> >> An HTML attachment was scrubbed...<br>> >> >>> >> >> >> >> URL:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> <<br>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131109/556b453a/attachment.html<br>> ><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> ------------------------------<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Message: 2<br>> >> >>> >> >> >> >> Date: Sun, 10 Nov 2013 01:47:35 +0100<br>> >> >>> >> >> >> >> From: Daniel Dehennin <daniel.dehennin@baby-gnu.org><br>> >> >>> >> >> >> >> To: users@lists.opennebula.org<br>> >> >>> >> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1<br>> >> >>> >> >> >> >> failed<br>> >> >>> >> >> >> >> Message-ID: <878uwx9j6g.fsf@hati.baby-gnu.org><br>> >> >>> >> >> >> >> Content-Type: text/plain; charset="utf-8"<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Catalina Quinde <catalinaquinde@gmail.com> writes:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> First of all hello,<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> I do not have proprietary system so I'll only give you<br>> >> >>> >> >> >> >> information I<br>> >> >>> >> >> >> >> have.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> > Please help me,I created an OpenNebula cluster in<br>> which<br>> >> >>> >> >> >> >> > I<br>> >> >>> >> >> >> >> > have<br>> >> >>> >> >> >> >> > added<br>> >> >>> >> >> >> >> > the<br>> >> >>> >> >> >> >> > host Esxi, I've also created two datastores, one for<br>> >> >>> >> >> >> >> > system<br>> >> >>> >> >> >> >> > and<br>> >> >>> >> >> >> >> > one<br>> >> >>> >> >> >> >> > for<br>> >> >>> >> >> >> >> > images, with features:<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > ID 100 system TM_MAD = vmfs<br>> >> >>> >> >> >> >> > ID 101 image DS_MAD = vmfs<br>> >> >>> >> >> >> >> >                      TM_MAD = vmfs<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > These two datastores I have added to the cluster<br>> >> >>> >> >> >> >> > created,<br>> >> >>> >> >> >> >> > the<br>> >> >>> >> >> >> >> > comand<br>> >> >>> >> >> >> >> > "onedatastore list" indicates CAPACITY datastore = 0M<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > And in the path "/ var / lib / one / datastores" here<br>> >> >>> >> >> >> >> > are<br>> >> >>> >> >> >> >> > not<br>> >> >>> >> >> >> >> > these<br>> >> >>> >> >> >> >> > two<br>> >> >>> >> >> >> >> > datastores as directories.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Reading the documentation[1], I understand that:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> 1. oneadmin must be able to SSH ESX servers without<br>> >> >>> >> >> >> >> password[2]<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> 2. nothing is under /var/lib/one/datastores of the<br>> >> >>> >> >> >> >> OpenNebula<br>> >> >>> >> >> >> >> frontend<br>> >> >>> >> >> >> >>    because it's managed by ESX servers, ONE access to<br>> VMFS<br>> >> >>> >> >> >> >> datastores<br>> >> >>> >> >> >> >>    though API<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Maybe if you describe a little more your setup will help<br>> >> >>> >> >> >> >> people<br>> >> >>> >> >> >> >> helping<br>> >> >>> >> >> >> >> you ;-)<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> > I'm using OpenNebula Esxi 4.2 and 5.1.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> I suppose you mean that you use:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> - OpenNebula 4.2<br>> >> >>> >> >> >> >> - ESXi 5.1<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Right?<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Regards.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Footnotes:<br>> >> >>> >> >> >> >> [1]<br>> http://opennebula.org/documentation:rel4.2:vmware_ds<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> [2]<br>> >> >>> >> >> >> >><br>> http://opennebula.org/documentation:rel4.2:hostsubsystem<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> --<br>> >> >>> >> >> >> >> Daniel Dehennin<br>> >> >>> >> >> >> >> R?cup?rer ma clef GPG:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> gpg --keyserver pgp.mit.edu --recv-keys 0x7A6FE2DF<br>> >> >>> >> >> >> >> -------------- next part --------------<br>> >> >>> >> >> >> >> A non-text attachment was scrubbed...<br>> >> >>> >> >> >> >> Name: not available<br>> >> >>> >> >> >> >> Type: application/pgp-signature<br>> >> >>> >> >> >> >> Size: 229 bytes<br>> >> >>> >> >> >> >> Desc: not available<br>> >> >>> >> >> >> >> URL:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> <<br>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131110/580e83eb/attachment-0001.pgp<br>> ><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> ------------------------------<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Message: 3<br>> >> >>> >> >> >> >> Date: Sun, 10 Nov 2013 13:26:27 +0330<br>> >> >>> >> >> >> >> From: "12navidb2@gmail.com" <12navidb2@gmail.com><br>> >> >>> >> >> >> >> To: users@lists.opennebula.org<br>> >> >>> >> >> >> >> Subject: [one-users] ask to password when add ceph<br>> >> >>> >> >> >> >> datastore<br>> >> >>> >> >> >> >> Message-ID:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> <CAK9QDg9znnHjkH=mLc19F=<br>> CTSd+Yo16arttCEg_erv5-x4WAtg@mail.gmail.com><br>> >> >>> >> >> >> >> Content-Type: text/plain; charset="iso-8859-1"<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> hi all<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> when i add new ceph datastore, opennebula run a command<br>> >> >>> >> >> >> >> like<br>> >> >>> >> >> >> >> this<br>> >> >>> >> >> >> >> with<br>> >> >>> >> >> >> >> oneadmin user that needs  password<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> oneadmin@one-server2:~$<br>> >> >>> >> >> >> >> /var/lib/one/remotes/datastore/ceph/monitor<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMTM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5jZXBoZHM8L05BTUU+PFBFUk1JU1NJT05TPjxPV05FUl9VPjE8L09XTkVSX1U+PE9XTkVSX00+MTwvT1dORVJfTT48T1dORVJfQT4wPC9PV05FUl9BPjxHUk9VUF9VPjE8L0dST1VQX1U+PEdST1VQX00+MDwvR1JPVVBfTT48R1JPVVBfQT4wPC9HUk9VUF9BPjxPVEhFUl9VPjA8L09USEVSX1U+PE9USEVSX00+MDwvT1RIRVJfTT48T1RIRVJfQT4wPC9PVEhFUl9BPjwvUEVSTUlTU0lPTlM+PERTX01BRD5jZXBoPC9EU19NQUQ+PFRNX01BRD5jZXBoPC9UTV9NQUQ+PEJBU0VfUEFUSD4vdmFyL2xpYi9vbmUvZGF0YXN0b3Jlcy8xMTM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MzwvRElTS19UWVBFPjxDTFVTVEVSX0lEPi0xPC9DTFVTVEVSX0lEPjxDTFVTVEVSPjwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxEU19NQUQ+PCFbQ0RBVEFbY2VwaF1dPjwvRFNfTUFEPjxIT1NUPjwhW0NEQVRBW29uZS1zZXJ2ZXIyXV0+PC9IT1NUPjxQT09MX05BTUU+PCFbQ0RBVEFbcmJkXV0+PC9QT09MX05BTUU+PFNBRkVfRElSUz48IVt<br>>  DRE<br>> >>  FUQV<br>> >> >>>  svX<br>> >> >>> >>  V0+PC9<br>> >> >>> >> >> >>  TQU<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> ZFX0RJUlM+PFRNX01BRD48IVtDREFUQVtjZXBoXV0+PC9UTV9NQUQ+PC9URU1QTEFURT48L0RBVEFTVE9SRT48L0RTX0RSSVZFUl9BQ1RJT05fREFUQT4=<br>> >> >>> >> >> >> >> 113<br>> >> >>> >> >> >> >> oneadmin@one-server2's password:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> because it, opennebula cant show datastore space and<br>> show<br>> >> >>> >> >> >> >> (0MB)<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> output this command is<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> USED_MB=3015<br>> >> >>> >> >> >> >> FREE_MB=1184747<br>> >> >>> >> >> >> >> TOTAL_MB=1193984<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> the point here is that i cant run this command with<br>> >> >>> >> >> >> >> oneadmin<br>> >> >>> >> >> >> >> user<br>> >> >>> >> >> >> >> !<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> sudo rados df<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> or even rados df  (without sudo)<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> i add these  lines  to  /etc/sudoers<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> oneadmin    ALL=(ALL) NOPASSWD:<br>> >> >>> >> >> >> >> /usr/bin/rbd*,/usr/bin/rados*<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> best regards<br>> >> >>> >> >> >> >> -------------- next part --------------<br>> >> >>> >> >> >> >> An HTML attachment was scrubbed...<br>> >> >>> >> >> >> >> URL:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> <<br>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131110/64242fd6/attachment-0001.htm<br>> ><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> ------------------------------<br>> >> >>> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> _______________________________________________<br>> >> >>> >> >> >> >> Users mailing list<br>> >> >>> >> >> >> >> Users@lists.opennebula.org<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> End of Users Digest, Vol 69, Issue 26<br>> >> >>> >> >> >> >> *************************************<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > _______________________________________________<br>> >> >>> >> >> >> > Users mailing list<br>> >> >>> >> >> >> > Users@lists.opennebula.org<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> ------------------------------<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Message: 2<br>> >> >>> >> >> >> Date: Mon, 11 Nov 2013 14:30:20 +0100<br>> >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>> >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>> >> >>> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1<br>> failed<br>> >> >>> >> >> >> Message-ID:<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> <CAHfKwc05HTwsGJSxkW4fSoMu5O10=<br>> HuAUcS70pVCzh2d3zgxtA@mail.gmail.com><br>> >> >>> >> >> >> Content-Type: text/plain; charset=ISO-8859-1<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> On Thu, Nov 7, 2013 at 5:55 AM, Catalina Quinde<br>> >> >>> >> >> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> >> >> > Thanks Tino,<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Excuse me for not responding earlier, I have read the<br>> >> >>> >> >> >> > documentation<br>> >> >>> >> >> >> > provided<br>> >> >>> >> >> >> > I do, but there is a section that is not clear in which<br>> >> >>> >> >> >> > states<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > following:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > "... In heterogeneous clouds (mix of ESX and other<br>> >> >>> >> >> >> > hypervisor<br>> >> >>> >> >> >> > hosts)<br>> >> >>> >> >> >> > put<br>> >> >>> >> >> >> > all<br>> >> >>> >> >> >> > the ESX hosts in clusters With The Following In Their<br>> >> >>> >> >> >> > template<br>> >> >>> >> >> >> > attribute<br>> >> >>> >> >> >> > (eg<br>> >> >>> >> >> >> > onecluster update) ...":<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > DATASTORE_LOCATION = / vmfs / volumes<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > In my case, opennebula works with 4 different<br>> hypervisors,<br>> >> >>> >> >> >> > and<br>> >> >>> >> >> >> > I<br>> >> >>> >> >> >> > don't<br>> >> >>> >> >> >> > have<br>> >> >>> >> >> >> > created clusters, nodes are registered directly in<br>> >> >>> >> >> >> > opennebula:<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 1. I make clusters for each hypervisor??<br>> >> >>> >> >> >><br>> >> >>> >> >> >> You will need to create one at least for VMware in order to<br>> >> >>> >> >> >> set<br>> >> >>> >> >> >> the<br>> >> >>> >> >> >> DATASTORE_LOCATION in the cluster so the datastores can<br>> >> >>> >> >> >> inherit<br>> >> >>> >> >> >> it.<br>> >> >>> >> >> >> In<br>> >> >>> >> >> >> any case, it would be recommended to have one cluster per<br>> >> >>> >> >> >> hypervisor.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> > 2. In the image cluster file to create the cluster must<br>> >> >>> >> >> >> > point<br>> >> >>> >> >> >> > out<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > DATASTORE_LOCATION????<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Yes, the template used to create the cluster must include<br>> the<br>> >> >>> >> >> >> DATASTORE_LOCATION, although this can be updated later. In<br>> >> >>> >> >> >> any<br>> >> >>> >> >> >> case,<br>> >> >>> >> >> >> the DATASTORE_LOCATION _must_ be present before the<br>> datastore<br>> >> >>> >> >> >> is<br>> >> >>> >> >> >> created.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > In my case I have created the datastores in "ESXi" with<br>> the<br>> >> >>> >> >> >> > frontend<br>> >> >>> >> >> >> > in<br>> >> >>> >> >> >> > "/<br>> >> >>> >> >> >> > var/lib/one/datastores/0" and "1", created by the "VMWare<br>> >> >>> >> >> >> > Client",<br>> >> >>> >> >> >> > in<br>> >> >>> >> >> >> > this<br>> >> >>> >> >> >> > datastores is created a virtual machine for Esxi. I must<br>> >> >>> >> >> >> > add<br>> >> >>> >> >> >> > the<br>> >> >>> >> >> >> > datastores<br>> >> >>> >> >> >> > "/ vmfs / volumes. .. "as additional datastores??<br>> >> >>> >> >> >><br>> >> >>> >> >> >> In the ESX, only the system and one image datastore need to<br>> >> >>> >> >> >> be<br>> >> >>> >> >> >> register (and potentially, more than one image datastore).<br>> In<br>> >> >>> >> >> >> OpenNebula 4.2 they cannot be 0 and 1, since they are<br>> created<br>> >> >>> >> >> >> on<br>> >> >>> >> >> >> OpneNebula first boot and they won't have the proper<br>> >> >>> >> >> >> DATASTORE_LOCATION inherit.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> To check that all is good, the BASE_PATH of both the system<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> image<br>> >> >>> >> >> >> datstore for VMware should contain "/vmfs/volumes"<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Regards,<br>> >> >>> >> >> >><br>> >> >>> >> >> >> -Tino<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > Thanks for responding<br>> >> >>> >> >> >> > Caty<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > 2013/11/4 Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Hi,<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Ok, so then you need to create a VMFS datastore in order<br>> >> >>> >> >> >> >> to<br>> >> >>> >> >> >> >> register<br>> >> >>> >> >> >> >> VMDK images that can be used with VMware ESX. More info<br>> >> >>> >> >> >> >> here:<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> http://opennebula.org/documentation:rel4.2:vmware_ds<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> Regards,<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> -Tino<br>> >> >>> >> >> >> >> --<br>> >> >>> >> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> --<br>> >> >>> >> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> >> >><br>> >> >>> >> >> >> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> --<br>> >> >>> >> >> >> >> Confidentiality Warning: The information contained in<br>> this<br>> >> >>> >> >> >> >> e-mail<br>> >> >>> >> >> >> >> and<br>> >> >>> >> >> >> >> any accompanying documents, unless otherwise expressly<br>> >> >>> >> >> >> >> indicated,<br>> >> >>> >> >> >> >> is<br>> >> >>> >> >> >> >> confidential and privileged, and is intended solely for<br>> >> >>> >> >> >> >> the<br>> >> >>> >> >> >> >> person<br>> >> >>> >> >> >> >> and/or entity to whom it is addressed (i.e. those<br>> >> >>> >> >> >> >> identified<br>> >> >>> >> >> >> >> in<br>> >> >>> >> >> >> >> the<br>> >> >>> >> >> >> >> "To" and "cc" box). They are the property of C12G Labs<br>> >> >>> >> >> >> >> S.L..<br>> >> >>> >> >> >> >> Unauthorized distribution, review, use, disclosure, or<br>> >> >>> >> >> >> >> copying<br>> >> >>> >> >> >> >> of<br>> >> >>> >> >> >> >> this<br>> >> >>> >> >> >> >> communication, or any part thereof, is strictly<br>> prohibited<br>> >> >>> >> >> >> >> and<br>> >> >>> >> >> >> >> may<br>> >> >>> >> >> >> >> be<br>> >> >>> >> >> >> >> unlawful. If you have received this e-mail in error,<br>> >> >>> >> >> >> >> please<br>> >> >>> >> >> >> >> notify<br>> >> >>> >> >> >> >> us<br>> >> >>> >> >> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>> >> >>> >> >> >> >> e-mail<br>> >> >>> >> >> >> >> and<br>> >> >>> >> >> >> >> attachments and any copy from your system. C12G thanks<br>> you<br>> >> >>> >> >> >> >> for<br>> >> >>> >> >> >> >> your<br>> >> >>> >> >> >> >> cooperation.<br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >><br>> >> >>> >> >> >> >> On Mon, Nov 4, 2013 at 4:04 PM, Catalina Quinde<br>> >> >>> >> >> >> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> >> >> >> > Hi, Tino thanks for reply,<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > In Opennebula-sunstone in the bottom, says<br>>  "Opennebula<br>> >> >>> >> >> >> >> > 4.2.0<br>> >> >>> >> >> >> >> > by<br>> >> >>> >> >> >> >> > C12G<br>> >> >>> >> >> >> >> > Labs",<br>> >> >>> >> >> >> >> > the commands "one -v" or "one -version" not working,<br>> Is<br>> >> >>> >> >> >> >> > this<br>> >> >>> >> >> >> >> > version<br>> >> >>> >> >> >> >> > for<br>> >> >>> >> >> >> >> > opennebula?,  I did the installation with command<br>> >> >>> >> >> >> >> > "apt-get<br>> >> >>> >> >> >> >> > install<br>> >> >>> >> >> >> >> > opennebula".<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > Please,  guide me more clearly, because I have the<br>> >> >>> >> >> >> >> > others<br>> >> >>> >> >> >> >> > hypervisors<br>> >> >>> >> >> >> >> > working with opennebula too.<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > Thanks Tino,<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > Caty.<br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> > 2013/11/4 Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> Hi Catalina,<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> Which OpenNebula version are you using? If you are in<br>> >> >>> >> >> >> >> >> 4.2,<br>> >> >>> >> >> >> >> >> be<br>> >> >>> >> >> >> >> >> aware<br>> >> >>> >> >> >> >> >> that the only datastore drivers for VMware are the<br>> >> >>> >> >> >> >> >> 'vmfs',<br>> >> >>> >> >> >> >> >> not<br>> >> >>> >> >> >> >> >> 'shared'.<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> Regards,<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> -Tino<br>> >> >>> >> >> >> >> >> --<br>> >> >>> >> >> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> --<br>> >> >>> >> >> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> >> >><br>> >> >>> >> >> >> >> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> >> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> --<br>> >> >>> >> >> >> >> >> Confidentiality Warning: The information contained in<br>> >> >>> >> >> >> >> >> this<br>> >> >>> >> >> >> >> >> e-mail<br>> >> >>> >> >> >> >> >> and<br>> >> >>> >> >> >> >> >> any accompanying documents, unless otherwise<br>> expressly<br>> >> >>> >> >> >> >> >> indicated,<br>> >> >>> >> >> >> >> >> is<br>> >> >>> >> >> >> >> >> confidential and privileged, and is intended solely<br>> for<br>> >> >>> >> >> >> >> >> the<br>> >> >>> >> >> >> >> >> person<br>> >> >>> >> >> >> >> >> and/or entity to whom it is addressed (i.e. those<br>> >> >>> >> >> >> >> >> identified<br>> >> >>> >> >> >> >> >> in<br>> >> >>> >> >> >> >> >> the<br>> >> >>> >> >> >> >> >> "To" and "cc" box). They are the property of C12G<br>> Labs<br>> >> >>> >> >> >> >> >> S.L..<br>> >> >>> >> >> >> >> >> Unauthorized distribution, review, use, disclosure,<br>> or<br>> >> >>> >> >> >> >> >> copying<br>> >> >>> >> >> >> >> >> of<br>> >> >>> >> >> >> >> >> this<br>> >> >>> >> >> >> >> >> communication, or any part thereof, is strictly<br>> >> >>> >> >> >> >> >> prohibited<br>> >> >>> >> >> >> >> >> and<br>> >> >>> >> >> >> >> >> may<br>> >> >>> >> >> >> >> >> be<br>> >> >>> >> >> >> >> >> unlawful. If you have received this e-mail in error,<br>> >> >>> >> >> >> >> >> please<br>> >> >>> >> >> >> >> >> notify<br>> >> >>> >> >> >> >> >> us<br>> >> >>> >> >> >> >> >> immediately by e-mail at abuse@c12g.com and delete<br>> the<br>> >> >>> >> >> >> >> >> e-mail<br>> >> >>> >> >> >> >> >> and<br>> >> >>> >> >> >> >> >> attachments and any copy from your system. C12G<br>> thanks<br>> >> >>> >> >> >> >> >> you<br>> >> >>> >> >> >> >> >> for<br>> >> >>> >> >> >> >> >> your<br>> >> >>> >> >> >> >> >> cooperation.<br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >><br>> >> >>> >> >> >> >> >> On Mon, Nov 4, 2013 at 5:40 AM, Catalina Quinde<br>> >> >>> >> >> >> >> >> <catalinaquinde@gmail.com> wrote:<br>> >> >>> >> >> >> >> >> > Hi friends, please help me in this problem<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > I have opennebula working with nodes kvm, xen, Esxi<br>> >> >>> >> >> >> >> >> > 5.1<br>> >> >>> >> >> >> >> >> > and<br>> >> >>> >> >> >> >> >> > OpenVZ, I<br>> >> >>> >> >> >> >> >> > did VM<br>> >> >>> >> >> >> >> >> > in Opennebula for KVM and Xen, VM states RUNN, but<br>> >> >>> >> >> >> >> >> > when I<br>> >> >>> >> >> >> >> >> > made<br>> >> >>> >> >> >> >> >> > a<br>> >> >>> >> >> >> >> >> > VM<br>> >> >>> >> >> >> >> >> > in<br>> >> >>> >> >> >> >> >> > Opennebula for Esxi 5.1, I have this error:<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > ------------------------------------------------<br>> >> >>> >> >> >> >> >> > oneadmin@ubuntuOpNeb:~$ cat /var/log/one/36.log<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:02 2013 [DiM][I]: New VM state is<br>> >> >>> >> >> >> >> >> > ACTIVE.<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:02 2013 [LCM][I]: New VM state is<br>> >> >>> >> >> >> >> >> > PROLOG.<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: Command execution<br>> >> >>> >> >> >> >> >> > fail:<br>> >> >>> >> >> >> >> >> > /var/lib/one/remotes/tm/shared/clone<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0 36 1<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: clone: Cloning<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> /var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> >> >> > in<br>> >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: clone: Command<br>> "cd<br>> >> >>> >> >> >> >> >> > /var/lib/one/datastores/0/36; cp<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> /var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> >> >> > /var/lib/one/datastores/0/36/disk.0" failed: cp:<br>> >> >>> >> >> >> >> >> > can't<br>> >> >>> >> >> >> >> >> > stat<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> '/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557':<br>> >> >>> >> >> >> >> >> > No<br>> >> >>> >> >> >> >> >> > such<br>> >> >>> >> >> >> >> >> > file<br>> >> >>> >> >> >> >> >> > or directory<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error copying<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> >> >> > to<br>> >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: ExitCode: 1<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error executing<br>> >> >>> >> >> >> >> >> > image<br>> >> >>> >> >> >> >> >> > transfer<br>> >> >>> >> >> >> >> >> > script:<br>> >> >>> >> >> >> >> >> > Error copying<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>> >> >>> >> >> >> >> >> > to<br>> >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>> >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [DiM][I]: New VM state is<br>> >> >>> >> >> >> >> >> > FAILED<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> ----------------------------------------------------------<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > Here I put some features of my settings in<br>> >> >>> >> >> >> >> >> > opennebula:<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > The datastores are: 0, 1 and 2; the 0 and 1<br>> >> >>> >> >> >> >> >> > datastores<br>> >> >>> >> >> >> >> >> > are<br>> >> >>> >> >> >> >> >> > shared,<br>> >> >>> >> >> >> >> >> > and 2<br>> >> >>> >> >> >> >> >> > is<br>> >> >>> >> >> >> >> >> > ssh, Esxi works with 0 and 1 datastores.<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > oned.conf file have TM configuration general for<br>> all<br>> >> >>> >> >> >> >> >> > hypervisors.<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > Please help me for solved this problem.<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > Thanks, Caty.<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> > _______________________________________________<br>> >> >>> >> >> >> >> >> > Users mailing list<br>> >> >>> >> >> >> >> >> > Users@lists.opennebula.org<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> >> ><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> >> >> ><br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> ------------------------------<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Message: 3<br>> >> >>> >> >> >> Date: Mon, 11 Nov 2013 15:24:52 +0100<br>> >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>> >> >>> >> >> >> To: Andranik Hayrapetyan <andranik.h89@gmail.com><br>> >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>> >> >>> >> >> >> Subject: Re: [one-users] Problem with oZones. Error 401<br>> while<br>> >> >>> >> >> >> trying<br>> >> >>> >> >> >>         to access a zone<br>> >> >>> >> >> >> Message-ID:<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> <CAHfKwc0Q=<br>> FxRAkYtqQKJLLnSTi-mJZSFBKNz1vr1nQfou8oh6A@mail.gmail.com><br>> >> >>> >> >> >> Content-Type: text/plain; charset=ISO-8859-1<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Hi,<br>> >> >>> >> >> >><br>> >> >>> >> >> >> The HTTP code (401) tells us that the credentials are not<br>> >> >>> >> >> >> being<br>> >> >>> >> >> >> recognize. Can you check that the oneadmin credentials used<br>> >> >>> >> >> >> to<br>> >> >>> >> >> >> create<br>> >> >>> >> >> >> the 'not working' zone are indeed the right ones?<br>> >> >>> >> >> >><br>> >> >>> >> >> >> The best way to find out would be to check the $ONE_AUTH<br>> file<br>> >> >>> >> >> >> of<br>> >> >>> >> >> >> the<br>> >> >>> >> >> >> zone, and recreating the zone in oZones using those<br>> >> >>> >> >> >> credentials.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Best regards,<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> -Tino<br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>> >> >>> >> >> >><br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>> >> >>> >> >> >><br>> >> >>> >> >> >> Senior Infrastructure Architect at C12G Labs<br>> >> >>> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>> >> >>> >> >> >><br>> >> >>> >> >> >> --<br>> >> >>> >> >> >> Confidentiality Warning: The information contained in this<br>> >> >>> >> >> >> e-mail<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> any accompanying documents, unless otherwise expressly<br>> >> >>> >> >> >> indicated,<br>> >> >>> >> >> >> is<br>> >> >>> >> >> >> confidential and privileged, and is intended solely for the<br>> >> >>> >> >> >> person<br>> >> >>> >> >> >> and/or entity to whom it is addressed (i.e. those<br>> identified<br>> >> >>> >> >> >> in<br>> >> >>> >> >> >> the<br>> >> >>> >> >> >> "To" and "cc" box). They are the property of C12G Labs<br>> S.L..<br>> >> >>> >> >> >> Unauthorized distribution, review, use, disclosure, or<br>> >> >>> >> >> >> copying of<br>> >> >>> >> >> >> this<br>> >> >>> >> >> >> communication, or any part thereof, is strictly prohibited<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> may<br>> >> >>> >> >> >> be<br>> >> >>> >> >> >> unlawful. If you have received this e-mail in error, please<br>> >> >>> >> >> >> notify<br>> >> >>> >> >> >> us<br>> >> >>> >> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>> e-mail<br>> >> >>> >> >> >> and<br>> >> >>> >> >> >> attachments and any copy from your system. C12G thanks you<br>> >> >>> >> >> >> for<br>> >> >>> >> >> >> your<br>> >> >>> >> >> >> cooperation.<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> On Sat, Nov 9, 2013 at 11:06 AM, Andranik Hayrapetyan<br>> >> >>> >> >> >> <andranik.h89@gmail.com> wrote:<br>> >> >>> >> >> >> > Good day.<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > I have setup OpenNebula 4.2 with ozones server. I have<br>> >> >>> >> >> >> > added 3<br>> >> >>> >> >> >> > zones<br>> >> >>> >> >> >> > to<br>> >> >>> >> >> >> > it<br>> >> >>> >> >> >> > and created a VDC for each one. For 2 of them everything<br>> >> >>> >> >> >> > works<br>> >> >>> >> >> >> > just<br>> >> >>> >> >> >> > fine. I<br>> >> >>> >> >> >> > can access the sunstone web UI through my oZones server.<br>> >> >>> >> >> >> > But<br>> >> >>> >> >> >> > when<br>> >> >>> >> >> >> > I<br>> >> >>> >> >> >> > try<br>> >> >>> >> >> >> > to<br>> >> >>> >> >> >> > access the third one I see just blank browser. In<br>> >> >>> >> >> >> > access.log of<br>> >> >>> >> >> >> > my<br>> >> >>> >> >> >> > httpd<br>> >> >>> >> >> >> > I<br>> >> >>> >> >> >> > see the following:<br>> >> >>> >> >> >> > "GET /sunstone_MY_ZONE_3/ HTTP/1.1" 401 - "-"<br>> "Mozilla/5.0<br>> >> >>> >> >> >> > (X11;<br>> >> >>> >> >> >> > Linux<br>> >> >>> >> >> >> > x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu<br>> >> >>> >> >> >> > Chromium/MY_IP<br>> >> >>> >> >> >> > Chrome/MY_IP Safari/537.36"<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > The Rewrite rules in my .htaccess are made the same way<br>> for<br>> >> >>> >> >> >> > each<br>> >> >>> >> >> >> > VDC.<br>> >> >>> >> >> >> > Here<br>> >> >>> >> >> >> > is one of them:<br>> >> >>> >> >> >> > RewriteRule ^MY_ZONE_3 http://IP_OF_ZONE:2633/RPC2 [P]<br>> >> >>> >> >> >> > RewriteRule ^sunstone_MY_ZONE_3/(.+)<br>> >> >>> >> >> >> > http://IP_OF_ZONE:9869//$1<br>> >> >>> >> >> >> > [P]<br>> >> >>> >> >> >> > RewriteRule ^sunstone_MY_ZONE_3 http://IP_OF_ZONE:9869//<br>> >> >>> >> >> >> > [P]<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > What can I do to solve this problem? Can anyone help me,<br>> >> >>> >> >> >> > please?<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > P.S. Sorry, my last email was sent by mistake. It was<br>> >> >>> >> >> >> > incomplete.<br>> >> >>> >> >> >><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> > _______________________________________________<br>> >> >>> >> >> >> > Users mailing list<br>> >> >>> >> >> >> > Users@lists.opennebula.org<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >> ><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >> ><br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> ------------------------------<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> _______________________________________________<br>> >> >>> >> >> >> Users mailing list<br>> >> >>> >> >> >> Users@lists.opennebula.org<br>> >> >>> >> >> >><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> >><br>> >> >>> >> >> >><br>> >> >>> >> >> >> End of Users Digest, Vol 69, Issue 28<br>> >> >>> >> >> >> *************************************<br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> ><br>> >> >>> >> >> > _______________________________________________<br>> >> >>> >> >> > Users mailing list<br>> >> >>> >> >> > Users@lists.opennebula.org<br>> >> >>> >> >> ><br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> >> ><br>> >> >>> >> ><br>> >> >>> >> ><br>> >> >>> >> ><br>> >> >>> >> > _______________________________________________<br>> >> >>> >> > Users mailing list<br>> >> >>> >> > Users@lists.opennebula.org<br>> >> >>> >> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >> ><br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> ------------------------------<br>> >> >>> >><br>> >> >>> >> _______________________________________________<br>> >> >>> >> Users mailing list<br>> >> >>> >> Users@lists.opennebula.org<br>> >> >>> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> >><br>> >> >>> >><br>> >> >>> >> End of Users Digest, Vol 69, Issue 33<br>> >> >>> >> *************************************<br>> >> >>> ><br>> >> >>> ><br>> >> >>> ><br>> >> >>> > _______________________________________________<br>> >> >>> > Users mailing list<br>> >> >>> > Users@lists.opennebula.org<br>> >> >>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>> ><br>> >> >>><br>> >> >>><br>> >> >>> ------------------------------<br>> >> >>><br>> >> >>> _______________________________________________<br>> >> >>> Users mailing list<br>> >> >>> Users@lists.opennebula.org<br>> >> >>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >>><br>> >> >>><br>> >> >>> End of Users Digest, Vol 69, Issue 35<br>> >> >>> *************************************<br>> >> >><br>> >> >><br>> >> >><br>> >> >> _______________________________________________<br>> >> >> Users mailing list<br>> >> >> Users@lists.opennebula.org<br>> >> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >> >><br>> >><br>> >><br>> >> ------------------------------<br>> >><br>> >> _______________________________________________<br>> >> Users mailing list<br>> >> Users@lists.opennebula.org<br>> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> >><br>> >><br>> >> End of Users Digest, Vol 69, Issue 44<br>> >> *************************************<br>> ><br>> ><br>> ><br>> > _______________________________________________<br>> > Users mailing list<br>> > Users@lists.opennebula.org<br>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>> ><br>><br>><br>> ------------------------------<br>><br>> _______________________________________________<br>> Users mailing list<br>> Users@lists.opennebula.org<br>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>><br>><br>> End of Users Digest, Vol 69, Issue 48<br>> *************************************<br>><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131112/6e9eddb5/attachment.htm><br><br>------------------------------<br><br>_______________________________________________<br>Users mailing list<br>Users@lists.opennebula.org<br>http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br><br><br>End of Users Digest, Vol 69, Issue 49<br>*************************************</div>