<div>yeah,you're right.NFS  shared storage   is  very easy and  comfortable. Have you tried  ceph ??</div><div><br></div><div>Thank you very much !!!</div><div><br></div><div><br></div><div>let's  make a friend!    O(กษ_กษ)O</div><div><div><br></div><div>my name is  jayway!!!</div><div><br></div><div style="font-size: 12px;font-family: Arial Narrow;padding:2px 0 2px 0;">------------------ Original ------------------</div><div style="font-size: 12px;background:#efefef;padding:8px;"><div><b>From: </b> "users-request";<users-request@lists.opennebula.org>;</div><div><b>Date: </b> Wed, Nov 13, 2013 04:37 PM</div><div><b>To: </b> "users"<users@lists.opennebula.org>; <wbr></div><div></div><div><b>Subject: </b> Users Digest, Vol 69, Issue 53</div></div><div><br></div>Send Users mailing list submissions to<br>   users@lists.opennebula.org<br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>       http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>or, via email, send a message with subject or body 'help' to<br>   users-request@lists.opennebula.org<br><br>You can reach the person managing the list at<br>   users-owner@lists.opennebula.org<br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of Users digest..."<br><br><br>Today's Topics:<br><br>   1. Re: ???  Users Digest, Vol 69, Issue 49 (Sharuzzaman Ahmat Raslan)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Wed, 13 Nov 2013 16:36:52 +0800<br>From: Sharuzzaman Ahmat Raslan <sharuzzaman@gmail.com><br>To: ??? <1360848475@qq.com>,    users <users@lists.opennebula.org><br>Subject: Re: [one-users] ???  Users Digest, Vol 69, Issue 49<br>Message-ID:<br>      <CAK+zucmCQsnd9s99e3r-Xx8-rL=9ktp7LmfL3ueUuuzpOycG+A@mail.gmail.com><br>Content-Type: text/plain; charset="gb2312"<br><br>Well, that bug report is beyond my knowledge.<br><br>But I still believe setting up an NFS server and moving your VM image to<br>NFS is still easier to be implemented now and supported in the future.<br><br>Thanks.<br><br><br><br><br>On Wed, Nov 13, 2013 at 4:31 PM, ??? <1360848475@qq.com> wrote:<br><br>> I  use local file system  storage ,all VMs  just  stores  native place. I<br>> used    ssh for  TM_MAD.<br>><br>> http://dev.opennebula.org/issues/660<br>><br>> look at this,there is  a way for  local caching in Opennebula 3.8.But now<br>>  ,in  Opennebubla 4.2  , not !!!<br>><br>> ------------------ ???? ------------------<br>> *???:* "Sharuzzaman Ahmat Raslan";<sharuzzaman@gmail.com>;<br>> *????:* 2013?11?13?(???) ??4:20<br>> *???:* "???"<1360848475@qq.com>;<br>> *??:* "users"<users@lists.opennebula.org>;<br>> *??:* Re: [one-users] Users Digest, Vol 69, Issue 49<br>><br>> If you use shared storage, and have datastore 0 and datastore 100 (your<br>> first datastore) in shared filesystem, eg. NFS, you can have your VM<br>> deployed in short time, as the VM image will be linked to the original<br>> image, or cloned in its own filesystem, which should be faster.<br>><br>> See http://opennebula.org/documentation:archives:rel3.4:system_ds for<br>> more information<br>><br>><br>> On Wed, Nov 13, 2013 at 4:05 PM, ??? <1360848475@qq.com> wrote:<br>><br>>> HI,everyone<br>>>     when I  create  many VMs(more than  100),it still  scp images from<br>>> image datastores.it  will be very  slow. Is there  any way  to<br>>> accelerate  for creating VM  like local caching  images;<br>>><br>>><br>>> ------------------ Original ------------------<br>>> *From: * "users-request";<users-request@lists.opennebula.org>;<br>>> *Date: * Wed, Nov 13, 2013 12:43 PM<br>>> *To: * "users"<users@lists.opennebula.org>;<br>>> *Subject: * Users Digest, Vol 69, Issue 49<br>>><br>>> Send Users mailing list submissions to<br>>> users@lists.opennebula.org<br>>><br>>> To subscribe or unsubscribe via the World Wide Web, visit<br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> or, via email, send a message with subject or body 'help' to<br>>> users-request@lists.opennebula.org<br>>><br>>> You can reach the person managing the list at<br>>> users-owner@lists.opennebula.org<br>>><br>>> When replying, please edit your Subject line so it is more specific<br>>> than "Re: Contents of Users digest..."<br>>><br>>><br>>> Today's Topics:<br>>><br>>>    1. Re: How to manage vm created by opennebula by virsh tools? (caohf)<br>>>    2. Re: how to reset VM ID??? (???)<br>>>    3. Re: VM in Opennebula for Esxi 5.1 failed (Catalina Quinde)<br>>><br>>><br>>> ----------------------------------------------------------------------<br>>><br>>> Message: 1<br>>> Date: Wed, 13 Nov 2013 09:02:47 +0800<br>>> From: caohf <caohf@wedogame.com><br>>> To: vishnu e divakaran <vishnued@gmail.com><br>>> Cc: "users@lists.opennebula.org" <Users@lists.opennebula.org><br>>> Subject: Re: [one-users] How to manage vm created by opennebula by<br>>> virsh tools?<br>>> Message-ID: <201311130902475444642@wedogame.com><br>>> Content-Type: text/plain; charset="utf-8"<br>>><br>>> HI:<br>>> Here is a document for virsh-install ,this command can help you create a<br>>> image file.<br>>><br>>> http://www.techotopia.com/index.php/Installing_a_CentOS_KVM_Guest_OS_from_the_Command-line_(virt-install)<br>>><br>>> After you finsh the installlation,you can import the  image file into<br>>> opennebula via sunstone.<br>>><br>>><br>>><br>>>  Best Wishes!<br>>>  Dennis<br>>><br>>> From: vishnu e divakaran<br>>> Date: 2013-11-12 21:40<br>>> To: caohf<br>>> Subject: Re: [one-users] How to manage vm created by opennebula by virsh<br>>> tools?<br>>> dear friend,<br>>><br>>> can you tell me how can I create a image file using virsh? any sample<br>>> code or anything.<br>>><br>>><br>>><br>>><br>>> On 12 November 2013 15:03, caohf <caohf@wedogame.com> wrote:<br>>><br>>> Thanks for your help.<br>>><br>>><br>>><br>>><br>>><br>>> Best wishes<br>>> Dennis<br>>><br>>> From: Sharuzzaman Ahmat Raslan<br>>> Date: 2013-11-12 14:48<br>>> To: caohf<br>>> CC: users@lists.opennebula.org<br>>> Subject: Re: Re: [one-users] How to manage vm created by opennebula by<br>>> virsh tools?<br>>> Hi Dennis,<br>>><br>>><br>>> When Opennebula shutdown a VM, it will destroy the XML file on the host,<br>>> and unregister the VM from KVM.<br>>><br>>><br>>> If you just want it to stop, so that you can do something to the image,<br>>> eg. making a backup, you can use the command<br>>><br>>><br>>> onevm suspend <vmid><br>>><br>>><br>>> then the VM will still be available in the host, and can be queried by<br>>> virsh list command.<br>>><br>>><br>>> Read more at:<br>>><br>>> http://opennebula.org/documentation:rel4.2:vm_guide_2<br>>> http://opennebula.org/doc/4.2/cli/onevm.1.html<br>>><br>>><br>>><br>>><br>>><br>>><br>>><br>>><br>>><br>>> On Tue, Nov 12, 2013 at 12:33 PM, caohf <caohf@wedogame.com> wrote:<br>>><br>>><br>>> Thanks<br>>><br>>> But when i use  virsh  list --all command<br>>><br>>><br>>> -----------------------------------------------------------------<br>>> [root@opennebula-node1 ~]# virsh  list --all<br>>>  Id    Name                           State<br>>> ----------------------------------------------------<br>>>  43    one-111                        running<br>>>  44    one-104                        running<br>>>  48    one-123                        running<br>>>  -     centos5.6.kvm                  shut off<br>>> ----------------------------------------------------------------<br>>><br>>><br>>> if the vm managed by one  is runnning ,it can be list by virsh list --all<br>>> command<br>>><br>>> when I destory a vm.<br>>><br>>><br>>> -------------------------------------------------------------------------<br>>><br>>> [root@opennebula-node1 ~]# virsh  destroy 44<br>>> Domain 44 destroyed<br>>> ------------------------------------------------------------------------<br>>><br>>><br>>> It can't be display by virsh command<br>>><br>>><br>>> --------------------------------------------------------<br>>> [root@opennebula-node1 ~]# virsh  list --all<br>>>  Id    Name                           State<br>>> ----------------------------------------------------<br>>>  43    one-111                        running<br>>>  48    one-123                        running<br>>>  -     centos5.6.kvm                  shut off<br>>> -----------------------------------------------------------<br>>><br>>> How to fix this<br>>><br>>><br>>><br>>> Best Wishes!<br>>> Dennis<br>>><br>>> From: Sharuzzaman Ahmat Raslan<br>>> Date: 2013-11-12 11:48<br>>> To: caohf<br>>> CC: users@lists.opennebula.org<br>>> Subject: Re: Re: [one-users] How to manage vm created by opennebula by<br>>> virsh tools?<br>>> Hi Dennis,<br>>><br>>><br>>> Opennebula is still using libvirt for KVM-based nodes.<br>>><br>>><br>>> You can still stop/start the VM using normal virsh command, such as virsh<br>>> stop, virsh start, virsh attach-device etc.<br>>><br>>><br>>> But doing so directly to the VM, will cause your VM to not shutting down<br>>> properly if you onevm shutdown from Opennebula later. That's what I have<br>>> experience before.<br>>><br>>><br>>> Thanks.<br>>><br>>><br>>><br>>><br>>><br>>><br>>><br>>> On Tue, Nov 12, 2013 at 11:34 AM, caohf <caohf@wedogame.com> wrote:<br>>><br>>> Hi :<br>>>  I have another  system use virsh(libvirt) manage the kvm vms,when i use<br>>> opennebula ,I also want to use my old system.<br>>>  Opennebula provide the libvirt drivers in the old version.<br>>><br>>><br>>><br>>><br>>> Best Wishes!<br>>> Dennis<br>>><br>>> From: Sharuzzaman Ahmat Raslan<br>>> Date: 2013-11-12 11:13<br>>> To: caohf<br>>> CC: users@lists.opennebula.org<br>>> Subject: Re: [one-users] How to manage vm created by opennebula by virsh<br>>> tools?<br>>> Hi Dennis,<br>>><br>>><br>>> What actually that you want to achieve?<br>>><br>>><br>>> Thanks.<br>>><br>>><br>>><br>>><br>>><br>>><br>>> On Tue, Nov 12, 2013 at 9:58 AM, caohf <caohf@wedogame.com> wrote:<br>>><br>>> Dear All:<br>>> How to manage vm created by opennebula by virsh tool?<br>>><br>>><br>>><br>>><br>>> Best Wishes!<br>>> Dennis<br>>><br>>><br>>> _______________________________________________<br>>> Users mailing list<br>>> Users@lists.opennebula.org<br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>><br>>><br>>><br>>><br>>><br>>> --<br>>> Sharuzzaman Ahmat Raslan<br>>><br>>><br>>><br>>> --<br>>> Sharuzzaman Ahmat Raslan<br>>><br>>><br>>><br>>> --<br>>> Sharuzzaman Ahmat Raslan<br>>><br>>> _______________________________________________<br>>> Users mailing list<br>>> Users@lists.opennebula.org<br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> -------------- next part --------------<br>>> An HTML attachment was scrubbed...<br>>> URL: <<br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131113/d9e95aa7/attachment-0001.htm<br>>> ><br>>><br>>> ------------------------------<br>>><br>>> Message: 2<br>>> Date: Wed, 13 Nov 2013 10:22:40 +0900<br>>> From: ??? <jaekeun0208@gmail.com><br>>> To: Javier Fontan <jfontan@opennebula.org><br>>> Cc: Users OpenNebula <users@lists.opennebula.org><br>>> Subject: Re: [one-users] how to reset VM ID???<br>>> Message-ID:<br>>> <CAPvw6THpk-mvyvcacUN_O9PO=pGA_z1h5yTya1xaYz-1dG8RYw@mail.gmail.com><br>>> Content-Type: text/plain; charset="utf-8"<br>>><br>>> should I open all port?? from 5900 to 65535??<br>>><br>>><br>>><br>>><br>>> 2013/11/12 Javier Fontan <jfontan@opennebula.org><br>>><br>>> > There's not an way to reset ID and we discourage it. The code to<br>>> > generate the VNC port is<br>>> ><br>>> > --8<------<br>>> > int limit = 65535;<br>>> > oss << ( base_port + ( oid % (limit - base_port) ));<br>>> > ------>8--<br>>> ><br>>> > base_port is 5900 by default. You should not have problems with the<br>>> > port as it goes back to 5900 after reaching 65535.<br>>> ><br>>> ><br>>> ><br>>> > On Tue, Nov 12, 2013 at 9:35 AM, ??? <jaekeun0208@gmail.com> wrote:<br>>> > > Dear All<br>>> > ><br>>> > > how to reset VM ID??<br>>> > ><br>>> > > I already exceed over 10400.....<br>>> > ><br>>> > > actually, I want to control vnc port.<br>>> > > I saw the VM log file in qemu. It show me that the vnc port is same<br>>> with<br>>> > VM<br>>> > > ID.<br>>> > ><br>>> > > If I specify the vnc port in opennebula template, I can`t make 2 more<br>>> VMs<br>>> > > with same template because of vnc port duplication.<br>>> > ><br>>> > > thanks :D<br>>> > ><br>>> > > _______________________________________________<br>>> > > Users mailing list<br>>> > > Users@lists.opennebula.org<br>>> > > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > ><br>>> ><br>>> ><br>>> ><br>>> > --<br>>> > Javier Font?n Mui?os<br>>> > Developer<br>>> > OpenNebula - The Open Source Toolkit for Data Center Virtualization<br>>> > www.OpenNebula.org | @OpenNebula | github.com/jfontan<br>>> ><br>>> -------------- next part --------------<br>>> An HTML attachment was scrubbed...<br>>> URL: <<br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131113/77c99a89/attachment-0001.htm<br>>> ><br>>><br>>> ------------------------------<br>>><br>>> Message: 3<br>>> Date: Tue, 12 Nov 2013 23:43:45 -0500<br>>> From: Catalina Quinde <catalinaquinde@gmail.com><br>>> To: users@lists.opennebula.org<br>>> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> Message-ID:<br>>> <CAPgz++zva8tb3hBfzJqazCSjC+QF7SqgdOZrJBQrGgbn=z9UJQ@mail.gmail.com><br>>> Content-Type: text/plain; charset="iso-8859-1"<br>>><br>>> Tino,<br>>><br>>> In my case Esxi is installed on a flash memory and the computer  hard disk<br>>> has partitions with several other hypervisors<br>>><br>>> I used Vsphere client to create the datastores 102 and 103, with the<br>>> options Add Datastore, Disk / LUN .... but on the screen where you select<br>>> the hard disk on which to create the datastores, displayed the original<br>>> computer hard drive and not flash memory where you really should add the<br>>> datastore, then, there is an error message for creating datastore.<br>>><br>>> Can not change the host configuration<br>>> Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object<br>>> "ha-datastoresystem" on ESXi "192 168 147 131" failed....<br>>><br>>> Esxi is installed in flash memory.<br>>><br>>> Regards, Caty.<br>>><br>>><br>>> 2013/11/12 < users-request@lists.opennebula.org><br>>><br>>> > Send Users mailing list submissions to<br>>> >         users@lists.opennebula.org<br>>> ><br>>> > To subscribe or unsubscribe via the World Wide Web, visit<br>>> >         http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > or, via email, send a message with subject or body 'help' to<br>>> >         users-request@lists.opennebula.org<br>>> ><br>>> > You can reach the person managing the list at<br>>> >         users-owner@lists.opennebula.org<br>>> ><br>>> > When replying, please edit your Subject line so it is more specific<br>>> > than "Re: Contents of Users digest..."<br>>> ><br>>> ><br>>> > Today's Topics:<br>>> ><br>>> >    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>>> ><br>>> ><br>>> > ----------------------------------------------------------------------<br>>> ><br>>> > Message: 1<br>>> > Date: Tue, 12 Nov 2013 18:36:43 +0100<br>>> > From: Tino Vazquez <tinova79@gmail.com><br>>> > To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > Cc: users <users@lists.opennebula.org><br>>> > Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > Message-ID:<br>>> >         <<br>>> > CAHfKwc2LoKDt97kPZAjB4tCX5RqxddmbvBDRZqM6mauT1DNUvA@mail.gmail.com><br>>> > Content-Type: text/plain; charset=ISO-8859-1<br>>> ><br>>> > Hi Catalina,<br>>> ><br>>> > You need to mount both datastores (102 and 103) in the ESX so they can<br>>> > access them. So, there should be the following routes present in the<br>>> > ESX<br>>> ><br>>> >  * /vmfs/volumes/102<br>>> >  * /vmfs/volumes/103<br>>> ><br>>> > Regards,<br>>> ><br>>> > -Tino<br>>> > --<br>>> > Constantino V?zquez Blanco, PhD, MSc<br>>> > Senior Infrastructure Architect at C12G Labs<br>>> > www.OpenNebula.org | @tinova79  | es.linkedin.com/in/tinova<br>>> ><br>>> ><br>>> > On Tue, Nov 12, 2013 at 4:52 PM, Catalina Quinde<br>>> > <catalinaquinde@gmail.com> wrote:<br>>> > > Tino, as I explained there are no directories created 102 and 103 in<br>>> the<br>>> > /<br>>> > > vmfs / volumes on node Esxi.<br>>> > ><br>>> > > Thanks Tino.<br>>> > ><br>>> > ><br>>> > > 2013/11/12 <users-request@lists.opennebula.org><br>>> > >><br>>> > >> Send Users mailing list submissions to<br>>> > >>         users@lists.opennebula.org<br>>> > >><br>>> > >> To subscribe or unsubscribe via the World Wide Web, visit<br>>> > >><br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> or, via email, send a message with subject or body 'help' to<br>>> > >>         users-request@lists.opennebula.org<br>>> > >><br>>> > >> You can reach the person managing the list at<br>>> > >>         users-owner@lists.opennebula.org<br>>> > >><br>>> > >> When replying, please edit your Subject line so it is more specific<br>>> > >> than "Re: Contents of Users digest..."<br>>> > >><br>>> > >><br>>> > >> Today's Topics:<br>>> > >><br>>> > >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>>> > >><br>>> > >><br>>> > >><br>>> ----------------------------------------------------------------------<br>>> > >><br>>> > >> Message: 1<br>>> > >> Date: Tue, 12 Nov 2013 15:16:23 +0100<br>>> > >> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> Cc: users <users@lists.opennebula.org><br>>> > >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > >> Message-ID:<br>>> > >><br>>> > >> <CAHfKwc1w930-f9oDhbLRG4GEzK9Au9HrC0D12nO8bjKqqF23dg@mail.gmail.com><br>>> > >> Content-Type: text/plain; charset=ISO-8859-1<br>>> > >><br>>> > >> Hi Catalina,<br>>> > >><br>>> > >> Could you make sure that datastores 102 and 103 are mounted in the<br>>> ESX<br>>> > >> hosts?<br>>> > >><br>>> > >> Regards,<br>>> > >><br>>> > >> -Tino<br>>> > >><br>>> > >> --<br>>> > >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >><br>>> > >> --<br>>> > >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> Senior Infrastructure Architect at C12G Labs<br>>> > >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >><br>>> > >> --<br>>> > >> Confidentiality Warning: The information contained in this e-mail and<br>>> > >> any accompanying documents, unless otherwise expressly indicated, is<br>>> > >> confidential and privileged, and is intended solely for the person<br>>> > >> and/or entity to whom it is addressed (i.e. those identified in the<br>>> > >> "To" and "cc" box). They are the property of C12G Labs S.L..<br>>> > >> Unauthorized distribution, review, use, disclosure, or copying of<br>>> this<br>>> > >> communication, or any part thereof, is strictly prohibited and may be<br>>> > >> unlawful. If you have received this e-mail in error, please notify us<br>>> > >> immediately by e-mail at abuse@c12g.com and delete the e-mail and<br>>> > >> attachments and any copy from your system. C12G thanks you for your<br>>> > >> cooperation.<br>>> > >><br>>> > >><br>>> > >> On Tue, Nov 12, 2013 at 10:55 AM, Tino Vazquez <cvazquez@c12g.com><br>>> > wrote:<br>>> > >> > Hi Catalina,<br>>> > >> ><br>>> > >> > So, the connectivity to the host seems to be OK, but still the<br>>> monitor<br>>> > >> > data doesn't look valid. Let's try to figure out why.<br>>> > >> ><br>>> > >> > What's the output of the following (as oneadmin, in the front-end)<br>>> > >> ><br>>> > >> >  $ ssh 92.168.147.131  "df -m | grep /vmfs/volumes/103"<br>>> > >> ><br>>> > >> > Regards,<br>>> > >> ><br>>> > >> > -Tino<br>>> > >> > --<br>>> > >> > OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> ><br>>> > >> > --<br>>> > >> > Constantino V?zquez Blanco, PhD, MSc<br>>> > >> > Senior Infrastructure Architect at C12G Labs<br>>> > >> > www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> ><br>>> > >> > --<br>>> > >> > Confidentiality Warning: The information contained in this e-mail<br>>> and<br>>> > >> > any accompanying documents, unless otherwise expressly indicated,<br>>> is<br>>> > >> > confidential and privileged, and is intended solely for the person<br>>> > >> > and/or entity to whom it is addressed (i.e. those identified in the<br>>> > >> > "To" and "cc" box). They are the property of C12G Labs S.L..<br>>> > >> > Unauthorized distribution, review, use, disclosure, or copying of<br>>> this<br>>> > >> > communication, or any part thereof, is strictly prohibited and may<br>>> be<br>>> > >> > unlawful. If you have received this e-mail in error, please notify<br>>> us<br>>> > >> > immediately by e-mail at abuse@c12g.com and delete the e-mail and<br>>> > >> > attachments and any copy from your system. C12G thanks you for your<br>>> > >> > cooperation.<br>>> > >> ><br>>> > >> ><br>>> > >> > On Mon, Nov 11, 2013 at 8:20 PM, Catalina Quinde<br>>> > >> > <catalinaquinde@gmail.com> wrote:<br>>> > >> >> Hi Tino, this displays<br>>> > >> >><br>>> > >> >> oneadmin@ubuntuOpNeb:~$ bash -x<br>>> > >> >> /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >><br>>> > >> >><br>>> ><br>>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>> >  W0N<br>>> > >><br>>> > >><br>>> ><br>>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >> 103<br>>> > >> >> + '[' -z '' ']'<br>>> > >> >> + LIB_LOCATION=/usr/lib/one<br>>> > >> >> + . /usr/lib/one/sh/scripts_common.sh<br>>> > >> >> ++ export LANG=C<br>>> > >> >> ++ LANG=C<br>>> > >> >> ++ export<br>>> > >> >><br>>> > >> >><br>>> ><br>>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>>> > >> >> ++<br>>> > >> >><br>>> > >> >><br>>> ><br>>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>>> > >> >> ++ AWK=awk<br>>> > >> >> ++ BASH=bash<br>>> > >> >> ++ CUT=cut<br>>> > >> >> ++ DATE=date<br>>> > >> >> ++ DD=dd<br>>> > >> >> ++ DU=du<br>>> > >> >> ++ GREP=grep<br>>> > >> >> ++ ISCSIADM=iscsiadm<br>>> > >> >> ++ LVCREATE=lvcreate<br>>> > >> >> ++ LVREMOVE=lvremove<br>>> > >> >> ++ LVRENAME=lvrename<br>>> > >> >> ++ LVS=lvs<br>>> > >> >> ++ LN=ln<br>>> > >> >> ++ MD5SUM=md5sum<br>>> > >> >> ++ MKFS=mkfs<br>>> > >> >> ++ MKISOFS=genisoimage<br>>> > >> >> ++ MKSWAP=mkswap<br>>> > >> >> ++ QEMU_IMG=qemu-img<br>>> > >> >> ++ RADOS=rados<br>>> > >> >> ++ RBD=rbd<br>>> > >> >> ++ READLINK=readlink<br>>> > >> >> ++ RM=rm<br>>> > >> >> ++ SCP=scp<br>>> > >> >> ++ SED=sed<br>>> > >> >> ++ SSH=ssh<br>>> > >> >> ++ SUDO=sudo<br>>> > >> >> ++ SYNC=sync<br>>> > >> >> ++ TAR=tar<br>>> > >> >> ++ TGTADM=tgtadm<br>>> > >> >> ++ TGTADMIN=tgt-admin<br>>> > >> >> ++ TGTSETUPLUN=tgt-setup-lun-one<br>>> > >> >> ++ VMKFSTOOLS=vmkfstools<br>>> > >> >> ++ WGET=wget<br>>> > >> >> +++ uname -s<br>>> > >> >> ++ '[' xLinux = xLinux ']'<br>>> > >> >> ++ SED='sed -r'<br>>> > >> >> +++ basename /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >> ++ SCRIPT_NAME=monitor<br>>> > >> >> ++ dirname /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >> + DRIVER_PATH=/var/lib/one/remotes/datastore/vmfs<br>>> > >> >> + source /var/lib/one/remotes/datastore/vmfs/../libfs.sh<br>>> > >> >> +<br>>> > >> >><br>>> > >> >><br>>> ><br>>> DRV_ACTION=PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEP<br>>> >  jxU<br>>> > >><br>>> > >><br>>> ><br>>> WVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >> + ID=103<br>>> > >> >> + XPATH='/var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>>> > >> >><br>>> > >> >><br>>> ><br>>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>> >  W0N<br>>> > >><br>>> > >><br>>> ><br>>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+'<br>>> > >> >> + unset i XPATH_ELEMENTS<br>>> > >> >> + IFS=<br>>> > >> >> + read -r -d '' element<br>>> > >> >> ++ /var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>>> > >> >><br>>> > >> >><br>>> ><br>>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwh<br>>> >  W0N<br>>> > >><br>>> > >><br>>> ><br>>> EQVRBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >> /DS_DRIVER_ACTION_DATA/DATASTORE/BASE_PATH<br>>> > >> >> /DS_DRIVER_ACTION_DATA/DATASTORE/TEMPLATE/BRIDGE_LIST<br>>> > >> >> + XPATH_ELEMENTS[i++]=/vmfs/volumes/103<br>>> > >> >> + IFS=<br>>> > >> >> + read -r -d '' element<br>>> > >> >> + XPATH_ELEMENTS[i++]=192.168.147.131<br>>> > >> >> + IFS=<br>>> > >> >> + read -r -d '' element<br>>> > >> >> + BASE_PATH=/vmfs/volumes/103<br>>> > >> >> + BRIDGE_LIST=192.168.147.131<br>>> > >> >> ++ get_destination_host 103<br>>> > >> >> ++ HOSTS_ARRAY=($BRIDGE_LIST)<br>>> > >> >> +++ expr 103 % 1<br>>> > >> >> ++ ARRAY_INDEX=0<br>>> > >> >> ++ echo 192.168.147.131<br>>> > >> >> + HOST=192.168.147.131<br>>> > >> >> ++ cat<br>>> > >> >> + MONITOR_SCRIPT='USED_MB=$(du -sLm /vmfs/volumes/103 2>/dev/null<br>>> |<br>>> > cut<br>>> > >> >> -f1)<br>>> > >> >><br>>> > >> >> DF_STR=$(df -m | grep /vmfs/volumes/103 | sed '\''s/ \+/:/g'\'')<br>>> > >> >><br>>> > >> >> TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >> FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >><br>>> > >> >> echo "USED_MB=$USED_MB"<br>>> > >> >> echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >> echo "FREE_MB=$FREE_MB"'<br>>> > >> >> ++ ssh_monitor_and_log 192.168.147.131 'USED_MB=$(du -sLm<br>>> > >> >> /vmfs/volumes/103<br>>> > >> >> 2>/dev/null | cut -f1)<br>>> > >> >><br>>> > >> >> DF_STR=$(df -m | grep /vmfs/volumes/103 | sed '\''s/ \+/:/g'\'')<br>>> > >> >><br>>> > >> >> TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >> FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >><br>>> > >> >> echo "USED_MB=$USED_MB"<br>>> > >> >> echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >> echo "FREE_MB=$FREE_MB"'<br>>> > >> >> + MONITOR_DATA='+++ ssh 192.168.147.131 sh -s<br>>> > >> >> ++ SSH_EXEC_OUT='\''USED_MB=<br>>> > >> >> TOTAL_MB=<br>>> > >> >> FREE_MB='\''<br>>> > >> >> ++ SSH_EXEC_RC=0<br>>> > >> >> ++ '\''['\'' 0 -ne 0 '\'']'\''<br>>> > >> >> ++ echo USED_MB= TOTAL_MB= FREE_MB=<br>>> > >> >> USED_MB= TOTAL_MB= FREE_MB='<br>>> > >> >> + MONITOR_STATUS=0<br>>> > >> >> + '[' 0 = 0 ']'<br>>> > >> >> + tr ' ' '\n'<br>>> > >> >> + echo '+++ ssh 192.168.147.131 sh -s<br>>> > >> >> ++ SSH_EXEC_OUT='\''USED_MB=<br>>> > >> >> TOTAL_MB=<br>>> > >> >> FREE_MB='\''<br>>> > >> >> ++ SSH_EXEC_RC=0<br>>> > >> >> ++ '\''['\'' 0 -ne 0 '\'']'\''<br>>> > >> >> ++ echo USED_MB= TOTAL_MB= FREE_MB=<br>>> > >> >> USED_MB= TOTAL_MB= FREE_MB='<br>>> > >> >> +++<br>>> > >> >> ssh<br>>> > >> >> 192.168.147.131<br>>> > >> >> sh<br>>> > >> >> -s<br>>> > >> >> ++<br>>> > >> >> SSH_EXEC_OUT='USED_MB=<br>>> > >> >> TOTAL_MB=<br>>> > >> >> FREE_MB='<br>>> > >> >> ++<br>>> > >> >> SSH_EXEC_RC=0<br>>> > >> >> ++<br>>> > >> >> '['<br>>> > >> >> 0<br>>> > >> >> -ne<br>>> > >> >> 0<br>>> > >> >> ']'<br>>> > >> >> ++<br>>> > >> >> echo<br>>> > >> >> USED_MB=<br>>> > >> >> TOTAL_MB=<br>>> > >> >> FREE_MB=<br>>> > >> >> USED_MB=<br>>> > >> >> TOTAL_MB=<br>>> > >> >> FREE_MB=<br>>> > >> >> oneadmin@ubuntuOpNeb:~$<br>>> > >> >><br>>> > >> >><br>>> > >> >><br>>> > >> >> 2013/11/11 <users-request@lists.opennebula.org><br>>> > >> >>><br>>> > >> >>> Send Users mailing list submissions to<br>>> > >> >>>         users@lists.opennebula.org<br>>> > >> >>><br>>> > >> >>> To subscribe or unsubscribe via the World Wide Web, visit<br>>> > >> >>><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> or, via email, send a message with subject or body 'help' to<br>>> > >> >>>         users-request@lists.opennebula.org<br>>> > >> >>><br>>> > >> >>> You can reach the person managing the list at<br>>> > >> >>>         users-owner@lists.opennebula.org<br>>> > >> >>><br>>> > >> >>> When replying, please edit your Subject line so it is more<br>>> specific<br>>> > >> >>> than "Re: Contents of Users digest..."<br>>> > >> >>><br>>> > >> >>><br>>> > >> >>> Today's Topics:<br>>> > >> >>><br>>> > >> >>>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>>> > >> >>><br>>> > >> >>><br>>> > >> >>><br>>> > ----------------------------------------------------------------------<br>>> > >> >>><br>>> > >> >>> Message: 1<br>>> > >> >>> Date: Mon, 11 Nov 2013 18:20:21 +0100<br>>> > >> >>> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> >>> Cc: users <users@lists.opennebula.org><br>>> > >> >>> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > >> >>> Message-ID:<br>>> > >> >>><br>>> > >> >>> <CAHfKwc3Q1_pp_Xg6p9TujOyELvrSZuzzp=<br>>> E+FzCKovmEEUaS8A@mail.gmail.com<br>>> > ><br>>> > >> >>> Content-Type: text/plain; charset=ISO-8859-1<br>>> > >> >>><br>>> > >> >>> Hi Catalina,<br>>> > >> >>><br>>> > >> >>> You need to execute it as a single line. you can copy it from<br>>> this<br>>> > >> >>> gist:<br>>> > >> >>><br>>> > >> >>> https://gist.github.com/jfontan/aea29c477d597f3c97f8<br>>> > >> >>><br>>> > >> >>> Regards,<br>>> > >> >>><br>>> > >> >>> -Tino<br>>> > >> >>><br>>> > >> >>> --<br>>> > >> >>> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>><br>>> > >> >>> --<br>>> > >> >>> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>><br>>> > >> >>> --<br>>> > >> >>> Confidentiality Warning: The information contained in this e-mail<br>>> > and<br>>> > >> >>> any accompanying documents, unless otherwise expressly<br>>> indicated, is<br>>> > >> >>> confidential and privileged, and is intended solely for the<br>>> person<br>>> > >> >>> and/or entity to whom it is addressed (i.e. those identified in<br>>> the<br>>> > >> >>> "To" and "cc" box). They are the property of C12G Labs S.L..<br>>> > >> >>> Unauthorized distribution, review, use, disclosure, or copying of<br>>> > this<br>>> > >> >>> communication, or any part thereof, is strictly prohibited and<br>>> may<br>>> > be<br>>> > >> >>> unlawful. If you have received this e-mail in error, please<br>>> notify<br>>> > us<br>>> > >> >>> immediately by e-mail at abuse@c12g.com and delete the e-mail<br>>> and<br>>> > >> >>> attachments and any copy from your system. C12G thanks you for<br>>> your<br>>> > >> >>> cooperation.<br>>> > >> >>><br>>> > >> >>><br>>> > >> >>> On Mon, Nov 11, 2013 at 6:14 PM, Catalina Quinde<br>>> > >> >>> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> > Ready this command displays<br>>> > >> >>> ><br>>> > >> >>> > oneadmin@ubuntuOpNeb:~$ bash -x<br>>> > >> >>> > /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >>> > + '[' -z '' ']'<br>>> > >> >>> > + LIB_LOCATION=/usr/lib/one<br>>> > >> >>> > + . /usr/lib/one/sh/scripts_common.sh<br>>> > >> >>> > ++ export LANG=C<br>>> > >> >>> > ++ LANG=C<br>>> > >> >>> > ++ export<br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> ><br>>> ><br>>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>>> > >> >>> > ++<br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> ><br>>> ><br>>> PATH=/bin:/sbin:/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games<br>>> > >> >>> > ++ AWK=awk<br>>> > >> >>> > ++ BASH=bash<br>>> > >> >>> > ++ CUT=cut<br>>> > >> >>> > ++ DATE=date<br>>> > >> >>> > ++ DD=dd<br>>> > >> >>> > ++ DU=du<br>>> > >> >>> > ++ GREP=grep<br>>> > >> >>> > ++ ISCSIADM=iscsiadm<br>>> > >> >>> > ++ LVCREATE=lvcreate<br>>> > >> >>> > ++ LVREMOVE=lvremove<br>>> > >> >>> > ++ LVRENAME=lvrename<br>>> > >> >>> > ++ LVS=lvs<br>>> > >> >>> > ++ LN=ln<br>>> > >> >>> > ++ MD5SUM=md5sum<br>>> > >> >>> > ++ MKFS=mkfs<br>>> > >> >>> > ++ MKISOFS=genisoimage<br>>> > >> >>> > ++ MKSWAP=mkswap<br>>> > >> >>> > ++ QEMU_IMG=qemu-img<br>>> > >> >>> > ++ RADOS=rados<br>>> > >> >>> > ++ RBD=rbd<br>>> > >> >>> > ++ READLINK=readlink<br>>> > >> >>> > ++ RM=rm<br>>> > >> >>> > ++ SCP=scp<br>>> > >> >>> > ++ SED=sed<br>>> > >> >>> > ++ SSH=ssh<br>>> > >> >>> > ++ SUDO=sudo<br>>> > >> >>> > ++ SYNC=sync<br>>> > >> >>> > ++ TAR=tar<br>>> > >> >>> > ++ TGTADM=tgtadm<br>>> > >> >>> > ++ TGTADMIN=tgt-admin<br>>> > >> >>> > ++ TGTSETUPLUN=tgt-setup-lun-one<br>>> > >> >>> > ++ VMKFSTOOLS=vmkfstools<br>>> > >> >>> > ++ WGET=wget<br>>> > >> >>> > +++ uname -s<br>>> > >> >>> > ++ '[' xLinux = xLinux ']'<br>>> > >> >>> > ++ SED='sed -r'<br>>> > >> >>> > +++ basename /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >>> > ++ SCRIPT_NAME=monitor<br>>> > >> >>> > ++ dirname /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >>> > + DRIVER_PATH=/var/lib/one/remotes/datastore/vmfs<br>>> > >> >>> > + source /var/lib/one/remotes/datastore/vmfs/../libfs.sh<br>>> > >> >>> > + DRV_ACTION=<br>>> > >> >>> > + ID=<br>>> > >> >>> > + XPATH='/var/lib/one/remotes/datastore/vmfs/../xpath.rb -b '<br>>> > >> >>> > + unset i XPATH_ELEMENTS<br>>> > >> >>> > + IFS=<br>>> > >> >>> > + read -r -d '' element<br>>> > >> >>> > ++ /var/lib/one/remotes/datastore/vmfs/../xpath.rb -b<br>>> > >> >>> > /DS_DRIVER_ACTION_DATA/DATASTORE/BASE_PATH<br>>> > >> >>> > /DS_DRIVER_ACTION_DATA/DATASTORE/TEMPLATE/BRIDGE_LIST<br>>> > >> >>> > /var/lib/one/remotes/datastore/vmfs/../xpath.rb:61: undefined<br>>> > method<br>>> > >> >>> > `elements' for nil:NilClass (NoMethodError)<br>>> > >> >>> >     from /var/lib/one/remotes/datastore/vmfs/../xpath.rb:60:in<br>>> > >> >>> > `each'<br>>> > >> >>> >     from /var/lib/one/remotes/datastore/vmfs/../xpath.rb:60<br>>> > >> >>> > + BASE_PATH=<br>>> > >> >>> > + BRIDGE_LIST=<br>>> > >> >>> > ++ get_destination_host<br>>> > >> >>> > ++ HOSTS_ARRAY=($BRIDGE_LIST)<br>>> > >> >>> > +++ expr % 0<br>>> > >> >>> > expr: syntax error<br>>> > >> >>> > ++ ARRAY_INDEX=<br>>> > >> >>> > ++ echo<br>>> > >> >>> > + HOST=<br>>> > >> >>> > ++ cat<br>>> > >> >>> > + MONITOR_SCRIPT='USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'<br>>> > >> >>> > ++ ssh_monitor_and_log 'USED_MB=$(du -sLm  2>/dev/null | cut<br>>> -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'<br>>> > >> >>> > + MONITOR_DATA='+++ ssh '\''USED_MB=$(du'\'' -sLm<br>>> > >> >>> > '\''2>/dev/null'\''<br>>> > >> >>> > '\''|'\'' cut '\''-f1)'\'' '\''DF_STR=$(df'\'' -m '\''|'\''<br>>> grep<br>>> > >> >>> > '\''|'\''<br>>> > >> >>> > sed '\'''\''\'\'''\''s/'\'' '\''\+/:/g'\''\'\'''\'')'\''<br>>> > >> >>> > '\''TOTAL_MB=$(echo'\'' '\''$DF_STR'\'' '\''|'\'' cut<br>>> > >> >>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\'' -f '\''2)'\''<br>>> > >> >>> > '\''FREE_MB=$(echo'\''<br>>> > >> >>> > '\''$DF_STR'\'' '\''|'\'' cut<br>>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\''<br>>> > >> >>> > -f<br>>> > >> >>> > '\''4)'\'' echo '\''"USED_MB=$USED_MB"'\'' echo<br>>> > >> >>> > '\''"TOTAL_MB=$TOTAL_MB"'\''<br>>> > >> >>> > echo '\''"FREE_MB=$FREE_MB"'\'' sh -s<br>>> > >> >>> > ++ SSH_EXEC_OUT=<br>>> > >> >>> > ++ SSH_EXEC_RC=255<br>>> > >> >>> > ++ '\''['\'' 255 -ne 0 '\'']'\''<br>>> > >> >>> > ++ log_error '\''Command "" failed: '\''<br>>> > >> >>> > ++ log_function ERROR '\''Command "" failed: '\''<br>>> > >> >>> > ++ echo '\''ERROR: monitor: Command "" failed: '\''<br>>> > >> >>> > ERROR: monitor: Command "" failed:<br>>> > >> >>> > ++ error_message '\''Cannot monitor USED_MB=$(du -sLm<br>>> >  2>/dev/null |<br>>> > >> >>> > cut<br>>> > >> >>> > -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/<br>>> \+/:/g'\''\'\'''\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>>> > >> >>> > ++ echo '\''ERROR MESSAGE --8<------'\''<br>>> > >> >>> > ERROR MESSAGE --8<------<br>>> > >> >>> > ++ echo '\''Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut<br>>> > -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/<br>>> \+/:/g'\''\'\'''\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>>> > >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"<br>>> > >> >>> > ++ echo '\''ERROR MESSAGE ------>8--'\''<br>>> > >> >>> > ERROR MESSAGE ------>8--<br>>> > >> >>> > ++ exit 255'<br>>> > >> >>> > + MONITOR_STATUS=255<br>>> > >> >>> > + '[' 255 = 0 ']'<br>>> > >> >>> > + echo '+++ ssh '\''USED_MB=$(du'\'' -sLm '\''2>/dev/null'\''<br>>> > >> >>> > '\''|'\''<br>>> > >> >>> > cut<br>>> > >> >>> > '\''-f1)'\'' '\''DF_STR=$(df'\'' -m '\''|'\'' grep '\''|'\''<br>>> sed<br>>> > >> >>> > '\'''\''\'\'''\''s/'\'' '\''\+/:/g'\''\'\'''\'')'\''<br>>> > >> >>> > '\''TOTAL_MB=$(echo'\''<br>>> > >> >>> > '\''$DF_STR'\'' '\''|'\'' cut<br>>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\''<br>>> > >> >>> > -f<br>>> > >> >>> > '\''2)'\'' '\''FREE_MB=$(echo'\'' '\''$DF_STR'\'' '\''|'\'' cut<br>>> > >> >>> > '\''-d'\''\'\'''\'':'\''\'\'''\'''\'' -f '\''4)'\'' echo<br>>> > >> >>> > '\''"USED_MB=$USED_MB"'\'' echo '\''"TOTAL_MB=$TOTAL_MB"'\''<br>>> echo<br>>> > >> >>> > '\''"FREE_MB=$FREE_MB"'\'' sh -s<br>>> > >> >>> > ++ SSH_EXEC_OUT=<br>>> > >> >>> > ++ SSH_EXEC_RC=255<br>>> > >> >>> > ++ '\''['\'' 255 -ne 0 '\'']'\''<br>>> > >> >>> > ++ log_error '\''Command "" failed: '\''<br>>> > >> >>> > ++ log_function ERROR '\''Command "" failed: '\''<br>>> > >> >>> > ++ echo '\''ERROR: monitor: Command "" failed: '\''<br>>> > >> >>> > ERROR: monitor: Command "" failed:<br>>> > >> >>> > ++ error_message '\''Cannot monitor USED_MB=$(du -sLm<br>>> >  2>/dev/null |<br>>> > >> >>> > cut<br>>> > >> >>> > -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/<br>>> \+/:/g'\''\'\'''\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>>> > >> >>> > ++ echo '\''ERROR MESSAGE --8<------'\''<br>>> > >> >>> > ERROR MESSAGE --8<------<br>>> > >> >>> > ++ echo '\''Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut<br>>> > -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''\'\'''\''s/<br>>> \+/:/g'\''\'\'''\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\''\'\'''\'':'\''\'\'''\'' -f<br>>> 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'\''<br>>> > >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"<br>>> > >> >>> > ++ echo '\''ERROR MESSAGE ------>8--'\''<br>>> > >> >>> > ERROR MESSAGE ------>8--<br>>> > >> >>> > ++ exit 255'<br>>> > >> >>> > +++ ssh 'USED_MB=$(du' -sLm '2>/dev/null' '|' cut '-f1)'<br>>> > >> >>> > 'DF_STR=$(df'<br>>> > >> >>> > -m<br>>> > >> >>> > '|' grep '|' sed ''\''s/' '\+/:/g'\'')' 'TOTAL_MB=$(echo'<br>>> > '$DF_STR'<br>>> > >> >>> > '|'<br>>> > >> >>> > cut<br>>> > >> >>> > '-d'\'':'\''' -f '2)' 'FREE_MB=$(echo' '$DF_STR' '|' cut<br>>> > >> >>> > '-d'\'':'\'''<br>>> > >> >>> > -f<br>>> > >> >>> > '4)' echo '"USED_MB=$USED_MB"' echo '"TOTAL_MB=$TOTAL_MB"' echo<br>>> > >> >>> > '"FREE_MB=$FREE_MB"' sh -s<br>>> > >> >>> > ++ SSH_EXEC_OUT=<br>>> > >> >>> > ++ SSH_EXEC_RC=255<br>>> > >> >>> > ++ '[' 255 -ne 0 ']'<br>>> > >> >>> > ++ log_error 'Command "" failed: '<br>>> > >> >>> > ++ log_function ERROR 'Command "" failed: '<br>>> > >> >>> > ++ echo 'ERROR: monitor: Command "" failed: '<br>>> > >> >>> > ERROR: monitor: Command "" failed:<br>>> > >> >>> > ++ error_message 'Cannot monitor USED_MB=$(du -sLm<br>>> 2>/dev/null |<br>>> > >> >>> > cut<br>>> > >> >>> > -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'<br>>> > >> >>> > ++ echo 'ERROR MESSAGE --8<------'<br>>> > >> >>> > ERROR MESSAGE --8<------<br>>> > >> >>> > ++ echo 'Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut<br>>> -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed '\''s/ \+/:/g'\'')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d'\'':'\'' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"'<br>>> > >> >>> > Cannot monitor USED_MB=$(du -sLm  2>/dev/null | cut -f1)<br>>> > >> >>> ><br>>> > >> >>> > DF_STR=$(df -m | grep  | sed 's/ \+/:/g')<br>>> > >> >>> ><br>>> > >> >>> > TOTAL_MB=$(echo $DF_STR | cut -d':' -f 2)<br>>> > >> >>> > FREE_MB=$(echo $DF_STR | cut -d':' -f 4)<br>>> > >> >>> ><br>>> > >> >>> > echo "USED_MB=$USED_MB"<br>>> > >> >>> > echo "TOTAL_MB=$TOTAL_MB"<br>>> > >> >>> > echo "FREE_MB=$FREE_MB"<br>>> > >> >>> > ++ echo 'ERROR MESSAGE ------>8--'<br>>> > >> >>> > ERROR MESSAGE ------>8--<br>>> > >> >>> > ++ exit 255<br>>> > >> >>> > + exit 255<br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> > 2013/11/11 <users-request@lists.opennebula.org><br>>> > >> >>> >><br>>> > >> >>> >> Send Users mailing list submissions to<br>>> > >> >>> >>         users@lists.opennebula.org<br>>> > >> >>> >><br>>> > >> >>> >> To subscribe or unsubscribe via the World Wide Web, visit<br>>> > >> >>> >><br>>> > >> >>> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> or, via email, send a message with subject or body 'help' to<br>>> > >> >>> >>         users-request@lists.opennebula.org<br>>> > >> >>> >><br>>> > >> >>> >> You can reach the person managing the list at<br>>> > >> >>> >>         users-owner@lists.opennebula.org<br>>> > >> >>> >><br>>> > >> >>> >> When replying, please edit your Subject line so it is more<br>>> > specific<br>>> > >> >>> >> than "Re: Contents of Users digest..."<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> Today's Topics:<br>>> > >> >>> >><br>>> > >> >>> >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Hans-Joachim<br>>> > >> >>> >> Ehlers)<br>>> > >> >>> >><br>>> > >> >>> >>    2. Re: VM in Opennebula for Esxi 5.1 failed (Tino Vazquez)<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > ----------------------------------------------------------------------<br>>> > >> >>> >><br>>> > >> >>> >> Message: 1<br>>> > >> >>> >> Date: Mon, 11 Nov 2013 17:55:24 +0100<br>>> > >> >>> >> From: Hans-Joachim Ehlers <HansJoachim.Ehlers@eumetsat.int><br>>> > >> >>> >> To: 'Catalina Quinde' <catalinaquinde@gmail.com>,<br>>> > >> >>> >>         "Users@lists.opennebula.org"<br>>> > >> >>> >> <Users@lists.opennebula.org><br>>> > >> >>> >><br>>> > >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > >> >>> >> Message-ID:<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> <<br>>> ><br>>> A3ADF8C56ADA0F45BC34F904A6514E280151E8A95E66@EXW10.eum.root.eumetsat.int><br>>> > >> >>> >><br>>> > >> >>> >> Content-Type: text/plain; charset="windows-1252"<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> Use the following ONELINER ....<br>>> > >> >>> >><br>>> > >> >>> >> $ bash -x  /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >>> >><br>>> > >> >>> >> From: users-bounces@lists.opennebula.org<br>>> > >> >>> >> [mailto:users-bounces@lists.opennebula.org] On Behalf Of<br>>> > Catalina<br>>> > >> >>> >> Quinde<br>>> > >> >>> >> Sent: Monday, November 11, 2013 5:50 PM<br>>> > >> >>> >> To: Users@lists.opennebula.org<br>>> > >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > >> >>> >><br>>> > >> >>> >> Hi Tino,<br>>> > >> >>> >> The comand bash -x /var/lib/one/remotes can't execution<br>>> because<br>>> > >> >>> >> this is<br>>> > >> >>> >> directory:<br>>> > >> >>> >><br>>> > >> >>> >> oneadmin@ubuntuOpNeb:~$ bash -x /var/lib/one/remotes/<br>>> > >> >>> >> /var/lib/one/remotes/: /var/lib/one/remotes/: es un directorio<br>>> > >> >>> >> This directory contains:<br>>> > >> >>> >> oneadmin@ubuntuOpNeb:~$ ls /var/lib/one/remotes/<br>>> > >> >>> >> auth  datastore  hooks  im  scripts_common.rb<br>>> scripts_common.sh<br>>> > >> >>> >> tm<br>>> > >> >>> >> vmm<br>>> > >> >>> >> vnm<br>>> > >> >>> >> -------------- next part --------------<br>>> > >> >>> >> An HTML attachment was scrubbed...<br>>> > >> >>> >> URL:<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> <<br>>> ><br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131111/5c1feeee/attachment-0001.htm<br>>> > ><br>>> > >> >>> >><br>>> > >> >>> >> ------------------------------<br>>> > >> >>> >><br>>> > >> >>> >> Message: 2<br>>> > >> >>> >> Date: Mon, 11 Nov 2013 17:58:35 +0100<br>>> > >> >>> >><br>>> > >> >>> >> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> >>> >> Cc: users <Users@lists.opennebula.org><br>>> > >> >>> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1 failed<br>>> > >> >>> >> Message-ID:<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> <<br>>> > CAHfKwc21-kkPabWgtNwQs07EbbAiC9b8zzFJwMsRt3EXb0umSg@mail.gmail.com><br>>> > >> >>> >> Content-Type: text/plain; charset=ISO-8859-1<br>>> > >> >>> >><br>>> > >> >>> >> Hi,<br>>> > >> >>> >><br>>> > >> >>> >> The following should executed in the same line:<br>>> > >> >>> >><br>>> > >> >>> >> ----8<-----<br>>> > >> >>> >> $ bash -x  /var/lib/one/remotes/datastore/vmfs/monitor<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> ><br>>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xPC9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xPC9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wPC9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZnMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UWVBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0Ny4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBF<br>>> >  Pjw<br>>> > >>  hW0N<br>>> > >> >>>  EQV<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >><br>>> ><br>>> RBW0lNQUdFX0RTXV0+PC9UWVBFPjwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >>> >> 103<br>>> > >> >>> >> --->8-----<br>>> > >> >>> >><br>>> > >> >>> >> Regards,<br>>> > >> >>> >><br>>> > >> >>> >> -T<br>>> > >> >>> >> --<br>>> > >> >>> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >><br>>> > >> >>> >> --<br>>> > >> >>> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >><br>>> > >> >>> >> --<br>>> > >> >>> >> Confidentiality Warning: The information contained in this<br>>> e-mail<br>>> > >> >>> >> and<br>>> > >> >>> >> any accompanying documents, unless otherwise expressly<br>>> indicated,<br>>> > >> >>> >> is<br>>> > >> >>> >> confidential and privileged, and is intended solely for the<br>>> > person<br>>> > >> >>> >> and/or entity to whom it is addressed (i.e. those identified<br>>> in<br>>> > the<br>>> > >> >>> >> "To" and "cc" box). They are the property of C12G Labs S.L..<br>>> > >> >>> >> Unauthorized distribution, review, use, disclosure, or<br>>> copying of<br>>> > >> >>> >> this<br>>> > >> >>> >> communication, or any part thereof, is strictly prohibited and<br>>> > may<br>>> > >> >>> >> be<br>>> > >> >>> >> unlawful. If you have received this e-mail in error, please<br>>> > notify<br>>> > >> >>> >> us<br>>> > >> >>> >> immediately by e-mail at abuse@c12g.com and delete the e-mail<br>>> > and<br>>> > >> >>> >> attachments and any copy from your system. C12G thanks you for<br>>> > your<br>>> > >> >>> >> cooperation.<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> On Mon, Nov 11, 2013 at 5:50 PM, Catalina Quinde<br>>> > >> >>> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> > Hi Tino,<br>>> > >> >>> >> ><br>>> > >> >>> >> > The comand bash -x /var/lib/one/remotes can't execution<br>>> because<br>>> > >> >>> >> > this<br>>> > >> >>> >> > is<br>>> > >> >>> >> > directory:<br>>> > >> >>> >> ><br>>> > >> >>> >> > oneadmin@ubuntuOpNeb:~$ bash -x /var/lib/one/remotes/<br>>> > >> >>> >> > /var/lib/one/remotes/: /var/lib/one/remotes/: es un<br>>> directorio<br>>> > >> >>> >> ><br>>> > >> >>> >> > This directory contains:<br>>> > >> >>> >> ><br>>> > >> >>> >> > oneadmin@ubuntuOpNeb:~$ ls /var/lib/one/remotes/<br>>> > >> >>> >> > auth  datastore  hooks  im  scripts_common.rb<br>>> >  scripts_common.sh<br>>> > >> >>> >> > tm<br>>> > >> >>> >> > vmm<br>>> > >> >>> >> > vnm<br>>> > >> >>> >> ><br>>> > >> >>> >> > Regards, Caty.<br>>> > >> >>> >> ><br>>> > >> >>> >> > 2013/11/11 Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >><br>>> > >> >>> >> >> Hi,<br>>> > >> >>> >> >><br>>> > >> >>> >> >> The setup looks correct, both DS 102 and 103 have the<br>>> correct<br>>> > >> >>> >> >> BASE_PATH. About the monitoring error, could you send the<br>>> > output<br>>> > >> >>> >> >> of<br>>> > >> >>> >> >> the execution of the following as oneadmin in the<br>>> front-end:<br>>> > >> >>> >> >><br>>> > >> >>> >> >>  $ bash -x  /var/lib/one/remotes/<br>>> > >> >>> >> >> datastore/vmfs/monitor<br>>> > >> >>> >> >> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> 0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZ<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> WFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xP<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> C9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xP<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> C9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wP<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> C9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> 05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZ<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> nMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UW<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> VBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48V<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> E9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CP<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> jxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0N<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> y4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQ<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> ><br>>> UQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFP<br>>> > >> >>> >> >><br>>> > jwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >>> >> >> 103<br>>> > >> >>> >> >><br>>> > >> >>> >> >> Regards,<br>>> > >> >>> >> >><br>>> > >> >>> >> >> -Tino<br>>> > >> >>> >> >> --<br>>> > >> >>> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >> >><br>>> > >> >>> >> >> --<br>>> > >> >>> >> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >> >><br>>> > >> >>> >> >> --<br>>> > >> >>> >> >> Confidentiality Warning: The information contained in this<br>>> > >> >>> >> >> e-mail<br>>> > >> >>> >> >> and<br>>> > >> >>> >> >> any accompanying documents, unless otherwise expressly<br>>> > >> >>> >> >> indicated, is<br>>> > >> >>> >> >> confidential and privileged, and is intended solely for the<br>>> > >> >>> >> >> person<br>>> > >> >>> >> >> and/or entity to whom it is addressed (i.e. those<br>>> identified<br>>> > in<br>>> > >> >>> >> >> the<br>>> > >> >>> >> >> "To" and "cc" box). They are the property of C12G Labs<br>>> S.L..<br>>> > >> >>> >> >> Unauthorized distribution, review, use, disclosure, or<br>>> copying<br>>> > >> >>> >> >> of<br>>> > >> >>> >> >> this<br>>> > >> >>> >> >> communication, or any part thereof, is strictly prohibited<br>>> and<br>>> > >> >>> >> >> may<br>>> > >> >>> >> >> be<br>>> > >> >>> >> >> unlawful. If you have received this e-mail in error, please<br>>> > >> >>> >> >> notify<br>>> > >> >>> >> >> us<br>>> > >> >>> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>>> e-mail<br>>> > >> >>> >> >> and<br>>> > >> >>> >> >> attachments and any copy from your system. C12G thanks you<br>>> for<br>>> > >> >>> >> >> your<br>>> > >> >>> >> >> cooperation.<br>>> > >> >>> >> >><br>>> > >> >>> >> >><br>>> > >> >>> >> >> On Mon, Nov 11, 2013 at 4:25 PM, Catalina Quinde<br>>> > >> >>> >> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> >> > Hi friends,<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > The result for command "onedatastore show' are:<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > 1. For datastore system<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > oneadmin@ubuntuOpNeb:~$ onedatastore show 102<br>>> > >> >>> >> >> > DATASTORE 102 INFORMATION<br>>> > >> >>> >> >> > ID             : 102<br>>> > >> >>> >> >> > NAME           : ssh_dsEsxi<br>>> > >> >>> >> >> > USER           : oneadmin<br>>> > >> >>> >> >> > GROUP          : oneadmin<br>>> > >> >>> >> >> > CLUSTER        : Esxiclus<br>>> > >> >>> >> >> > TYPE           : SYSTEM<br>>> > >> >>> >> >> > DS_MAD         : -<br>>> > >> >>> >> >> > TM_MAD         : vmfs<br>>> > >> >>> >> >> > BASE PATH      : /vmfs/volumes/102<br>>> > >> >>> >> >> > DISK_TYPE      : FILE<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > DATASTORE CAPACITY<br>>> > >> >>> >> >> > TOTAL:         : -<br>>> > >> >>> >> >> > USED:          : -<br>>> > >> >>> >> >> > FREE:          : -<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > PERMISSIONS<br>>> > >> >>> >> >> > OWNER          : um-<br>>> > >> >>> >> >> > GROUP          : u--<br>>> > >> >>> >> >> > OTHER          : ---<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > DATASTORE TEMPLATE<br>>> > >> >>> >> >> > BRIDGE_LIST="192.168.147.131"<br>>> > >> >>> >> >> > TM_MAD="vmfs"<br>>> > >> >>> >> >> > TYPE="SYSTEM_DS"<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > IMAGES<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > 2. For datastore image<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > oneadmin@ubuntuOpNeb:~$ onedatastore show 103<br>>> > >> >>> >> >> > DATASTORE 103 INFORMATION<br>>> > >> >>> >> >> > ID             : 103<br>>> > >> >>> >> >> > NAME           : ssh_diEsxi<br>>> > >> >>> >> >> > USER           : oneadmin<br>>> > >> >>> >> >> > GROUP          : oneadmin<br>>> > >> >>> >> >> > CLUSTER        : Esxiclus<br>>> > >> >>> >> >> > TYPE           : IMAGE<br>>> > >> >>> >> >> > DS_MAD         : vmfs<br>>> > >> >>> >> >> > TM_MAD         : vmfs<br>>> > >> >>> >> >> > BASE PATH      : /vmfs/volumes/103<br>>> > >> >>> >> >> > DISK_TYPE      : FILE<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > DATASTORE CAPACITY<br>>> > >> >>> >> >> > TOTAL:         : 0M<br>>> > >> >>> >> >> > USED:          : 0M<br>>> > >> >>> >> >> > FREE:          : 0M<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > PERMISSIONS<br>>> > >> >>> >> >> > OWNER          : um-<br>>> > >> >>> >> >> > GROUP          : u--<br>>> > >> >>> >> >> > OTHER          : ---<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > DATASTORE TEMPLATE<br>>> > >> >>> >> >> > BRIDGE_LIST="192.168.147.131"<br>>> > >> >>> >> >> > DS_MAD="vmfs"<br>>> > >> >>> >> >> > TM_MAD="vmfs"<br>>> > >> >>> >> >> > TYPE="IMAGE_DS"<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > IMAGES<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > 3. In oned.log file show:<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][I]: Command execution<br>>> fail:<br>>> > >> >>> >> >> > /var/lib/one/remotes/<br>>> > >> >>> >> >> > datastore/vmfs/monitor<br>>> > >> >>> >> >> > PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMDM8L<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> 0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZ<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> WFkbWluPC9HTkFNRT48TkFNRT5zc2hfZGlFc3hpPC9OQU1FPjxQRVJNSVNTSU9OUz48T1dORVJfVT4xP<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> C9PV05FUl9VPjxPV05FUl9NPjE8L09XTkVSX00+PE9XTkVSX0E+MDwvT1dORVJfQT48R1JPVVBfVT4xP<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> C9HUk9VUF9VPjxHUk9VUF9NPjA8L0dST1VQX00+PEdST1VQX0E+MDwvR1JPVVBfQT48T1RIRVJfVT4wP<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> C9PVEhFUl9VPjxPVEhFUl9NPjA8L09USEVSX00+PE9USEVSX0E+MDwvT1RIRVJfQT48L1BFUk1JU1NJT<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> 05TPjxEU19NQUQ+dm1mczwvRFNfTUFEPjxUTV9NQUQ+dm1mczwvVE1fTUFEPjxCQVNFX1BBVEg+L3ZtZ<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> nMvdm9sdW1lcy8xMDM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MDwvRElTS19UW<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> VBFPjxDTFVTVEVSX0lEPjEwMDwvQ0xVU1RFUl9JRD48Q0xVU1RFUj5Fc3hpY2x1czwvQ0xVU1RFUj48V<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> E9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CP<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> jxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxCUklER0VfTElTVD48IVtDREFUQVsxOTIuMTY4LjE0N<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> y4xMzFdXT48L0JSSURHRV9MSVNUPjxEU19NQUQ+PCFbQ0RBVEFbdm1mc11dPjwvRFNfTUFEPjxUTV9NQ<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> ><br>>> UQ+PCFbQ0RBVEFbdm1mc11dPjwvVE1fTUFEPjxUWVBFPjwhW0NEQVRBW0lNQUdFX0RTXV0+PC9UWVBFP<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > jwvVEVNUExBVEU+PC9EQVRBU1RPUkU+PC9EU19EUklWRVJfQUNUSU9OX0RBVEE+<br>>> > >> >>> >> >> > 103<br>>> > >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][I]: ExitCode: 255<br>>> > >> >>> >> >> > Mon Nov 11 09:46:38 2013 [ImM][E]: Error monitoring<br>>> > datastore<br>>> > >> >>> >> >> > 103:<br>>> > >> >>> >> >> > -<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > 4. Sending oned.log file attachment, inside this check<br>>> nodes<br>>> > >> >>> >> >> > monitoring<br>>> > >> >>> >> >> > errors is because I have only Esxi node running at this<br>>> tame<br>>> > >> >>> >> >> > others<br>>> > >> >>> >> >> > nodes<br>>> > >> >>> >> >> > are turned off.<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > Regards, Caty.<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > 2013/11/11 <users-request@lists.opennebula.org><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Send Users mailing list submissions to<br>>> > >> >>> >> >> >>         users@lists.opennebula.org<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> To subscribe or unsubscribe via the World Wide Web,<br>>> visit<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> or, via email, send a message with subject or body<br>>> 'help'<br>>> > to<br>>> > >> >>> >> >> >>         users-request@lists.opennebula.org<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> You can reach the person managing the list at<br>>> > >> >>> >> >> >>         users-owner@lists.opennebula.org<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> When replying, please edit your Subject line so it is<br>>> more<br>>> > >> >>> >> >> >> specific<br>>> > >> >>> >> >> >> than "Re: Contents of Users digest..."<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Today's Topics:<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >>    1. Re: VM in Opennebula for Esxi 5.1 failed (Tino<br>>> > Vazquez)<br>>> > >> >>> >> >> >>    2. Re: VM in Opennebula for Esxi 5.1 failed (Tino<br>>> > Vazquez)<br>>> > >> >>> >> >> >>    3. Re: Problem with oZones. Error 401 while trying to<br>>> > >> >>> >> >> >> access a<br>>> > >> >>> >> >> >>       zone (Tino Vazquez)<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > ----------------------------------------------------------------------<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Message: 1<br>>> > >> >>> >> >> >> Date: Mon, 11 Nov 2013 11:23:35 +0100<br>>> > >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>>> > >> >>> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1<br>>> > failed<br>>> > >> >>> >> >> >> Message-ID:<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> <<br>>> > CAHfKwc0uhtMvDkkd0bDvVoDMAeXhC8x+7MMd0apE9Ow+47t4Zg@mail.gmail.com><br>>> > >> >>> >> >> >> Content-Type: text/plain; charset=windows-1252<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Hi Catalina,<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Let's focus first on the 'vmfs' datastore not being<br>>> > correctly<br>>> > >> >>> >> >> >> monitored. Could you send us the output of "onedatastore<br>>> > show<br>>> > >> >>> >> >> >> <ds_id>"<br>>> > >> >>> >> >> >> for both the system and the images datastore.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Also, is there any monitor errors in<br>>> /var/log/one/oned.log?<br>>> > >> >>> >> >> >> If<br>>> > >> >>> >> >> >> cannot<br>>> > >> >>> >> >> >> find the relevant section in the log file, please send<br>>> it<br>>> > >> >>> >> >> >> through<br>>> > >> >>> >> >> >> for<br>>> > >> >>> >> >> >> analysis.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Best regards,<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> -Tino<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> Confidentiality Warning: The information contained in<br>>> this<br>>> > >> >>> >> >> >> e-mail<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> any accompanying documents, unless otherwise expressly<br>>> > >> >>> >> >> >> indicated,<br>>> > >> >>> >> >> >> is<br>>> > >> >>> >> >> >> confidential and privileged, and is intended solely for<br>>> the<br>>> > >> >>> >> >> >> person<br>>> > >> >>> >> >> >> and/or entity to whom it is addressed (i.e. those<br>>> > identified<br>>> > >> >>> >> >> >> in<br>>> > >> >>> >> >> >> the<br>>> > >> >>> >> >> >> "To" and "cc" box). They are the property of C12G Labs<br>>> > S.L..<br>>> > >> >>> >> >> >> Unauthorized distribution, review, use, disclosure, or<br>>> > >> >>> >> >> >> copying of<br>>> > >> >>> >> >> >> this<br>>> > >> >>> >> >> >> communication, or any part thereof, is strictly<br>>> prohibited<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> may<br>>> > >> >>> >> >> >> be<br>>> > >> >>> >> >> >> unlawful. If you have received this e-mail in error,<br>>> please<br>>> > >> >>> >> >> >> notify<br>>> > >> >>> >> >> >> us<br>>> > >> >>> >> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>>> > e-mail<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> attachments and any copy from your system. C12G thanks<br>>> you<br>>> > >> >>> >> >> >> for<br>>> > >> >>> >> >> >> your<br>>> > >> >>> >> >> >> cooperation.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> On Mon, Nov 11, 2013 at 2:17 AM, Catalina Quinde<br>>> > >> >>> >> >> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Hi Daniel,<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thanks for reply,<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 1.       1. I'm using Opennebula 4.2 and node Esxi<br>>> > version<br>>> > >> >>> >> >> >> > 5.1.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 2.    I 2. I have used the following links:<br>>> > >> >>> >> >> >> ><br>>> http://opennebula.org/documentation:rel4.2:cluster_guide<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > http://opennebula.org/documentation:rel4.2:vmware_ds<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> ><br>>> http://opennebula.org/documentation:rel4.2:system_ds#the_system_datastore_for_multi-cluster_setups<br>>> > >> >>> >> >> >> > and responses in mail lists.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 33.  I  3. I have enabled ssh between Opennebula and<br>>> Esxi<br>>> > >> >>> >> >> >> > to<br>>> > >> >>> >> >> >> > use<br>>> > >> >>> >> >> >> > no<br>>> > >> >>> >> >> >> > password<br>>> > >> >>> >> >> >> > correctly.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 4.       4. According to documentation should I put<br>>> the<br>>> > >> >>> >> >> >> > Esxi<br>>> > >> >>> >> >> >> > node<br>>> > >> >>> >> >> >> > inside<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > cluster, as Opennebula is working with several<br>>> > hypervisors,<br>>> > >> >>> >> >> >> > has<br>>> > >> >>> >> >> >> > been<br>>> > >> >>> >> >> >> > used<br>>> > >> >>> >> >> >> > the command to create the cluster: ?onecluster create<br>>> > >> >>> >> >> >> > [namecluster]?.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 5.       5. I added the node Esxi to this cluster with<br>>> > the<br>>> > >> >>> >> >> >> > command:<br>>> > >> >>> >> >> >> > ?onecluster addhost [namecluster] [namenodo]?.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 6.       6. I added to the cluster, virtual network<br>>> > created<br>>> > >> >>> >> >> >> > for<br>>> > >> >>> >> >> >> > Esxi,<br>>> > >> >>> >> >> >> > which<br>>> > >> >>> >> >> >> > is also created on the Esxi node through Vsphere<br>>> Client,<br>>> > >> >>> >> >> >> > with<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > command:?onecluster addvnet [namecluster]<br>>> > [namevirtualred]?<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 7.       7. I updated the cluster using the command:<br>>> > >> >>> >> >> >> > ?onecluster<br>>> > >> >>> >> >> >> > update<br>>> > >> >>> >> >> >> > [namecluster]?, to add: DATASTORE_LOCATION, which will<br>>> > >> >>> >> >> >> > affect<br>>> > >> >>> >> >> >> > only<br>>> > >> >>> >> >> >> > that<br>>> > >> >>> >> >> >> > node, by placing the following:<br>>> > >> >>> >> >> >> > DATASTORE_LOCATION=/vmfs/volumes<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 8.       8. I have created two files that serve as<br>>> image<br>>> > to<br>>> > >> >>> >> >> >> > create<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > datastores:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > a.       The image file for the datastore system<br>>> > contains:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > NAME=dsEsxi<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > TM_MAD=vmfs<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > TYPE=SYSTEM_DS<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > BRIDGE_LIST="192.168.147.131"<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > b.      This datastore is linked to the cluster at the<br>>> > same<br>>> > >> >>> >> >> >> > time<br>>> > >> >>> >> >> >> > created<br>>> > >> >>> >> >> >> > with the command: ?onedatastore create -c<br>>> [namecluster]<br>>> > >> >>> >> >> >> > /var/lib/images/system_esxi.ds?.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > c.       The image file for the datastore image<br>>> contains:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > NAME=diEsxi<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > DS_MAD=vmfs<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > TM_MAD=vmfs<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > TYPE=IMAGE_DS<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > BRIDGE_LIST="192.168.147.131"<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > d.      This datastore is linked to the cluster at the<br>>> > same<br>>> > >> >>> >> >> >> > time<br>>> > >> >>> >> >> >> > created<br>>> > >> >>> >> >> >> > with the commando:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > ?onedatastore create ?c [namecluster]<br>>> > >> >>> >> >> >> > /var/lib/images/image_esxi.ds?<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 9.       9. When I list the datastores, you can see<br>>> that<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > image<br>>> > >> >>> >> >> >> > datastore<br>>> > >> >>> >> >> >> > new created has 0M capacity.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > I've done all this procedure since according to the<br>>> > >> >>> >> >> >> > documentation<br>>> > >> >>> >> >> >> > followed<br>>> > >> >>> >> >> >> > at Opennebula 4.2, it changes how to use Esxi node.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Before all of the above to deploy a VM this error<br>>> > occurred:<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > oneadmin@ubuntuOpNeb:~$ cat /var/log/one/36.log<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:02 2013 [DiM][I]: New VM state is<br>>> > ACTIVE.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:02 2013 [LCM][I]: New VM state is<br>>> > PROLOG.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: Command execution<br>>> fail:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > /var/lib/one/remotes/tm/shared/clone<br>>> > >> >>> >> >> >> > ubuntuOpNeb:/var/lib/one/datastores/1/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 36 1<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: clone: Cloning<br>>> > >> >>> >> >> >> > /var/lib/one/datastores/1/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557 in<br>>> > >> >>> >> >> >> > demos:/var/lib/one/datastores/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 0/36/disk.0<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: clone: Command "cd<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > /var/lib/one/datastores/0/36; cp<br>>> > /var/lib/one/datastores/1/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> > /var/lib/one/datastores/0/36/disk.0"<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > failed: cp: can't stat '/var/lib/one/datastores/1/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557': No such file or<br>>> > >> >>> >> >> >> > directory<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error copying<br>>> > >> >>> >> >> >> > ubuntuOpNeb:/var/lib/one/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > datastores/1/02e8c67d4f59826e9fb12ccb48f77557 to<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: ExitCode: 1<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error executing<br>>> image<br>>> > >> >>> >> >> >> > transfer<br>>> > >> >>> >> >> >> > script:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Error copying ubuntuOpNeb:/var/lib/one/datastores/1/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 02e8c67d4f59826e9fb12ccb48f77557 to<br>>> > >> >>> >> >> >> > demos:/var/lib/one/datastores/<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 0/36/disk.0<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thu Oct 31 11:18:03 2013 [DiM][I]: New VM state is<br>>> FAILED<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Now, I suppose that I've to create the image for<br>>> > opennebula<br>>> > >> >>> >> >> >> > in<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > new<br>>> > >> >>> >> >> >> > image<br>>> > >> >>> >> >> >> > datastore but I can?t do because it has no capacity.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Please help me.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thanks, Caty<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 2013/11/10 <users-request@lists.opennebula.org><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Send Users mailing list submissions to<br>>> > >> >>> >> >> >> >>         users@lists.opennebula.org<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> To subscribe or unsubscribe via the World Wide Web,<br>>> > visit<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> >> or, via email, send a message with subject or body<br>>> > 'help'<br>>> > >> >>> >> >> >> >> to<br>>> > >> >>> >> >> >> >>         users-request@lists.opennebula.org<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> You can reach the person managing the list at<br>>> > >> >>> >> >> >> >>         users-owner@lists.opennebula.org<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> When replying, please edit your Subject line so it is<br>>> > more<br>>> > >> >>> >> >> >> >> specific<br>>> > >> >>> >> >> >> >> than "Re: Contents of Users digest..."<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Today's Topics:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >>    1. VM in Opennebula for Esxi 5.1 failed (Catalina<br>>> > >> >>> >> >> >> >> Quinde)<br>>> > >> >>> >> >> >> >>    2. Re: VM in Opennebula for Esxi 5.1 failed<br>>> (Daniel<br>>> > >> >>> >> >> >> >> Dehennin)<br>>> > >> >>> >> >> >> >>    3. ask to password when add ceph datastore<br>>> > >> >>> >> >> >> >> (12navidb2@gmail.com)<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > ----------------------------------------------------------------------<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Message: 1<br>>> > >> >>> >> >> >> >> Date: Sat, 9 Nov 2013 19:07:44 -0500<br>>> > >> >>> >> >> >> >> From: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> >>> >> >> >> >> To: users@lists.opennebula.org<br>>> > >> >>> >> >> >> >> Subject: [one-users] VM in Opennebula for Esxi 5.1<br>>> > failed<br>>> > >> >>> >> >> >> >> Message-ID:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> <CAPgz++yOE=CmekTkFjD=<br>>> > yCFo4uwN6oMYb+z+aYY7VtZ4rOoubw@mail.gmail.com><br>>> > >> >>> >> >> >> >> Content-Type: text/plain; charset="iso-8859-1"<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Please help me,I created an OpenNebula cluster in<br>>> which<br>>> > I<br>>> > >> >>> >> >> >> >> have<br>>> > >> >>> >> >> >> >> added<br>>> > >> >>> >> >> >> >> the<br>>> > >> >>> >> >> >> >> host Esxi, I've also created two datastores, one for<br>>> > >> >>> >> >> >> >> system<br>>> > >> >>> >> >> >> >> and<br>>> > >> >>> >> >> >> >> one<br>>> > >> >>> >> >> >> >> for<br>>> > >> >>> >> >> >> >> images, with features:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> ID 100 system TM_MAD = vmfs<br>>> > >> >>> >> >> >> >> ID 101 image DS_MAD = vmfs<br>>> > >> >>> >> >> >> >>                      TM_MAD = vmfs<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> These two datastores I have added to the cluster<br>>> > created,<br>>> > >> >>> >> >> >> >> the<br>>> > >> >>> >> >> >> >> comand<br>>> > >> >>> >> >> >> >> "onedatastore list" indicates CAPACITY datastore = 0M<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> And in the path "/ var / lib / one / datastores" here<br>>> > are<br>>> > >> >>> >> >> >> >> not<br>>> > >> >>> >> >> >> >> these<br>>> > >> >>> >> >> >> >> two<br>>> > >> >>> >> >> >> >> datastores as directories.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> I'm using OpenNebula Esxi 4.2 and 5.1.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Greetings.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Caty.<br>>> > >> >>> >> >> >> >> -------------- next part --------------<br>>> > >> >>> >> >> >> >> An HTML attachment was scrubbed...<br>>> > >> >>> >> >> >> >> URL:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> <<br>>> ><br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131109/556b453a/attachment.html<br>>> > ><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> ------------------------------<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Message: 2<br>>> > >> >>> >> >> >> >> Date: Sun, 10 Nov 2013 01:47:35 +0100<br>>> > >> >>> >> >> >> >> From: Daniel Dehennin <daniel.dehennin@baby-gnu.org><br>>> > >> >>> >> >> >> >> To: users@lists.opennebula.org<br>>> > >> >>> >> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi<br>>> 5.1<br>>> > >> >>> >> >> >> >> failed<br>>> > >> >>> >> >> >> >> Message-ID: <878uwx9j6g.fsf@hati.baby-gnu.org><br>>> > >> >>> >> >> >> >> Content-Type: text/plain; charset="utf-8"<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Catalina Quinde <catalinaquinde@gmail.com> writes:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> First of all hello,<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> I do not have proprietary system so I'll only give<br>>> you<br>>> > >> >>> >> >> >> >> information I<br>>> > >> >>> >> >> >> >> have.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> > Please help me,I created an OpenNebula cluster in<br>>> > which<br>>> > >> >>> >> >> >> >> > I<br>>> > >> >>> >> >> >> >> > have<br>>> > >> >>> >> >> >> >> > added<br>>> > >> >>> >> >> >> >> > the<br>>> > >> >>> >> >> >> >> > host Esxi, I've also created two datastores, one<br>>> for<br>>> > >> >>> >> >> >> >> > system<br>>> > >> >>> >> >> >> >> > and<br>>> > >> >>> >> >> >> >> > one<br>>> > >> >>> >> >> >> >> > for<br>>> > >> >>> >> >> >> >> > images, with features:<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > ID 100 system TM_MAD = vmfs<br>>> > >> >>> >> >> >> >> > ID 101 image DS_MAD = vmfs<br>>> > >> >>> >> >> >> >> >                      TM_MAD = vmfs<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > These two datastores I have added to the cluster<br>>> > >> >>> >> >> >> >> > created,<br>>> > >> >>> >> >> >> >> > the<br>>> > >> >>> >> >> >> >> > comand<br>>> > >> >>> >> >> >> >> > "onedatastore list" indicates CAPACITY datastore =<br>>> 0M<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > And in the path "/ var / lib / one / datastores"<br>>> here<br>>> > >> >>> >> >> >> >> > are<br>>> > >> >>> >> >> >> >> > not<br>>> > >> >>> >> >> >> >> > these<br>>> > >> >>> >> >> >> >> > two<br>>> > >> >>> >> >> >> >> > datastores as directories.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Reading the documentation[1], I understand that:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> 1. oneadmin must be able to SSH ESX servers without<br>>> > >> >>> >> >> >> >> password[2]<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> 2. nothing is under /var/lib/one/datastores of the<br>>> > >> >>> >> >> >> >> OpenNebula<br>>> > >> >>> >> >> >> >> frontend<br>>> > >> >>> >> >> >> >>    because it's managed by ESX servers, ONE access to<br>>> > VMFS<br>>> > >> >>> >> >> >> >> datastores<br>>> > >> >>> >> >> >> >>    though API<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Maybe if you describe a little more your setup will<br>>> help<br>>> > >> >>> >> >> >> >> people<br>>> > >> >>> >> >> >> >> helping<br>>> > >> >>> >> >> >> >> you ;-)<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> > I'm using OpenNebula Esxi 4.2 and 5.1.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> I suppose you mean that you use:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> - OpenNebula 4.2<br>>> > >> >>> >> >> >> >> - ESXi 5.1<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Right?<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Regards.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Footnotes:<br>>> > >> >>> >> >> >> >> [1]<br>>> > http://opennebula.org/documentation:rel4.2:vmware_ds<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> [2]<br>>> > >> >>> >> >> >> >><br>>> > http://opennebula.org/documentation:rel4.2:hostsubsystem<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> --<br>>> > >> >>> >> >> >> >> Daniel Dehennin<br>>> > >> >>> >> >> >> >> R?cup?rer ma clef GPG:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> gpg --keyserver pgp.mit.edu --recv-keys 0x7A6FE2DF<br>>> > >> >>> >> >> >> >> -------------- next part --------------<br>>> > >> >>> >> >> >> >> A non-text attachment was scrubbed...<br>>> > >> >>> >> >> >> >> Name: not available<br>>> > >> >>> >> >> >> >> Type: application/pgp-signature<br>>> > >> >>> >> >> >> >> Size: 229 bytes<br>>> > >> >>> >> >> >> >> Desc: not available<br>>> > >> >>> >> >> >> >> URL:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> <<br>>> ><br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131110/580e83eb/attachment-0001.pgp<br>>> > ><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> ------------------------------<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Message: 3<br>>> > >> >>> >> >> >> >> Date: Sun, 10 Nov 2013 13:26:27 +0330<br>>> > >> >>> >> >> >> >> From: "12navidb2@gmail.com" <12navidb2@gmail.com><br>>> > >> >>> >> >> >> >> To: users@lists.opennebula.org<br>>> > >> >>> >> >> >> >> Subject: [one-users] ask to password when add ceph<br>>> > >> >>> >> >> >> >> datastore<br>>> > >> >>> >> >> >> >> Message-ID:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> <CAK9QDg9znnHjkH=mLc19F=<br>>> > CTSd+Yo16arttCEg_erv5-x4WAtg@mail.gmail.com><br>>> > >> >>> >> >> >> >> Content-Type: text/plain; charset="iso-8859-1"<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> hi all<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> when i add new ceph datastore, opennebula run a<br>>> command<br>>> > >> >>> >> >> >> >> like<br>>> > >> >>> >> >> >> >> this<br>>> > >> >>> >> >> >> >> with<br>>> > >> >>> >> >> >> >> oneadmin user that needs  password<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> oneadmin@one-server2:~$<br>>> > >> >>> >> >> >> >> /var/lib/one/remotes/datastore/ceph/monitor<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> ><br>>> PERTX0RSSVZFUl9BQ1RJT05fREFUQT48REFUQVNUT1JFPjxJRD4xMTM8L0lEPjxVSUQ+MDwvVUlEPjxHSUQ+MDwvR0lEPjxVTkFNRT5vbmVhZG1pbjwvVU5BTUU+PEdOQU1FPm9uZWFkbWluPC9HTkFNRT48TkFNRT5jZXBoZHM8L05BTUU+PFBFUk1JU1NJT05TPjxPV05FUl9VPjE8L09XTkVSX1U+PE9XTkVSX00+MTwvT1dORVJfTT48T1dORVJfQT4wPC9PV05FUl9BPjxHUk9VUF9VPjE8L0dST1VQX1U+PEdST1VQX00+MDwvR1JPVVBfTT48R1JPVVBfQT4wPC9HUk9VUF9BPjxPVEhFUl9VPjA8L09USEVSX1U+PE9USEVSX00+MDwvT1RIRVJfTT48T1RIRVJfQT4wPC9PVEhFUl9BPjwvUEVSTUlTU0lPTlM+PERTX01BRD5jZXBoPC9EU19NQUQ+PFRNX01BRD5jZXBoPC9UTV9NQUQ+PEJBU0VfUEFUSD4vdmFyL2xpYi9vbmUvZGF0YXN0b3Jlcy8xMTM8L0JBU0VfUEFUSD48VFlQRT4wPC9UWVBFPjxESVNLX1RZUEU+MzwvRElTS19UWVBFPjxDTFVTVEVSX0lEPi0xPC9DTFVTVEVSX0lEPjxDTFVTVEVSPjwvQ0xVU1RFUj48VE9UQUxfTUI+MDwvVE9UQUxfTUI+PEZSRUVfTUI+MDwvRlJFRV9NQj48VVNFRF9NQj4wPC9VU0VEX01CPjxJTUFHRVM+PC9JTUFHRVM+PFRFTVBMQVRFPjxEU19NQUQ+PCFbQ0RBVEFbY2VwaF1dPjwvRFNfTUFEPjxIT1NUPjwhW0NEQVRBW29uZS1zZXJ2ZXIyXV0+PC9IT1NUPjxQT09MX05BTUU+PCFbQ0RBVEFbcmJkXV0+PC9QT09MX05BTUU+PFNBRkVfRElSUz48IVt<br>>> >  DRE<br>>> > >>  FUQV<br>>> > >> >>>  svX<br>>> > >> >>> >>  V0+PC9<br>>> > >> >>> >> >> >>  TQU<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> ><br>>> ZFX0RJUlM+PFRNX01BRD48IVtDREFUQVtjZXBoXV0+PC9UTV9NQUQ+PC9URU1QTEFURT48L0RBVEFTVE9SRT48L0RTX0RSSVZFUl9BQ1RJT05fREFUQT4=<br>>> > >> >>> >> >> >> >> 113<br>>> > >> >>> >> >> >> >> oneadmin@one-server2's password:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> because it, opennebula cant show datastore space and<br>>> > show<br>>> > >> >>> >> >> >> >> (0MB)<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> output this command is<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> USED_MB=3015<br>>> > >> >>> >> >> >> >> FREE_MB=1184747<br>>> > >> >>> >> >> >> >> TOTAL_MB=1193984<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> the point here is that i cant run this command with<br>>> > >> >>> >> >> >> >> oneadmin<br>>> > >> >>> >> >> >> >> user<br>>> > >> >>> >> >> >> >> !<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> sudo rados df<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> or even rados df  (without sudo)<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> i add these  lines  to  /etc/sudoers<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> oneadmin    ALL=(ALL) NOPASSWD:<br>>> > >> >>> >> >> >> >> /usr/bin/rbd*,/usr/bin/rados*<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> best regards<br>>> > >> >>> >> >> >> >> -------------- next part --------------<br>>> > >> >>> >> >> >> >> An HTML attachment was scrubbed...<br>>> > >> >>> >> >> >> >> URL:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> <<br>>> ><br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131110/64242fd6/attachment-0001.htm<br>>> > ><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> ------------------------------<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> _______________________________________________<br>>> > >> >>> >> >> >> >> Users mailing list<br>>> > >> >>> >> >> >> >> Users@lists.opennebula.org<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> End of Users Digest, Vol 69, Issue 26<br>>> > >> >>> >> >> >> >> *************************************<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > _______________________________________________<br>>> > >> >>> >> >> >> > Users mailing list<br>>> > >> >>> >> >> >> > Users@lists.opennebula.org<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ------------------------------<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Message: 2<br>>> > >> >>> >> >> >> Date: Mon, 11 Nov 2013 14:30:20 +0100<br>>> > >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >> >> To: Catalina Quinde <catalinaquinde@gmail.com><br>>> > >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>>> > >> >>> >> >> >> Subject: Re: [one-users] VM in Opennebula for Esxi 5.1<br>>> > failed<br>>> > >> >>> >> >> >> Message-ID:<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> <CAHfKwc05HTwsGJSxkW4fSoMu5O10=<br>>> > HuAUcS70pVCzh2d3zgxtA@mail.gmail.com><br>>> > >> >>> >> >> >> Content-Type: text/plain; charset=ISO-8859-1<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> On Thu, Nov 7, 2013 at 5:55 AM, Catalina Quinde<br>>> > >> >>> >> >> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> >> >> > Thanks Tino,<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Excuse me for not responding earlier, I have read the<br>>> > >> >>> >> >> >> > documentation<br>>> > >> >>> >> >> >> > provided<br>>> > >> >>> >> >> >> > I do, but there is a section that is not clear in<br>>> which<br>>> > >> >>> >> >> >> > states<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > following:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > "... In heterogeneous clouds (mix of ESX and other<br>>> > >> >>> >> >> >> > hypervisor<br>>> > >> >>> >> >> >> > hosts)<br>>> > >> >>> >> >> >> > put<br>>> > >> >>> >> >> >> > all<br>>> > >> >>> >> >> >> > the ESX hosts in clusters With The Following In Their<br>>> > >> >>> >> >> >> > template<br>>> > >> >>> >> >> >> > attribute<br>>> > >> >>> >> >> >> > (eg<br>>> > >> >>> >> >> >> > onecluster update) ...":<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > DATASTORE_LOCATION = / vmfs / volumes<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > In my case, opennebula works with 4 different<br>>> > hypervisors,<br>>> > >> >>> >> >> >> > and<br>>> > >> >>> >> >> >> > I<br>>> > >> >>> >> >> >> > don't<br>>> > >> >>> >> >> >> > have<br>>> > >> >>> >> >> >> > created clusters, nodes are registered directly in<br>>> > >> >>> >> >> >> > opennebula:<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 1. I make clusters for each hypervisor??<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> You will need to create one at least for VMware in<br>>> order to<br>>> > >> >>> >> >> >> set<br>>> > >> >>> >> >> >> the<br>>> > >> >>> >> >> >> DATASTORE_LOCATION in the cluster so the datastores can<br>>> > >> >>> >> >> >> inherit<br>>> > >> >>> >> >> >> it.<br>>> > >> >>> >> >> >> In<br>>> > >> >>> >> >> >> any case, it would be recommended to have one cluster<br>>> per<br>>> > >> >>> >> >> >> hypervisor.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> > 2. In the image cluster file to create the cluster<br>>> must<br>>> > >> >>> >> >> >> > point<br>>> > >> >>> >> >> >> > out<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > DATASTORE_LOCATION????<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Yes, the template used to create the cluster must<br>>> include<br>>> > the<br>>> > >> >>> >> >> >> DATASTORE_LOCATION, although this can be updated later.<br>>> In<br>>> > >> >>> >> >> >> any<br>>> > >> >>> >> >> >> case,<br>>> > >> >>> >> >> >> the DATASTORE_LOCATION _must_ be present before the<br>>> > datastore<br>>> > >> >>> >> >> >> is<br>>> > >> >>> >> >> >> created.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > In my case I have created the datastores in "ESXi"<br>>> with<br>>> > the<br>>> > >> >>> >> >> >> > frontend<br>>> > >> >>> >> >> >> > in<br>>> > >> >>> >> >> >> > "/<br>>> > >> >>> >> >> >> > var/lib/one/datastores/0" and "1", created by the<br>>> "VMWare<br>>> > >> >>> >> >> >> > Client",<br>>> > >> >>> >> >> >> > in<br>>> > >> >>> >> >> >> > this<br>>> > >> >>> >> >> >> > datastores is created a virtual machine for Esxi. I<br>>> must<br>>> > >> >>> >> >> >> > add<br>>> > >> >>> >> >> >> > the<br>>> > >> >>> >> >> >> > datastores<br>>> > >> >>> >> >> >> > "/ vmfs / volumes. .. "as additional datastores??<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> In the ESX, only the system and one image datastore<br>>> need to<br>>> > >> >>> >> >> >> be<br>>> > >> >>> >> >> >> register (and potentially, more than one image<br>>> datastore).<br>>> > In<br>>> > >> >>> >> >> >> OpenNebula 4.2 they cannot be 0 and 1, since they are<br>>> > created<br>>> > >> >>> >> >> >> on<br>>> > >> >>> >> >> >> OpneNebula first boot and they won't have the proper<br>>> > >> >>> >> >> >> DATASTORE_LOCATION inherit.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> To check that all is good, the BASE_PATH of both the<br>>> system<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> image<br>>> > >> >>> >> >> >> datstore for VMware should contain "/vmfs/volumes"<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Regards,<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> -Tino<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > Thanks for responding<br>>> > >> >>> >> >> >> > Caty<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > 2013/11/4 Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Hi,<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Ok, so then you need to create a VMFS datastore in<br>>> order<br>>> > >> >>> >> >> >> >> to<br>>> > >> >>> >> >> >> >> register<br>>> > >> >>> >> >> >> >> VMDK images that can be used with VMware ESX. More<br>>> info<br>>> > >> >>> >> >> >> >> here:<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> http://opennebula.org/documentation:rel4.2:vmware_ds<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> Regards,<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> -Tino<br>>> > >> >>> >> >> >> >> --<br>>> > >> >>> >> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> --<br>>> > >> >>> >> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> --<br>>> > >> >>> >> >> >> >> Confidentiality Warning: The information contained in<br>>> > this<br>>> > >> >>> >> >> >> >> e-mail<br>>> > >> >>> >> >> >> >> and<br>>> > >> >>> >> >> >> >> any accompanying documents, unless otherwise<br>>> expressly<br>>> > >> >>> >> >> >> >> indicated,<br>>> > >> >>> >> >> >> >> is<br>>> > >> >>> >> >> >> >> confidential and privileged, and is intended solely<br>>> for<br>>> > >> >>> >> >> >> >> the<br>>> > >> >>> >> >> >> >> person<br>>> > >> >>> >> >> >> >> and/or entity to whom it is addressed (i.e. those<br>>> > >> >>> >> >> >> >> identified<br>>> > >> >>> >> >> >> >> in<br>>> > >> >>> >> >> >> >> the<br>>> > >> >>> >> >> >> >> "To" and "cc" box). They are the property of C12G<br>>> Labs<br>>> > >> >>> >> >> >> >> S.L..<br>>> > >> >>> >> >> >> >> Unauthorized distribution, review, use, disclosure,<br>>> or<br>>> > >> >>> >> >> >> >> copying<br>>> > >> >>> >> >> >> >> of<br>>> > >> >>> >> >> >> >> this<br>>> > >> >>> >> >> >> >> communication, or any part thereof, is strictly<br>>> > prohibited<br>>> > >> >>> >> >> >> >> and<br>>> > >> >>> >> >> >> >> may<br>>> > >> >>> >> >> >> >> be<br>>> > >> >>> >> >> >> >> unlawful. If you have received this e-mail in error,<br>>> > >> >>> >> >> >> >> please<br>>> > >> >>> >> >> >> >> notify<br>>> > >> >>> >> >> >> >> us<br>>> > >> >>> >> >> >> >> immediately by e-mail at abuse@c12g.com and delete<br>>> the<br>>> > >> >>> >> >> >> >> e-mail<br>>> > >> >>> >> >> >> >> and<br>>> > >> >>> >> >> >> >> attachments and any copy from your system. C12G<br>>> thanks<br>>> > you<br>>> > >> >>> >> >> >> >> for<br>>> > >> >>> >> >> >> >> your<br>>> > >> >>> >> >> >> >> cooperation.<br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >><br>>> > >> >>> >> >> >> >> On Mon, Nov 4, 2013 at 4:04 PM, Catalina Quinde<br>>> > >> >>> >> >> >> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> >> >> >> > Hi, Tino thanks for reply,<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > In Opennebula-sunstone in the bottom, says<br>>> >  "Opennebula<br>>> > >> >>> >> >> >> >> > 4.2.0<br>>> > >> >>> >> >> >> >> > by<br>>> > >> >>> >> >> >> >> > C12G<br>>> > >> >>> >> >> >> >> > Labs",<br>>> > >> >>> >> >> >> >> > the commands "one -v" or "one -version" not<br>>> working,<br>>> > Is<br>>> > >> >>> >> >> >> >> > this<br>>> > >> >>> >> >> >> >> > version<br>>> > >> >>> >> >> >> >> > for<br>>> > >> >>> >> >> >> >> > opennebula?,  I did the installation with command<br>>> > >> >>> >> >> >> >> > "apt-get<br>>> > >> >>> >> >> >> >> > install<br>>> > >> >>> >> >> >> >> > opennebula".<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > Please,  guide me more clearly, because I have the<br>>> > >> >>> >> >> >> >> > others<br>>> > >> >>> >> >> >> >> > hypervisors<br>>> > >> >>> >> >> >> >> > working with opennebula too.<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > Thanks Tino,<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > Caty.<br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> > 2013/11/4 Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> Hi Catalina,<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> Which OpenNebula version are you using? If you<br>>> are in<br>>> > >> >>> >> >> >> >> >> 4.2,<br>>> > >> >>> >> >> >> >> >> be<br>>> > >> >>> >> >> >> >> >> aware<br>>> > >> >>> >> >> >> >> >> that the only datastore drivers for VMware are the<br>>> > >> >>> >> >> >> >> >> 'vmfs',<br>>> > >> >>> >> >> >> >> >> not<br>>> > >> >>> >> >> >> >> >> 'shared'.<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> Regards,<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> -Tino<br>>> > >> >>> >> >> >> >> >> --<br>>> > >> >>> >> >> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> --<br>>> > >> >>> >> >> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> >> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> >> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> --<br>>> > >> >>> >> >> >> >> >> Confidentiality Warning: The information<br>>> contained in<br>>> > >> >>> >> >> >> >> >> this<br>>> > >> >>> >> >> >> >> >> e-mail<br>>> > >> >>> >> >> >> >> >> and<br>>> > >> >>> >> >> >> >> >> any accompanying documents, unless otherwise<br>>> > expressly<br>>> > >> >>> >> >> >> >> >> indicated,<br>>> > >> >>> >> >> >> >> >> is<br>>> > >> >>> >> >> >> >> >> confidential and privileged, and is intended<br>>> solely<br>>> > for<br>>> > >> >>> >> >> >> >> >> the<br>>> > >> >>> >> >> >> >> >> person<br>>> > >> >>> >> >> >> >> >> and/or entity to whom it is addressed (i.e. those<br>>> > >> >>> >> >> >> >> >> identified<br>>> > >> >>> >> >> >> >> >> in<br>>> > >> >>> >> >> >> >> >> the<br>>> > >> >>> >> >> >> >> >> "To" and "cc" box). They are the property of C12G<br>>> > Labs<br>>> > >> >>> >> >> >> >> >> S.L..<br>>> > >> >>> >> >> >> >> >> Unauthorized distribution, review, use,<br>>> disclosure,<br>>> > or<br>>> > >> >>> >> >> >> >> >> copying<br>>> > >> >>> >> >> >> >> >> of<br>>> > >> >>> >> >> >> >> >> this<br>>> > >> >>> >> >> >> >> >> communication, or any part thereof, is strictly<br>>> > >> >>> >> >> >> >> >> prohibited<br>>> > >> >>> >> >> >> >> >> and<br>>> > >> >>> >> >> >> >> >> may<br>>> > >> >>> >> >> >> >> >> be<br>>> > >> >>> >> >> >> >> >> unlawful. If you have received this e-mail in<br>>> error,<br>>> > >> >>> >> >> >> >> >> please<br>>> > >> >>> >> >> >> >> >> notify<br>>> > >> >>> >> >> >> >> >> us<br>>> > >> >>> >> >> >> >> >> immediately by e-mail at abuse@c12g.com and<br>>> delete<br>>> > the<br>>> > >> >>> >> >> >> >> >> e-mail<br>>> > >> >>> >> >> >> >> >> and<br>>> > >> >>> >> >> >> >> >> attachments and any copy from your system. C12G<br>>> > thanks<br>>> > >> >>> >> >> >> >> >> you<br>>> > >> >>> >> >> >> >> >> for<br>>> > >> >>> >> >> >> >> >> your<br>>> > >> >>> >> >> >> >> >> cooperation.<br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >><br>>> > >> >>> >> >> >> >> >> On Mon, Nov 4, 2013 at 5:40 AM, Catalina Quinde<br>>> > >> >>> >> >> >> >> >> <catalinaquinde@gmail.com> wrote:<br>>> > >> >>> >> >> >> >> >> > Hi friends, please help me in this problem<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > I have opennebula working with nodes kvm, xen,<br>>> Esxi<br>>> > >> >>> >> >> >> >> >> > 5.1<br>>> > >> >>> >> >> >> >> >> > and<br>>> > >> >>> >> >> >> >> >> > OpenVZ, I<br>>> > >> >>> >> >> >> >> >> > did VM<br>>> > >> >>> >> >> >> >> >> > in Opennebula for KVM and Xen, VM states RUNN,<br>>> but<br>>> > >> >>> >> >> >> >> >> > when I<br>>> > >> >>> >> >> >> >> >> > made<br>>> > >> >>> >> >> >> >> >> > a<br>>> > >> >>> >> >> >> >> >> > VM<br>>> > >> >>> >> >> >> >> >> > in<br>>> > >> >>> >> >> >> >> >> > Opennebula for Esxi 5.1, I have this error:<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > ------------------------------------------------<br>>> > >> >>> >> >> >> >> >> > oneadmin@ubuntuOpNeb:~$ cat /var/log/one/36.log<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:02 2013 [DiM][I]: New VM state<br>>> is<br>>> > >> >>> >> >> >> >> >> > ACTIVE.<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:02 2013 [LCM][I]: New VM state<br>>> is<br>>> > >> >>> >> >> >> >> >> > PROLOG.<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: Command<br>>> execution<br>>> > >> >>> >> >> >> >> >> > fail:<br>>> > >> >>> >> >> >> >> >> > /var/lib/one/remotes/tm/shared/clone<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0 36 1<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: clone: Cloning<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > /var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> >> >> > in<br>>> > >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: clone: Command<br>>> > "cd<br>>> > >> >>> >> >> >> >> >> > /var/lib/one/datastores/0/36; cp<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > /var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> >> >> > /var/lib/one/datastores/0/36/disk.0" failed: cp:<br>>> > >> >>> >> >> >> >> >> > can't<br>>> > >> >>> >> >> >> >> >> > stat<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > '/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557':<br>>> > >> >>> >> >> >> >> >> > No<br>>> > >> >>> >> >> >> >> >> > such<br>>> > >> >>> >> >> >> >> >> > file<br>>> > >> >>> >> >> >> >> >> > or directory<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error copying<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> >> >> > to<br>>> > >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][I]: ExitCode: 1<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [TM][E]: Error<br>>> executing<br>>> > >> >>> >> >> >> >> >> > image<br>>> > >> >>> >> >> >> >> >> > transfer<br>>> > >> >>> >> >> >> >> >> > script:<br>>> > >> >>> >> >> >> >> >> > Error copying<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > ubuntuOpNeb:/var/lib/one/datastores/1/02e8c67d4f59826e9fb12ccb48f77557<br>>> > >> >>> >> >> >> >> >> > to<br>>> > >> >>> >> >> >> >> >> > demos:/var/lib/one/datastores/0/36/disk.0<br>>> > >> >>> >> >> >> >> >> > Thu Oct 31 11:18:03 2013 [DiM][I]: New VM state<br>>> is<br>>> > >> >>> >> >> >> >> >> > FAILED<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > ----------------------------------------------------------<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > Here I put some features of my settings in<br>>> > >> >>> >> >> >> >> >> > opennebula:<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > The datastores are: 0, 1 and 2; the 0 and 1<br>>> > >> >>> >> >> >> >> >> > datastores<br>>> > >> >>> >> >> >> >> >> > are<br>>> > >> >>> >> >> >> >> >> > shared,<br>>> > >> >>> >> >> >> >> >> > and 2<br>>> > >> >>> >> >> >> >> >> > is<br>>> > >> >>> >> >> >> >> >> > ssh, Esxi works with 0 and 1 datastores.<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > oned.conf file have TM configuration general for<br>>> > all<br>>> > >> >>> >> >> >> >> >> > hypervisors.<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > Please help me for solved this problem.<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > Thanks, Caty.<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> > _______________________________________________<br>>> > >> >>> >> >> >> >> >> > Users mailing list<br>>> > >> >>> >> >> >> >> >> > Users@lists.opennebula.org<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> >> ><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> >> >> ><br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ------------------------------<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Message: 3<br>>> > >> >>> >> >> >> Date: Mon, 11 Nov 2013 15:24:52 +0100<br>>> > >> >>> >> >> >> From: Tino Vazquez <cvazquez@c12g.com><br>>> > >> >>> >> >> >> To: Andranik Hayrapetyan <andranik.h89@gmail.com><br>>> > >> >>> >> >> >> Cc: users <users@lists.opennebula.org><br>>> > >> >>> >> >> >> Subject: Re: [one-users] Problem with oZones. Error 401<br>>> > while<br>>> > >> >>> >> >> >> trying<br>>> > >> >>> >> >> >>         to access a zone<br>>> > >> >>> >> >> >> Message-ID:<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> <CAHfKwc0Q=<br>>> > FxRAkYtqQKJLLnSTi-mJZSFBKNz1vr1nQfou8oh6A@mail.gmail.com><br>>> > >> >>> >> >> >> Content-Type: text/plain; charset=ISO-8859-1<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Hi,<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> The HTTP code (401) tells us that the credentials are<br>>> not<br>>> > >> >>> >> >> >> being<br>>> > >> >>> >> >> >> recognize. Can you check that the oneadmin credentials<br>>> used<br>>> > >> >>> >> >> >> to<br>>> > >> >>> >> >> >> create<br>>> > >> >>> >> >> >> the 'not working' zone are indeed the right ones?<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> The best way to find out would be to check the $ONE_AUTH<br>>> > file<br>>> > >> >>> >> >> >> of<br>>> > >> >>> >> >> >> the<br>>> > >> >>> >> >> >> zone, and recreating the zone in oZones using those<br>>> > >> >>> >> >> >> credentials.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Best regards,<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> -Tino<br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> OpenNebula - Flexible Enterprise Cloud Made Simple<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> Constantino V?zquez Blanco, PhD, MSc<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> Senior Infrastructure Architect at C12G Labs<br>>> > >> >>> >> >> >> www.c12g.com | @C12G | es.linkedin.com/in/tinova<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> --<br>>> > >> >>> >> >> >> Confidentiality Warning: The information contained in<br>>> this<br>>> > >> >>> >> >> >> e-mail<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> any accompanying documents, unless otherwise expressly<br>>> > >> >>> >> >> >> indicated,<br>>> > >> >>> >> >> >> is<br>>> > >> >>> >> >> >> confidential and privileged, and is intended solely for<br>>> the<br>>> > >> >>> >> >> >> person<br>>> > >> >>> >> >> >> and/or entity to whom it is addressed (i.e. those<br>>> > identified<br>>> > >> >>> >> >> >> in<br>>> > >> >>> >> >> >> the<br>>> > >> >>> >> >> >> "To" and "cc" box). They are the property of C12G Labs<br>>> > S.L..<br>>> > >> >>> >> >> >> Unauthorized distribution, review, use, disclosure, or<br>>> > >> >>> >> >> >> copying of<br>>> > >> >>> >> >> >> this<br>>> > >> >>> >> >> >> communication, or any part thereof, is strictly<br>>> prohibited<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> may<br>>> > >> >>> >> >> >> be<br>>> > >> >>> >> >> >> unlawful. If you have received this e-mail in error,<br>>> please<br>>> > >> >>> >> >> >> notify<br>>> > >> >>> >> >> >> us<br>>> > >> >>> >> >> >> immediately by e-mail at abuse@c12g.com and delete the<br>>> > e-mail<br>>> > >> >>> >> >> >> and<br>>> > >> >>> >> >> >> attachments and any copy from your system. C12G thanks<br>>> you<br>>> > >> >>> >> >> >> for<br>>> > >> >>> >> >> >> your<br>>> > >> >>> >> >> >> cooperation.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> On Sat, Nov 9, 2013 at 11:06 AM, Andranik Hayrapetyan<br>>> > >> >>> >> >> >> <andranik.h89@gmail.com> wrote:<br>>> > >> >>> >> >> >> > Good day.<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > I have setup OpenNebula 4.2 with ozones server. I have<br>>> > >> >>> >> >> >> > added 3<br>>> > >> >>> >> >> >> > zones<br>>> > >> >>> >> >> >> > to<br>>> > >> >>> >> >> >> > it<br>>> > >> >>> >> >> >> > and created a VDC for each one. For 2 of them<br>>> everything<br>>> > >> >>> >> >> >> > works<br>>> > >> >>> >> >> >> > just<br>>> > >> >>> >> >> >> > fine. I<br>>> > >> >>> >> >> >> > can access the sunstone web UI through my oZones<br>>> server.<br>>> > >> >>> >> >> >> > But<br>>> > >> >>> >> >> >> > when<br>>> > >> >>> >> >> >> > I<br>>> > >> >>> >> >> >> > try<br>>> > >> >>> >> >> >> > to<br>>> > >> >>> >> >> >> > access the third one I see just blank browser. In<br>>> > >> >>> >> >> >> > access.log of<br>>> > >> >>> >> >> >> > my<br>>> > >> >>> >> >> >> > httpd<br>>> > >> >>> >> >> >> > I<br>>> > >> >>> >> >> >> > see the following:<br>>> > >> >>> >> >> >> > "GET /sunstone_MY_ZONE_3/ HTTP/1.1" 401 - "-"<br>>> > "Mozilla/5.0<br>>> > >> >>> >> >> >> > (X11;<br>>> > >> >>> >> >> >> > Linux<br>>> > >> >>> >> >> >> > x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu<br>>> > >> >>> >> >> >> > Chromium/MY_IP<br>>> > >> >>> >> >> >> > Chrome/MY_IP Safari/537.36"<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > The Rewrite rules in my .htaccess are made the same<br>>> way<br>>> > for<br>>> > >> >>> >> >> >> > each<br>>> > >> >>> >> >> >> > VDC.<br>>> > >> >>> >> >> >> > Here<br>>> > >> >>> >> >> >> > is one of them:<br>>> > >> >>> >> >> >> > RewriteRule ^MY_ZONE_3 http://IP_OF_ZONE:2633/RPC2[P]<br>>> > >> >>> >> >> >> > RewriteRule ^sunstone_MY_ZONE_3/(.+)<br>>> > >> >>> >> >> >> > http://IP_OF_ZONE:9869//$1<br>>> > >> >>> >> >> >> > [P]<br>>> > >> >>> >> >> >> > RewriteRule ^sunstone_MY_ZONE_3<br>>> http://IP_OF_ZONE:9869//<br>>> > >> >>> >> >> >> > [P]<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > What can I do to solve this problem? Can anyone help<br>>> me,<br>>> > >> >>> >> >> >> > please?<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > P.S. Sorry, my last email was sent by mistake. It was<br>>> > >> >>> >> >> >> > incomplete.<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> > _______________________________________________<br>>> > >> >>> >> >> >> > Users mailing list<br>>> > >> >>> >> >> >> > Users@lists.opennebula.org<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >> ><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >> ><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> ------------------------------<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> _______________________________________________<br>>> > >> >>> >> >> >> Users mailing list<br>>> > >> >>> >> >> >> Users@lists.opennebula.org<br>>> > >> >>> >> >> >><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >><br>>> > >> >>> >> >> >> End of Users Digest, Vol 69, Issue 28<br>>> > >> >>> >> >> >> *************************************<br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> ><br>>> > >> >>> >> >> > _______________________________________________<br>>> > >> >>> >> >> > Users mailing list<br>>> > >> >>> >> >> > Users@lists.opennebula.org<br>>> > >> >>> >> >> ><br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> >> ><br>>> > >> >>> >> ><br>>> > >> >>> >> ><br>>> > >> >>> >> ><br>>> > >> >>> >> > _______________________________________________<br>>> > >> >>> >> > Users mailing list<br>>> > >> >>> >> > Users@lists.opennebula.org<br>>> > >> >>> >> ><br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >> ><br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> ------------------------------<br>>> > >> >>> >><br>>> > >> >>> >> _______________________________________________<br>>> > >> >>> >> Users mailing list<br>>> > >> >>> >> Users@lists.opennebula.org<br>>> > >> >>> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> >><br>>> > >> >>> >><br>>> > >> >>> >> End of Users Digest, Vol 69, Issue 33<br>>> > >> >>> >> *************************************<br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> ><br>>> > >> >>> > _______________________________________________<br>>> > >> >>> > Users mailing list<br>>> > >> >>> > Users@lists.opennebula.org<br>>> > >> >>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>> ><br>>> > >> >>><br>>> > >> >>><br>>> > >> >>> ------------------------------<br>>> > >> >>><br>>> > >> >>> _______________________________________________<br>>> > >> >>> Users mailing list<br>>> > >> >>> Users@lists.opennebula.org<br>>> > >> >>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >>><br>>> > >> >>><br>>> > >> >>> End of Users Digest, Vol 69, Issue 35<br>>> > >> >>> *************************************<br>>> > >> >><br>>> > >> >><br>>> > >> >><br>>> > >> >> _______________________________________________<br>>> > >> >> Users mailing list<br>>> > >> >> Users@lists.opennebula.org<br>>> > >> >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >> >><br>>> > >><br>>> > >><br>>> > >> ------------------------------<br>>> > >><br>>> > >> _______________________________________________<br>>> > >> Users mailing list<br>>> > >> Users@lists.opennebula.org<br>>> > >> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > >><br>>> > >><br>>> > >> End of Users Digest, Vol 69, Issue 44<br>>> > >> *************************************<br>>> > ><br>>> > ><br>>> > ><br>>> > > _______________________________________________<br>>> > > Users mailing list<br>>> > > Users@lists.opennebula.org<br>>> > > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> > ><br>>> ><br>>> ><br>>> > ------------------------------<br>>> ><br>>> > _______________________________________________<br>>> > Users mailing list<br>>> > Users@lists.opennebula.org<br>>> > http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>> ><br>>> ><br>>> > End of Users Digest, Vol 69, Issue 48<br>>> > *************************************<br>>> ><br>>> -------------- next part --------------<br>>> An HTML attachment was scrubbed...<br>>> URL: <<br>>> http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131112/6e9eddb5/attachment.htm<br>>> ><br>>><br>>> ------------------------------<br>>><br>>> _______________________________________________<br>>> Users mailing list<br>>> Users@lists.opennebula.org<br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>><br>>><br>>> End of Users Digest, Vol 69, Issue 49<br>>> *************************************<br>>><br>>> _______________________________________________<br>>> Users mailing list<br>>> Users@lists.opennebula.org<br>>> http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br>>><br>>><br>><br>><br>> --<br>> Sharuzzaman Ahmat Raslan<br>><br><br><br><br>-- <br>Sharuzzaman Ahmat Raslan<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20131113/3bf675a1/attachment.htm><br><br>------------------------------<br><br>_______________________________________________<br>Users mailing list<br>Users@lists.opennebula.org<br>http://lists.opennebula.org/listinfo.cgi/users-opennebula.org<br><br><br>End of Users Digest, Vol 69, Issue 53<br>*************************************</div>