Hello ,<br><br>I faced this scenario a few days back and this is due to the fact that there are 2 versions of qemu that you have .  The machine='pc' part will not appear if you use the qemu that is installed in /usr/libexec/qemu-kvm instead of the other one.<br>
<br>You can create a soft link as follows :<br><br>ls -l /usr/bin/kvm<br>lrwxrwxrwx 1 root root 21 Mar 22 00:44 /usr/bin/kvm -> /usr/libexec/qemu-kvm<br><br>Hope that helps.<br><br>Copy pasting from another thread:<br>
<br> By default,<br>libvirt will use rhel5.4.0 machine type, which is supported by kvm-83-164.el5_5.12 but not supported by upstream qemu (you can see the<br>supported machine types in the log above).<br><br>So you have two options:<br>
- either use /usr/libexec/qemu-kvm as the emulator<br>- or explicitly change machine type to something which is supported by<br>  /usr/bin/qemu-system-x86_64 (e.g., pc-0.12) --- ><b> this supports your "machine = pc" part.</b><br>
<br><br>cheers<br><br>Ranjan<br><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername"></b> <span dir="ltr"><<a href="mailto:users-request@lists.opennebula.org">users-request@lists.opennebula.org</a>></span><br>
Date: Fri, Mar 25, 2011 at 4:40 PM<br>Subject: Users Digest, Vol 37, Issue 74<br>To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br><br><br>Send Users mailing list submissions to<br>
        <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:users-request@lists.opennebula.org">users-request@lists.opennebula.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:users-owner@lists.opennebula.org">users-owner@lists.opennebula.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of Users digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Re: Migration problem (George L. Emigh)<br>
   2. libvirt unstalbe with open nebula (christophe bonnaud)<br>
   3. Re: force to update cluster nodes info (<a href="mailto:knawnd@gmail.com">knawnd@gmail.com</a>)<br>
   4. VM config template (<a href="mailto:knawnd@gmail.com">knawnd@gmail.com</a>)<br>
   5. Re: Permission libvirt/qemu driver (Guillaume GENS)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Thu, 24 Mar 2011 16:08:03 -0400<br>
From: "George L. Emigh" <<a href="mailto:george@podglobal.com">george@podglobal.com</a>><br>
To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
Subject: Re: [one-users] Migration problem<br>
Message-ID: <<a href="mailto:201103241608.03152.george@podglobal.com">201103241608.03152.george@podglobal.com</a>><br>
Content-Type: Text/Plain;  charset="iso-8859-1"<br>
<br>
How can I change the machine type from the default of rhel5.4.0 to pc from<br>
within the VM template?<br>
<br>
if I add to the vm template:<br>
OS = [ ARCH = "x86_64", MACHINE = "pc" ]<br>
<br>
and even though onevm show reveals:<br>
OS=[<br>
  ARCH=x86_64,<br>
  MACHINE=pc ]<br>
<br>
deployment.0 still only shows:<br>
<type arch='x86_64'>hvm</type><br>
<br>
as opposed to the expected:<br>
<type arch='x86_64' machine='pc'>hvm</type><br>
<br>
On Thursday March 17 2011, George L. Emigh wrote:<br>
  > Seems I have missed some key detail, when I attempt to migrate a vm it<br>
  > fails.<br>
  ><br>
  > I can run a vm on the other host with libvirt / virt manager fine.<br>
  ><br>
  > Any ideas come to mind or a suggestion on where to look?<br>
  ><br>
  > Before attempted migration the image was owned by oneadmin:cloud<br>
  > The image file becomes owned by root<br>
  > s -l /var/lib/one/images/229ec3e88658934ce75dac63633b83a60ac48cf2<br>
  > -rw-rw---- 1 root root 8589934592 Mar 17 15:08<br>
  > /var/lib/one/images/229ec3e88658934ce75dac63633b83a60ac48cf2<br>
  ><br>
  ><br>
  > The VM log file shows<br>
  ><br>
  > Thu Mar 17 15:08:31 2011 [LCM][I]: New VM state is BOOT<br>
  > Thu Mar 17 15:08:31 2011 [VMM][I]: Generating deployment file:<br>
  > /var/lib/one/49/deployment.0 Thu Mar 17 15:08:32 2011 [LCM][I]: New VM<br>
  > state is RUNNING<br>
  > Thu Mar 17 15:09:01 2011 [LCM][I]: New VM state is SAVE_MIGRATE<br>
  > Thu Mar 17 15:09:09 2011 [LCM][I]: New VM state is PROLOG_MIGRATE<br>
  > Thu Mar 17 15:09:09 2011 [TM][I]: tm_mv.sh: Will not move, source and<br>
  > destination are equal Thu Mar 17 15:09:09 2011 [LCM][I]: New VM state is<br>
  > BOOT<br>
  > Thu Mar 17 15:09:12 2011 [VMM][I]: Command execution fail: 'if [ -x<br>
  > "/var/tmp/one/vmm/kvm/restore" ]; then /var/tmp/one/vmm/kvm/restore<br>
  > /var/lib/one//49/images/checkpoint; else<br>
  > exit 42; fi' Thu Mar 17 15:09:12 2011 [VMM][I]: STDERR follows.<br>
  > Thu Mar 17 15:09:12 2011 [VMM][I]: error: Failed to restore domain from<br>
  > /var/lib/one//49/images/checkpoint Thu Mar 17 15:09:12 2011 [VMM][I]:<br>
  > error: cannot close file: Bad file descriptor Thu Mar 17 15:09:12 2011<br>
  > [VMM][I]: ExitCode: 1<br>
  > Thu Mar 17 15:09:12 2011 [VMM][E]: Error restoring VM, error: Failed to<br>
  > restore domain from /var/lib/one//49/images/checkpoint Thu Mar 17<br>
  > 15:09:13 2011 [DiM][I]: New VM state is FAILED<br>
  > Thu Mar 17 15:09:13 2011 [TM][W]: Ignored: LOG - 49 tm_delete.sh:<br>
  > Deleting /var/lib/one//49/images<br>
  ><br>
  > Thu Mar 17 15:09:13 2011 [TM][W]: Ignored: LOG - 49 tm_delete.sh:<br>
  > Executed "rm -rf /var/lib/one//49/images".<br>
  ><br>
  > Thu Mar 17 15:09:13 2011 [TM][W]: Ignored: TRANSFER SUCCESS 49 -<br>
  ><br>
  ><br>
  > The other host seems ok<br>
  > onehost list<br>
  >   ID NAME              CLUSTER  RVM   TCPU   FCPU   ACPU    TMEM    FMEM<br>
  > STAT 0 shag              default    0    400    400    400    7.6G<br>
  > 6.8G   on 1 klingon           default    1    400    400    300    7.6G<br>
  >     7G   on<br>
  ><br>
  ><br>
  > From the libvirt log on the other host<br>
  > cat one-49.log<br>
  > 2011-03-17 15:09:09.857: starting up<br>
  > LC_ALL=C<br>
  > PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin HOME=/<br>
  > USER=root QEMU_AUDIO_DRV=none /usr/bin/kvm -S -M rhel5.4.0 -enable-kvm<br>
  > -m 2048 -smp 2,sockets=2,cores=1,threads=1 -name one-49 -uuid<br>
  > 7b18a07e-bcc4-ceed-6ace-c31ecf90378a -nodefconfig -nodefaults -chardev<br>
  > socket,id=monitor,path=/var/lib/libvirt/qemu/one-49.monitor,server,nowai<br>
  > t -mon chardev=monitor,mode=control -rtc base=utc -no-acpi -boot c -drive<br>
  > file=/var/lib/one//49/images/disk.0,if=none,id=drive-virtio-disk0,boot=o<br>
  > n,format=raw -device<br>
  > virtio-blk-pci,bus=pci.0,addr=0x4,drive=drive-virtio-disk0,id=virtio-dis<br>
  > k0 -drive<br>
  > file=/var/lib/one//49/images/disk.1,if=none,id=drive-virtio-disk1,format<br>
  > =raw -device<br>
  > virtio-blk-pci,bus=pci.0,addr=0x5,drive=drive-virtio-disk1,id=virtio-dis<br>
  > k1 -drive<br>
  > file=/var/lib/one//49/images/disk.2,if=none,media=cdrom,id=drive-ide0-1-<br>
  > 0,readonly=on,format=raw -device<br>
  > ide-drive,bus=ide.1,unit=0,drive=drive-ide0-1-0,id=ide0-1-0 - netdev<br>
  > tap,fd=44,id=hostnet0 -device<br>
  > virtio-net-pci,netdev=hostnet0,id=net0,mac=02:00:c0:a8:45:03,bus=pci.0,a<br>
  > ddr=0x3 -usb -vnc <a href="http://127.0.0.1:49" target="_blank">127.0.0.1:49</a> -vga cirrus -incoming exec:cat -device<br>
  > virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x6 Supported machines<br>
  > are:<br>
  > pc         Standard PC (alias of pc-0.13)<br>
  > pc-0.13    Standard PC (default)<br>
  > pc-0.12    Standard PC<br>
  > pc-0.11    Standard PC, qemu 0.11<br>
  > pc-0.10    Standard PC, qemu 0.10<br>
  > isapc      ISA-only PC<br>
  > 2011-03-17 15:09:12.859: shutting down<br>
  ><br>
  ><br>
  ><br>
  > From top of oned.log<br>
  ><br>
  > DB=BACKEND=sqlite<br>
  > DEBUG_LEVEL=3<br>
  > DEFAULT_DEVICE_PREFIX=hd<br>
  > DEFAULT_IMAGE_TYPE=OS<br>
  > HM_MAD=EXECUTABLE=one_hm<br>
  > HOST_MONITORING_INTERVAL=60<br>
  > IMAGE_REPOSITORY_PATH=/var/lib/one//images<br>
  > IM_MAD=ARGUMENTS=kvm,EXECUTABLE=one_im_ssh,NAME=im_kvm<br>
  > MAC_PREFIX=02:00<br>
  > MANAGER_TIMER=15<br>
  > NETWORK_SIZE=254<br>
  > PORT=2633<br>
  > SCRIPTS_REMOTE_DIR=/var/tmp/one<br>
  > TM_MAD=ARGUMENTS=tm_nfs/tm_nfs.conf,EXECUTABLE=one_tm,NAME=tm_nfs<br>
  > VM_DIR=/var/lib/one/<br>
  > VM_HOOK=ARGUMENTS=$VMID,COMMAND=image.rb,NAME=image,ON=DONE<br>
  > VM_MAD=ARGUMENTS=kvm,DEFAULT=vmm_ssh/vmm_ssh_kvm.conf,EXECUTABLE=one_vmm_<br>
  > ssh,NAME=vmm_kvm,TYPE=kvm VM_POLLING_INTERVAL=60<br>
  > VNC_BASE_PORT=5900<br>
  ><br>
  ><br>
  > Thanks in advance.<br>
<br>
--<br>
George L. Emigh<br>
CIO<br>
Pod Global, LLC<br>
10 Glenwood Ave<br>
Osprey, FL 34229<br>
(941)806-0276<br>
<a href="http://podglobal.com/" target="_blank">http://podglobal.com/</a><br>
<br>
NOTICE: This electronic mail message and any files transmitted with it are<br>
 intended exclusively for the individual or entity to which it is addressed.<br>
 The message, together with any attachment, contain confidential and/or<br>
 privileged information. Any unauthorized review, use, printing, saving,<br>
 copying, disclosure or distribution is strictly prohibited. If you have<br>
 received this message in error, please immediately advise the sender by<br>
 reply email and delete all copies.<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Fri, 25 Mar 2011 15:07:12 +0900<br>
From: christophe bonnaud <<a href="mailto:takyon77@gmail.com">takyon77@gmail.com</a>><br>
To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
Subject: [one-users] libvirt unstalbe with open nebula<br>
Message-ID:<br>
        <AANLkTi=F7a0EDaPxxxMa70ibcshwo4EOjYEqY=<a href="mailto:ta0O_V@mail.gmail.com">ta0O_V@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="iso-8859-1"<br>
<br>
Hi,<br>
<br>
I have install opennebula vers. 2.0.1-1 with libvirt vers. 0.7.7<br>
<br>
When I create a virtual machine, it's working fine but few minutes after,<br>
libvirt crash.<br>
<br>
If I don't run any virtual machine, libvrit has no problem.<br>
<br>
If I start a machine manually using virsh:<br>
   - if opennebula is working: libvirt has the same  problem.<br>
   - if opennebula is stop: libvirt has no problem<br>
<br>
If seems that every 10 minutes, when opennebula try to monitor the virtual<br>
machine, libvirt crash at the same moment.<br>
<br>
In oned.log I have:<br>
<br>
Fri Mar 25 14:59:02 2011 [ReM][D]: HostPoolInfo method invoked<br>
Fri Mar 25 14:59:02 2011 [ReM][D]: VirtualMachinePoolInfo method invoked<br>
Fri Mar 25 14:59:16 2011 [VMM][I]: Monitoring VM 29.<br>
Fri Mar 25 14:59:32 2011 [ReM][D]: HostPoolInfo method invoked<br>
Fri Mar 25 14:59:32 2011 [ReM][D]: VirtualMachinePoolInfo method invoked<br>
<br>
And if I run libvirt in gdb + debug:<br>
<br>
14:59:16.135: debug : virEventRunOnce:592 : Poll on 8 handles 0x2aaaac00b390<br>
timeout -1<br>
14:59:16.135: debug : virEventRunOnce:594 : Poll got 1 event<br>
14:59:16.135: debug : virEventDispatchTimeouts:404 : Dispatch 2<br>
14:59:16.135: debug : virEventDispatchHandles:449 : Dispatch 8<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=0 w=1<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=1 w=2<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=2 w=3<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=3 w=4<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=4 w=5<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=5 w=6<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=6 w=7<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=7 w=8<br>
14:59:16.135: debug : virEventDispatchHandles:476 : Dispatch n=7 f=15 w=8<br>
e=4 0x8aa160<br>
14:59:16.135: debug : virEventUpdateHandleImpl:146 : Update handle w=8 e=1<br>
14:59:16.135: debug : virEventInterruptLocked:663 : Skip interrupt, 1<br>
1084229952<br>
14:59:16.135: debug : virEventCleanupTimeouts:494 : Cleanup 2<br>
14:59:16.135: debug : virEventCleanupHandles:535 : Cleanupo 8<br>
14:59:16.135: debug : virEventCleanupTimeouts:494 : Cleanup 2<br>
14:59:16.135: debug : virEventCleanupHandles:535 : Cleanupo 8<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=0 w=1, f=5 e=1<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=1 w=2, f=7 e=1<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=2 w=3, f=12 e=25<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=3 w=4, f=13 e=25<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=4 w=5, f=14 e=1<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=5 w=6, f=10 e=25<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=6 w=7, f=9 e=25<br>
14:59:16.135: debug : virEventMakePollFDs:372 : Prepare n=7 w=8, f=15 e=1<br>
14:59:16.135: debug : virEventCalculateTimeout:313 : Calculate expiry of 2<br>
timers<br>
14:59:16.135: debug : virEventCalculateTimeout:343 : Timeout at 0 due in -1<br>
ms<br>
14:59:16.135: debug : virEventRunOnce:592 : Poll on 8 handles 0x2aaaac0078f0<br>
timeout -1<br>
14:59:16.135: debug : virEventRunOnce:594 : Poll got 1 event<br>
14:59:16.135: debug : virEventDispatchTimeouts:404 : Dispatch 2<br>
14:59:16.135: debug : virEventDispatchHandles:449 : Dispatch 8<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=0 w=1<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=1 w=2<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=2 w=3<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=3 w=4<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=4 w=5<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=5 w=6<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=6 w=7<br>
14:59:16.135: debug : virEventDispatchHandles:463 : i=7 w=8<br>
14:59:16.135: debug : virEventDispatchHandles:476 : Dispatch n=7 f=15 w=8<br>
e=1 0x8aa160<br>
14:59:16.135: debug : virEventUpdateHandleImpl:146 : Update handle w=8 e=1<br>
14:59:16.135: debug : virEventInterruptLocked:663 : Skip interrupt, 1<br>
1084229952<br>
14:59:16.135: debug : virEventUpdateHandleImpl:146 : Update handle w=8 e=1<br>
14:59:16.135: debug : virEventInterruptLocked:663 : Skip interrupt, 1<br>
1084229952<br>
14:59:16.136: debug : virEventCleanupTimeouts:494 : Cleanup 2<br>
14:59:16.136: debug : virEventCleanupHandles:535 : Cleanupo 8<br>
14:59:16.136: debug : remoteDispatchClientRequest:368 : prog=536903814 ver=1<br>
type=0 satus=0 serial=6 proc=122<br>
14:59:16.136: debug : virEventCleanupTimeouts:494 : Cleanup 2<br>
14:59:16.136: debug : virEventCleanupHandles:535 : Cleanupo 8<br>
14:59:16.136: debug : virEventMakePollFDs:372 : Prepare n=0 w=1, f=5 e=1<br>
14:59:16.136: debug : virEventMakePollFDs:372 : Prepare n=1 w=2, f=7 e=1<br>
14:59:16.136: debug : virEventMakePollFDs:372 : Prepare n=2 w=3, f=12 e=25<br>
14:59:16.136: debug : virEventMakePollFDs:372 : Prepare n=3 w=4, f=13 e=25<br>
<br>
Program received signal SIGSEGV, Segmentation fault.<br>
[Switching to Thread 0x43204940 (LWP 32689)]<br>
0x00000033c0a79a30 in strlen () from /lib64/libc.so.6<br>
(gdb) backtrace<br>
#0  0x00000033c0a79a30 in strlen () from /lib64/libc.so.6<br>
#1  0x000000000043d861 in qemudNodeGetSecurityModel (conn=<value optimized<br>
out>, secmodel=0x43203c20) at qemu/qemu_driver.c:4910<br>
#2  0x0000003972458589 in virNodeGetSecurityModel (conn=0x0, secmodel=0x0)<br>
at libvirt.c:5118<br>
#3  0x000000000041ef1b in remoteDispatchNodeGetSecurityModel (server=<value<br>
optimized out>, client=<value optimized out>, conn=0x2aaaac007740,<br>
hdr=<value optimized out>, rerr=0x43203f30,<br>
    args=<value optimized out>, ret=0x43203e80) at remote.c:1306<br>
#4  0x000000000041fbc1 in remoteDispatchClientCall (server=0x8aa160,<br>
client=0x8ad920, msg=0x2aaaac03e700) at dispatch.c:506<br>
#5  0x000000000041ff62 in remoteDispatchClientRequest (server=0x8aa160,<br>
client=0x8ad920, msg=0x2aaaac03e700) at dispatch.c:388<br>
#6  0x0000000000416ad7 in qemudWorker (data=<value optimized out>) at<br>
libvirtd.c:1528<br>
#7  0x00000033c160673d in start_thread () from /lib64/libpthread.so.0<br>
#8  0x00000033c0ad3f6d in clone () from /lib64/libc.so.6<br>
<br>
( I can provide more logs if necessary )<br>
<br>
Does anyone met this situation or have any clues concerning the origin of<br>
this problem?<br>
<br>
Cheers,<br>
<br>
Chris.<br>
<br>
<br>
--<br>
------------------------------------------------------<br>
Bonnaud Christophe<br>
GSDC<br>
Korea Institute of Science and Technology Information<br>
Fax. +82-42-869-0789<br>
Tel. +82-42-869-0660<br>
Mobile +82-10-4664-3193<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20110325/c10cb40f/attachment-0001.htm" target="_blank">http://lists.opennebula.org/pipermail/users-opennebula.org/attachments/20110325/c10cb40f/attachment-0001.htm</a>><br>

<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Fri, 25 Mar 2011 10:54:32 +0300<br>
From: <a href="mailto:knawnd@gmail.com">knawnd@gmail.com</a><br>
To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
Subject: Re: [one-users] force to update cluster nodes info<br>
Message-ID: <<a href="mailto:4D8C4A38.7080707@gmail.com">4D8C4A38.7080707@gmail.com</a>><br>
Content-Type: text/plain; charset=UTF-8; format=flowed<br>
<br>
Sorry for the noise! It seems the problem is in xentop (for some reason<br>
it reports wrong free memory capacity what doesn't correspond to the<br>
'free -m' output.<br>
<br>
Nikolay.<br>
<br>
<a href="mailto:knawnd@gmail.com">knawnd@gmail.com</a> wrote on 24/03/11 17:28:<br>
> Dear all,<br>
><br>
> Is there any way to force to update cluster nodes info (I mean that<br>
> one which is shown when 'onehost list' is executed).<br>
><br>
> Thanks.<br>
> Nikolay.<br>
<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Fri, 25 Mar 2011 12:56:38 +0300<br>
From: <a href="mailto:knawnd@gmail.com">knawnd@gmail.com</a><br>
To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
Subject: [one-users] VM config template<br>
Message-ID: <<a href="mailto:4D8C66D6.8000703@gmail.com">4D8C66D6.8000703@gmail.com</a>><br>
Content-Type: text/plain; charset=UTF-8; format=flowed<br>
<br>
Dear all,<br>
<br>
is it possible to change ONE VM template format in case of OpenVZ<br>
hypervisor and would it be enough to take those changes into account  in<br>
OvzDriver.cc only? Or ONE VM template format is robust and the changes<br>
in other files are required as well (if yes then in which files?)?<br>
For example, I'd like to write MEMORY parameter for OpenVZ VM as<br>
MEMORY  = [ KMEMSIZE="14372700:14790164",<br>
             LOCKEDPAGES="2048:2048",<br>
             PRIVVMPAGES="65536:69632",<br>
             SHMPAGES="21504:21504",<br>
             PHYSPAGES="0:unlimited",<br>
             VMGUARPAGES="33792:unlimited",<br>
             OOMGUARPAGES="26112:unlimited" ]<br>
<br>
whereas for xen now it looks like<br>
<br>
MEMORY = 256.<br>
<br>
Nikolay.<br>
<br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Fri, 25 Mar 2011 12:08:52 +0100<br>
From: Guillaume GENS <<a href="mailto:guillaume.gens@cnam.fr">guillaume.gens@cnam.fr</a>><br>
To: <a href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a><br>
Subject: Re: [one-users] Permission libvirt/qemu driver<br>
Message-ID:<br>
        <<a href="mailto:AANLkTinh-GPrncxLcDKGj3TUvNsTjv-LGVznQtw9NtyE@mail.gmail.com">AANLkTinh-GPrncxLcDKGj3TUvNsTjv-LGVznQtw9NtyE@mail.gmail.com</a>><br>
Content-Type: text/plain; charset=ISO-8859-1<br>
<br>
small up<br>
<br>
nobody help me ?<br>
nobody had a installation problem  with kvm on ubuntu 10.04 ?<br>
<br>
---<br>
Guillaume GENS<br>
<br>
<br>
On Wed, Mar 23, 2011 at 11:33 AM, Guillaume GENS <<a href="mailto:guillaume.gens@cnam.fr">guillaume.gens@cnam.fr</a>> wrote:<br>
> hi<br>
><br>
> I've got a problem deployment about ttylinux image in my Opennebula<br>
> infrastruture (self-contained installation). I think It's a permission<br>
> problem between libvirt and his qemu driver, I tried many solution but<br>
> i can't resolve it.<br>
><br>
> in /srv/cloud/one/var/14/vm.log:<br>
> Wed Mar 23 11:08:10 2011 [VMM][I]: Generating deployment file:<br>
> /srv/cloud/one/var/14/deployment.0<br>
> Wed Mar 23 11:08:40 2011 [VMM][I]: Command execution fail: 'if [ -x<br>
> "/srv/cloud/one/var/remotes/vmm/kvm/deploy" ]; then<br>
> /srv/cloud/one/var/remotes/vmm/kvm/deploy<br>
> /srv/cloud/one/var/images/14/images/deployment.0; else<br>
> ? ? ? ? ? ? exit 42; fi'<br>
> Wed Mar 23 11:08:40 2011 [VMM][I]: STDERR follows.<br>
> Wed Mar 23 11:08:40 2011 [VMM][I]: error: Failed to create domain from<br>
> /srv/cloud/one/var/images/14/images/deployment.0<br>
> Wed Mar 23 11:08:40 2011 [VMM][I]: error: cannot set ownership on<br>
> /srv/cloud/one/var/images/14/images/disk.0: No such file or directory<br>
> Wed Mar 23 11:08:40 2011 [VMM][I]: ExitCode: 255<br>
> Wed Mar 23 11:08:40 2011 [VMM][E]: Error deploying virtual machine:<br>
> error: Failed to create domain from<br>
> /srv/cloud/one/var/images/14/images/deployment.0<br>
> Wed Mar 23 11:08:41 2011 [DiM][I]: New VM state is FAILED<br>
><br>
><br>
> in : /var/log/libvirt/qemu/one-14.log<br>
> LC_ALL=C PATH=/usr/local/sbin:/usr/local/bin:/usr/bin:/usr/sbin:/sbin:/bin<br>
> /usr/bin/kvm -S -M pc-0.12 -cpu qemu32 -enable-kvm -m 64 -smp 1 -name<br>
> one-14 -uuid 279a251a-e841-f910-68d3-0ebe89d6bff9 -nographic -chardev<br>
> socket,id=monitor,path=/var/lib/libvirt/qemu/one-14.monitor,server,nowait<br>
> -monitor chardev:monitor -no-acpi -boot c -drive<br>
> file=/srv/cloud/one/var/images/14/images/disk.0,if=ide,index=0,boot=on,format=raw<br>
> -drive file=/srv/cloud/one/var/images/14/images/disk.1,if=ide,media=cdrom,index=2,format=raw<br>
> -net nic,macaddr=54:52:a3:ad:e7:15,vlan=0,name=nic.0 -net<br>
> tap,fd=33,vlan=0,name=tap.0 -serial none -parallel none -usb<br>
> libvir: QEMU error : cannot set ownership on<br>
> /srv/cloud/one/var/images/14/images/disk.0: No such file or directory<br>
><br>
> in /etc/group :<br>
> kvm:x:115:oneadmin<br>
> libvirtd:x:116:guigui,oneadmin<br>
> cloud:x:9000:<br>
><br>
> oneadmin@frontend:~$ id<br>
> uid=9000(oneadmin) gid=9000(cloud) groups=115(kvm),116(libvirtd),9000(cloud)<br>
><br>
><br>
> in /etc/libvirt/libvirtd.conf :<br>
> unix_sock_group = "libvirtd"<br>
> unix_sock_ro_perms = "0777"<br>
> unix_sock_rw_perms = "0777"<br>
><br>
><br>
> in /etc/libvirt/qemu.conf :<br>
> user = "oneadmin"<br>
> group = "libvirtd"<br>
><br>
><br>
> thanks ahead<br>
><br>
> PS: the download ?wget<br>
> <a href="http://dev.opennebula.org/attachments/download/170/ttylinux.tar.gz" target="_blank">http://dev.opennebula.org/attachments/download/170/ttylinux.tar.gz</a><br>
> always restart past 97%. you've got a problem of EndOfFile in your<br>
> repository.<br>
><br>
> ---<br>
> Guillaume GENS<br>
><br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
<br>
<br>
End of Users Digest, Vol 37, Issue 74<br>
*************************************<br>
</div><br>