OK. With another designed experiment I am quite sure that the problem is within KVM/libvirtd rather OpenNebula. Please see the following, which has nothing to do with OpenNebula.<div><div>root@node1:/srv/cloud/ImgRep/WinXP# virsh list</div>
<div>Connecting to uri: qemu:///system</div><div> Id Name                 State</div><div>----------------------------------</div><div> 27 one-80               running</div><div> 28 one-81               running</div><div>
 29 one-83               running</div><div> 30 one-82               running</div><div> 31 one-79               running</div><div><br></div><div>root@node1:/srv/cloud/ImgRep/WinXP# virsh destroy 29</div><div>Connecting to uri: qemu:///system</div>
<div>Domain 29 destroyed</div><div><br></div><div>root@node1:/srv/cloud/ImgRep/WinXP# virsh list</div><div>Connecting to uri: qemu:///system</div><div> Id Name                 State</div><div>----------------------------------</div>
<div> 27 one-80               running</div><div> 28 one-81               running</div><div> 31 one-79               running</div><div><br></div><div>The /var/log/message shows</div><div><div>Sep 30 08:58:59 node1 kernel: [238101.304619] br1: port 5(vnet4) entering disabled state</div>
<div>Sep 30 08:58:59 node1 kernel: [238101.342851] device vnet4 left promiscuous mode</div><div>Sep 30 08:58:59 node1 kernel: [238101.342854] br1: port 5(vnet4) entering disabled state</div><div>Sep 30 08:58:59 node1 kernel: [238101.424851] br1: port 4(vnet3) entering disabled state</div>
<div>Sep 30 08:59:00 node1 kernel: [238101.463031] device vnet3 left promiscuous mode</div><div>Sep 30 08:59:00 node1 kernel: [238101.463035] br1: port 4(vnet3) entering disabled state</div><div>Sep 30 09:10:53 node1 -- MARK --</div>
<div>Sep 30 09:30:53 node1 -- MARK --</div><div>Sep 30 09:50:53 node1 -- MARK --</div><div>Sep 30 09:51:31 node1 kernel: [241253.266955] device vnet3 entered promiscuous mode</div><div>Sep 30 09:51:31 node1 kernel: [241253.268857] br1: port 4(vnet3) entering learning state</div>
<div>Sep 30 09:51:40 node1 kernel: [241262.260147] br1: topology change detected, propagating</div><div>Sep 30 09:51:40 node1 kernel: [241262.260152] br1: port 4(vnet3) entering forwarding state</div><div>Sep 30 09:53:59 node1 kernel: [241401.204570] br1: port 4(vnet3) entering disabled state</div>
<div>Sep 30 09:53:59 node1 kernel: [241401.232395] device vnet3 left promiscuous mode</div><div>Sep 30 09:53:59 node1 kernel: [241401.232399] br1: port 4(vnet3) entering disabled state</div><div>Sep 30 09:54:20 node1 kernel: [241421.694803] br1: port 2(vnet0) entering disabled state</div>
<div>Sep 30 09:54:20 node1 kernel: [241421.733095] device vnet0 left promiscuous mode</div><div>Sep 30 09:54:20 node1 kernel: [241421.733099] br1: port 2(vnet0) entering disabled state</div><div>Sep 30 09:54:20 node1 kernel: [241421.815209] br2: port 2(vnet1) entering disabled state</div>
<div>Sep 30 09:54:20 node1 kernel: [241421.853728] device vnet1 left promiscuous mode</div><div>Sep 30 09:54:20 node1 kernel: [241421.853732] br2: port 2(vnet1) entering disabled state</div><div>Sep 30 09:54:20 node1 kernel: [241421.935254] br1: port 3(vnet2) entering disabled state</div>
<div>Sep 30 09:54:20 node1 kernel: [241421.963527] device vnet2 left promiscuous mode</div><div>Sep 30 09:54:20 node1 kernel: [241421.963531] br1: port 3(vnet2) entering disabled state</div><div>Sep 30 09:55:29 node1 kernel: [241490.644204] br1: port 6(vnet5) entering disabled state</div>
<div>Sep 30 09:55:29 node1 kernel: [241490.673195] device vnet5 left promiscuous mode</div><div>Sep 30 09:55:29 node1 kernel: [241490.673199] br1: port 6(vnet5) entering disabled state</div><div>Sep 30 10:10:53 node1 -- MARK --</div>
<div>Sep 30 10:11:49 node1 kernel: [242470.955142] device vnet0 entered promiscuous mode</div><div>Sep 30 10:11:49 node1 kernel: [242470.957051] br1: port 2(vnet0) entering learning state</div><div>Sep 30 10:11:52 node1 kernel: [242474.180036] device vnet1 entered promiscuous mode</div>
<div>Sep 30 10:11:52 node1 kernel: [242474.181943] br1: port 3(vnet1) entering learning state</div><div>Sep 30 10:11:55 node1 kernel: [242477.431693] device vnet2 entered promiscuous mode</div><div>Sep 30 10:11:55 node1 kernel: [242477.433558] br1: port 4(vnet2) entering learning state</div>
<div>Sep 30 10:11:58 node1 kernel: [242479.950082] br1: topology change detected, propagating</div><div>Sep 30 10:11:58 node1 kernel: [242479.950086] br1: port 2(vnet0) entering forwarding state</div><div>Sep 30 10:12:00 node1 kernel: [242482.059146] device vnet3 entered promiscuous mode</div>
<div>Sep 30 10:12:00 node1 kernel: [242482.060330] br1: port 5(vnet3) entering learning state</div><div>Sep 30 10:12:01 node1 kernel: [242483.180170] br1: topology change detected, propagating</div><div>Sep 30 10:12:01 node1 kernel: [242483.180173] br1: port 3(vnet1) entering forwarding state</div>
<div>Sep 30 10:12:04 node1 kernel: [242485.710948] device vnet4 entered promiscuous mode</div><div>Sep 30 10:12:04 node1 kernel: [242485.712109] br1: port 6(vnet4) entering learning state</div><div>Sep 30 10:12:04 node1 kernel: [242486.430098] br1: topology change detected, propagating</div>
<div>Sep 30 10:12:04 node1 kernel: [242486.430104] br1: port 4(vnet2) entering forwarding state</div><div>Sep 30 10:12:09 node1 kernel: [242491.051857] br1: topology change detected, propagating</div><div>Sep 30 10:12:09 node1 kernel: [242491.051862] br1: port 5(vnet3) entering forwarding state</div>
<div>Sep 30 10:12:13 node1 kernel: [242494.711792] br1: topology change detected, propagating</div><div>Sep 30 10:12:13 node1 kernel: [242494.711797] br1: port 6(vnet4) entering forwarding state</div><div>Sep 30 10:22:00 node1 kernel: [243082.274008] br1: port 4(vnet2) entering disabled state</div>
<div>Sep 30 10:22:00 node1 kernel: [243082.312108] device vnet2 left promiscuous mode</div><div>Sep 30 10:22:00 node1 kernel: [243082.312112] br1: port 4(vnet2) entering disabled state</div><div>Sep 30 10:22:00 node1 kernel: [243082.365331] br1: port 5(vnet3) entering disabled state</div>
<div>Sep 30 10:22:00 node1 kernel: [243082.393430] device vnet3 left promiscuous mode</div><div>Sep 30 10:22:00 node1 kernel: [243082.393433] br1: port 5(vnet3) entering disabled state</div><div><br></div><div>I have 4 NICs and the ifconfig shows</div>
<div><div>root@node1:/srv/cloud/ImgRep/WinXP# ifconfig</div><div>bond0     Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:57  </div><div>          inet6 addr: fe80::224:e8ff:fe6b:d57/64 Scope:Link</div><div>          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1</div>
<div>          RX packets:7799931 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:6879357 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:0 </div><div>          RX bytes:4360166425 (4.3 GB)  TX bytes:4350243659 (4.3 GB)</div>
<div><br></div><div>br0       Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:57  </div><div>          inet addr:192.168.1.128  Bcast:192.168.1.255  Mask:255.255.255.0</div><div>          inet6 addr: fe80::224:e8ff:fe6b:d57/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:7641913 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:6412260 errors:0 dropped:0 overruns:0 carrier:0</div>
<div>          collisions:0 txqueuelen:0 </div><div>          RX bytes:4169876739 (4.1 GB)  TX bytes:4291182908 (4.2 GB)</div><div><br></div><div>br1       Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:5b  </div><div>          inet6 addr: fe80::224:e8ff:fe6b:d5b/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:152606 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:6 errors:0 dropped:0 overruns:0 carrier:0</div><div>
          collisions:0 txqueuelen:0 </div><div>          RX bytes:11276026 (11.2 MB)  TX bytes:468 (468.0 B)</div><div><br></div><div>br2       Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:5d  </div><div>          inet6 addr: fe80::224:e8ff:fe6b:d5d/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:152596 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:6 errors:0 dropped:0 overruns:0 carrier:0</div><div>
          collisions:0 txqueuelen:0 </div><div>          RX bytes:11286132 (11.2 MB)  TX bytes:468 (468.0 B)</div><div><br></div><div>eth0      Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:57  </div><div>          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1</div>
<div>          RX packets:3622205 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:3443103 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:1000 </div><div>          RX bytes:1758147112 (1.7 GB)  TX bytes:2174389369 (2.1 GB)</div>
<div>          Interrupt:36 Memory:d6000000-d6012700 </div><div><br></div><div>eth1      Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:57  </div><div>          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1</div><div>
          RX packets:4177726 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:3436254 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:1000 </div><div>          RX bytes:2602019313 (2.6 GB)  TX bytes:2175854290 (2.1 GB)</div>
<div>          Interrupt:48 Memory:d8000000-d8012700 </div><div><br></div><div>eth2      Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:5b  </div><div>          inet6 addr: fe80::224:e8ff:fe6b:d5b/64 Scope:Link</div><div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div>
<div>          RX packets:256014 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:91549 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:1000 </div><div>          RX bytes:20680139 (20.6 MB)  TX bytes:17317087 (17.3 MB)</div>
<div>          Interrupt:32 Memory:da000000-da012700 </div><div><br></div><div>eth3      Link encap:Ethernet  HWaddr 00:24:e8:6b:0d:5d  </div><div>          inet6 addr: fe80::224:e8ff:fe6b:d5d/64 Scope:Link</div><div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div>
<div>          RX packets:245189 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:32669 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:1000 </div><div>          RX bytes:20866257 (20.8 MB)  TX bytes:8265329 (8.2 MB)</div>
<div>          Interrupt:42 Memory:dc000000-dc012700 </div><div><br></div><div>lo        Link encap:Local Loopback  </div><div>          inet addr:127.0.0.1  Mask:255.0.0.0</div><div>          inet6 addr: ::1/128 Scope:Host</div>
<div>          UP LOOPBACK RUNNING  MTU:16436  Metric:1</div><div>          RX packets:324787 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:324787 errors:0 dropped:0 overruns:0 carrier:0</div><div>          collisions:0 txqueuelen:0 </div>
<div>          RX bytes:571707504 (571.7 MB)  TX bytes:571707504 (571.7 MB)</div><div><br></div><div>vnet0     Link encap:Ethernet  HWaddr 52:c3:a3:d0:09:84  </div><div>          inet6 addr: fe80::50c3:a3ff:fed0:984/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:72 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:533 errors:0 dropped:0 overruns:0 carrier:0</div><div>
          collisions:0 txqueuelen:500 </div><div>          RX bytes:10410 (10.4 KB)  TX bytes:49306 (49.3 KB)</div><div><br></div><div>vnet1     Link encap:Ethernet  HWaddr 02:0d:4c:1e:5c:82  </div><div>          inet6 addr: fe80::d:4cff:fe1e:5c82/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:36 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:563 errors:0 dropped:0 overruns:0 carrier:0</div><div>
          collisions:0 txqueuelen:500 </div><div>          RX bytes:6023 (6.0 KB)  TX bytes:53245 (53.2 KB)</div><div><br></div><div>vnet4     Link encap:Ethernet  HWaddr a6:58:67:2b:37:8a  </div><div>          inet6 addr: fe80::a458:67ff:fe2b:378a/64 Scope:Link</div>
<div>          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1</div><div>          RX packets:42 errors:0 dropped:0 overruns:0 frame:0</div><div>          TX packets:552 errors:0 dropped:0 overruns:0 carrier:0</div><div>
          collisions:0 txqueuelen:500 </div><div>          RX bytes:6733 (6.7 KB)  TX bytes:52189 (52.1 KB)</div><div>Note that there is no IP address assigned to the br1 device which is used here. I don&#39;t think that should be a problem.</div>
<div><br></div><div>Shi</div></div></div><br><div class="gmail_quote">On Wed, Sep 30, 2009 at 10:09 AM, Shi Jin <span dir="ltr">&lt;<a href="mailto:jinzishuai@gmail.com">jinzishuai@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<b>Here is the vm.log for 76:</b><br>Wed Sep 30 08:57:50 2009 [VMM][D]: Monitor Information:<br>        CPU   : -1<br>        Memory: 1048576<br>        Net_TX: -1<br>        Net_RX: -1<br>Wed Sep 30 08:57:56 2009 [DiM][I]: New VM state is DONE<br>

Wed Sep 30 08:57:56 2009 [VMM][W]: Ignored: LOG - 76 Driver command for 76 cancelled<br><br>Wed Sep 30 08:57:56 2009 [VMM][W]: Ignored: CANCEL SUCCESS 76 -<br><br>Wed Sep 30 08:58:00 2009 [TM][W]: Ignored: LOG - 76 tm_delete.sh: Deleting /srv/cloud/one/var/76/images<br>

<br>Wed Sep 30 08:58:00 2009 [TM][W]: Ignored: LOG - 76 tm_delete.sh: Executed &quot;rm -rf /srv/cloud/one/var/76/images&quot;.<br><br>Wed Sep 30 08:58:00 2009 [TM][W]: Ignored: TRANSFER SUCCESS 76 -<br><br><b>And vm.log for 77:</b><br>

Wed Sep 30 08:57:50 2009 [VMM][D]: Monitor Information:<br>        CPU   : -1<br>        Memory: 1048576<br>        Net_TX: -1<br>        Net_RX: -1<br>Wed Sep 30 08:58:50 2009 [VMM][I]: Command execution fail: virsh dominfo one-77<br>

Wed Sep 30 08:58:50 2009 [VMM][I]: STDERR follows.<br>Wed Sep 30 08:58:50 2009 [VMM][I]: Connecting to uri: qemu:///system<br>Wed Sep 30 08:58:50 2009 [VMM][I]: error: failed to get domain &#39;one-77&#39;<br>Wed Sep 30 08:58:50 2009 [VMM][I]: error: Domain not found<br>

Wed Sep 30 08:58:50 2009 [VMM][I]: ExitCode: 1<br>Wed Sep 30 08:58:50 2009 [VMM][I]: VM running but it was not found. Restart and delete actions available or try to recover it manually<br>Wed Sep 30 08:58:50 2009 [LCM][I]: New VM state is UNKNOWN<br>

Wed Sep 30 08:59:50 2009 [VMM][I]: Command execution fail: virsh dominfo one-77<br>Wed Sep 30 08:59:50 2009 [VMM][I]: STDERR follows.<br>Wed Sep 30 08:59:50 2009 [VMM][I]: Connecting to uri: qemu:///system<br>Wed Sep 30 08:59:50 2009 [VMM][I]: error: failed to get domain &#39;one-77&#39;<br>

Wed Sep 30 08:59:50 2009 [VMM][I]: error: Domain not found<br>Wed Sep 30 08:59:50 2009 [VMM][I]: ExitCode: 1<br>Wed Sep 30 08:59:50 2009 [VMM][I]: VM running but it was not found. Restart and delete actions available or try to recover it manually<br>

<br><div><b>And oned.log:</b></div><div><div>Wed Sep 30 08:57:55 2009 [ReM][D]: VirtualMachineAction invoked</div><div>Wed Sep 30 08:57:55 2009 [DiM][D]: Finalizing VM 76</div><div>Wed Sep 30 08:57:56 2009 [VMM][D]: Message received: LOG - 76 Driver command for 76 cancelled</div>

<div><br></div><div>Wed Sep 30 08:57:56 2009 [VMM][D]: Message received: CANCEL SUCCESS 76 -</div><div><br></div><div>Wed Sep 30 08:57:58 2009 [ReM][D]: VirtualMachinePoolInfo method invoked</div><div>Wed Sep 30 08:58:00 2009 [TM][D]: Message received: LOG - 76 tm_delete.sh: Deleting /srv/cloud/one/var/76/images</div>

<div><br></div><div>Wed Sep 30 08:58:00 2009 [TM][D]: Message received: LOG - 76 tm_delete.sh: Executed &quot;rm -rf /srv/cloud/one/var/76/images&quot;.</div><div><br></div><div>Wed Sep 30 08:58:00 2009 [TM][D]: Message received: TRANSFER SUCCESS 76 -</div>

<div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][I]: Monitoring VM 72.</div><div>Wed Sep 30 08:58:50 2009 [VMM][I]: Monitoring VM 73.</div><div>Wed Sep 30 08:58:50 2009 [VMM][I]: Monitoring VM 77.</div><div>Wed Sep 30 08:58:50 2009 [VMM][I]: Monitoring VM 78.</div>

<div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: POLL SUCCESS 72  STATE=a USEDMEMORY=1048576</div><div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 Command execution fail: virsh dominfo one-77</div>

<div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 STDERR follows.</div><div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 Connecting to uri: qemu:///system</div>

<div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 error: failed to get domain &#39;one-77&#39;</div><div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 error: Domain not found</div>

<div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: LOG - 77 ExitCode: 1</div><div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: POLL SUCCESS 77 STATE=d</div><div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: POLL SUCCESS 73  STATE=a USEDMEMORY=1048576</div>

<div><br></div><div>Wed Sep 30 08:58:50 2009 [VMM][D]: Message received: POLL SUCCESS 78  STATE=a USEDMEMORY=1048576</div><div><br></div><div>Wed Sep 30 08:59:02 2009 [InM][I]: Monitoring host node1 (4)</div><div>Wed Sep 30 08:59:06 2009 [InM][D]: Host 4 successfully monitored.</div>

<div><br></div><div><b>In my opinion the above log files don&#39;t have much more information than VM 77 is no longer available.</b></div><div><b><br></b></div><div><b>Shi</b></div></div><div><div></div><div class="h5"><br>
On Wed, Sep 30, 2009 at 10:02 AM, Ruben S. Montero &lt;<a href="mailto:rubensm@dacya.ucm.es" target="_blank">rubensm@dacya.ucm.es</a>&gt; wrote:<br>
&gt; Hi,<br>&gt;<br>&gt; Does the 77 vm.log say something relevant? Can you send us also the<br>&gt; vm.log file for 76? OpenNebula should never try to delete VM 77...<br>&gt;<br>&gt; Thanks<br>&gt;<br>&gt; Ruben<br>&gt;<br>

&gt; On Wed, Sep 30, 2009 at 5:28 PM, Shi Jin &lt;<a href="mailto:jinzishuai@gmail.com" target="_blank">jinzishuai@gmail.com</a>&gt; wrote:<br>&gt;&gt; Hi there,<br>&gt;&gt;<br>&gt;&gt; I am running one-1.4beta with KVM hypervisor.<br>
&gt;&gt; Recently I found a very bizarre behavior of &quot;onevm delete&quot;.<br>
&gt;&gt; For example, initially there are 5 VMs running:72,73,76,77,78.<br>&gt;&gt; Then I did &quot;onevm delete 76&quot; and found only 3 VMs are left: the VM 77<br>&gt;&gt; is also deleted.<br>&gt;&gt; &quot;virsh list&quot; on the host node shows VM 77 is gone and &quot;onevm list&quot;<br>

&gt;&gt; shows its status to be unknown.<br>&gt;&gt; I think this is a serious bug and requires a quick fix.<br>&gt;&gt; I tried to dig into the OpenNebula log files but found nothing other<br>&gt;&gt; than &quot; Command execution fail: virsh dominfo one-77&quot; after the &quot;onevm<br>

&gt;&gt; delete 76&quot; command.<br>&gt;&gt;<br>&gt;&gt; On the host node, the syslog shows something interesting:<br>&gt;&gt; Sep 30 08:58:59 node1 kernel: [238101.304619] br1: port 5(vnet4)<br>&gt;&gt; entering disabled state<br>

&gt;&gt; Sep 30 08:58:59 node1 kernel: [238101.342851] device vnet4 left promiscuous mode<br>&gt;&gt; Sep 30 08:58:59 node1 kernel: [238101.342854] br1: port 5(vnet4)<br>&gt;&gt; entering disabled state<br>&gt;&gt; Sep 30 08:58:59 node1 kernel: [238101.424851] br1: port 4(vnet3)<br>

&gt;&gt; entering disabled state<br>&gt;&gt; Sep 30 08:59:00 node1 kernel: [238101.463031] device vnet3 left promiscuous mode<br>&gt;&gt; Sep 30 08:59:00 node1 kernel: [238101.463035] br1: port 4(vnet3)<br>&gt;&gt; entering disabled state<br>

&gt;&gt; Sep 30 08:59:53 node1 libvirtd: 08:59:53.480: error : Domain not found<br>&gt;&gt;<br>&gt;&gt; Please note that the VM 76,77,78 all use the same vnet (bridged on<br>&gt;&gt; br1) and their corresponding ports are vnet3,vnet4 and vnet5.  I am<br>

&gt;&gt; not exactly sure what  the above message implies but I have a feeling<br>&gt;&gt; that something went wrong about the network. In this sense, this<br>&gt;&gt; problem may not be a OpenNebula bug, possibly a KVM bug too.<br>

&gt;&gt;<br>&gt;&gt; Actually this kind of problem has happened many times for us. This is<br>&gt;&gt; my first time to carefully record what has happened.<br>&gt;&gt; I am wondering if anyone has encountered this kind of problem before<br>

&gt;&gt; and is there a fix?<br>&gt;&gt;<br>&gt;&gt; Thanks a lot.<br>&gt;&gt;<br>&gt;&gt; Shi<br>&gt;&gt; --<br>&gt;&gt; Shi Jin, Ph.D.<br>&gt;&gt; _______________________________________________<br>&gt;&gt; Users mailing list<br>

&gt;&gt; <a href="mailto:Users@lists.opennebula.org" target="_blank">Users@lists.opennebula.org</a><br>&gt;&gt; <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>

&gt;&gt;<br>&gt;<br>&gt;<br>&gt;<br>&gt; --<br>&gt; +---------------------------------------------------------------+<br>&gt;  Dr. Ruben Santiago Montero<br>&gt;  Associate Professor<br>&gt;  Distributed System Architecture Group (<a href="http://dsa-research.org" target="_blank">http://dsa-research.org</a>)<br>

&gt;<br>&gt;  URL:    <a href="http://dsa-research.org/doku.php?id=people:ruben" target="_blank">http://dsa-research.org/doku.php?id=people:ruben</a><br>&gt;  Weblog: <a href="http://blog.dsa-research.org/?author=7" target="_blank">http://blog.dsa-research.org/?author=7</a><br>

&gt;<br>&gt;  GridWay, <a href="http://www.gridway.org" target="_blank">http://www.gridway.org</a><br>&gt;  OpenNebula, <a href="http://www.opennebula.org" target="_blank">http://www.opennebula.org</a><br>&gt; +---------------------------------------------------------------+<br>

&gt;<br><br><br><br></div></div>-- <br>Shi Jin, Ph.D.<br><br><br></div>
</blockquote></div><br><br clear="all"><br>-- <br>Shi Jin, Ph.D.<br><br>
</div>