<html><body><div style="font-family: trebuchet ms,sans-serif; font-size: 10pt; color: #000000"><div>How is the Virtual Network configured in OpenNebula?</div><div><br></div><div>Can you do a 'brctl show' on the Hypervisor and ensure that a vnet interface for the VM is attached?</div><div><br></div><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;" data-mce-style="color: #000; font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Markus Hubig" <mhubig@imko.de><br><b>To: </b>"Bill Campbell" <bcampbell@axcess-financial.com><br><b>Cc: </b>"OpenNebula Mailing List" <users@lists.opennebula.org><br><b>Sent: </b>Thursday, November 15, 2012 8:45:25 AM<br><b>Subject: </b>Re: [one-users] Strange Networking Problems<br><div><br></div>Yes it doesn't matter if I ping the ip or the hostname.<div><br></div><div>puppet is an alias of cc00 and cc00 is the cloud controller (192.168.1.60).<br></div><div>jenkins is a vm (192.168.1.70)</div><div><br></div><div>Cheers, Markus</div><div class="gmail_extra"><br><div><br></div><div class="gmail_quote">On Thu, Nov 15, 2012 at 2:31 PM, Campbell, Bill <span dir="ltr"><<a href="mailto:bcampbell@axcess-financial.com" target="_blank" data-mce-href="mailto:bcampbell@axcess-financial.com">bcampbell@axcess-financial.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex" data-mce-style="margin: 0 0 0 .8ex; border-left: 1px #ccc solid; padding-left: 1ex;">Does this happen when pinging the IP addresses directly?<br> <br> To help troubleshoot, what are the puppet, jenkins, and cc00 hostnames pointed to? (cloud controller, hypervisor, etc.)<br><div><div class="h5"><br> ----- Original Message -----<br> From: "Markus Hubig" <<a href="mailto:mhubig@imko.de" target="_blank" data-mce-href="mailto:mhubig@imko.de">mhubig@imko.de</a>><br> To: "OpenNebula Mailing List" <<a href="mailto:users@lists.opennebula.org" target="_blank" data-mce-href="mailto:users@lists.opennebula.org">users@lists.opennebula.org</a>><br> Sent: Thursday, November 15, 2012 7:44:30 AM<br> Subject: [one-users] Strange Networking Problems<br> <br> Hi @all,<br> <br> I'm experencing a strage networking behavor here. Every time I login to a VM<br> from my workstation, my SSH session freezes regularlily for a couple of<br> seconds, the it starts to work again. Also if I try to ping something I have<br> a huge package drop.<br> <br> | # ping puppet.imko<br> | PING puppet.imko (192.168.1.60) 56(84) bytes of data.<br> | From jenkins.imko (192.168.1.70) icmp_seq=1 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=2 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=3 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=4 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=5 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=6 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=7 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=8 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=9 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=10 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=11 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=12 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=13 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=14 Destination Host Unreachable<br> | From jenkins.imko (192.168.1.70) icmp_seq=15 Destination Host Unreachable<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=16 ttl=64 time=1.26 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=17 ttl=64 time=0.504 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=18 ttl=64 time=0.487 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=19 ttl=64 time=0.464 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=20 ttl=64 time=0.541 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=21 ttl=64 time=0.498 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=22 ttl=64 time=0.440 ms<br> | 64 bytes from cc00.imko (192.168.1.60): icmp_req=23 ttl=64 time=0.534 ms<br> <br> I suspect that I have some kind of a network missconfiguration, but I can't<br> find the problem... ;-(<br> <br> I set up a CloudController running one with two network connections eth0 and<br> eth1. eth0 (192.168.1.60) is intended to connect to the company LAN and eth1<br> (172.16.1.10) is the infrastrukture network intendet to connect to the<br> computing nodes and the storage servers (glusterfs). The computing nodes and<br> the glusterfs nodes have only ips in the <a href="http://172.168.1.0/24" target="_blank" data-mce-href="http://172.168.1.0/24">172.168.1.0/24</a> network to separate<br> them from the company lan (<a href="http://192.168.1.0/24" target="_blank" data-mce-href="http://192.168.1.0/24">192.168.1.0/24</a>).<br> <br> The computing nodes have 4 network ports which I bond together to incrase the<br> thouput (as seen on the image). bond0 is added to the bridge br0 and has no ip<br> address, bond1 has an address from the <a href="http://172.168.1.0/24" target="_blank" data-mce-href="http://172.168.1.0/24">172.168.1.0/24</a> network.<br> <br> The ifconfig output on node01 shows that only bond1 has an ip address. And the<br> routing table looks like this:<br> <br> | Destination     Gateway         Genmask         Flags Metric Ref    Use Iface<br> | 0.0.0.0         172.16.1.10     0.0.0.0         UG    100    0        0 bond1<br> | 172.16.1.0      0.0.0.0         255.255.255.0   U     0      0        0 bond1<br> <br> The /etc/network/interfaces on node01 looks like this:<br> <br> | # The loopback network interface<br> | auto lo<br> | iface lo inet loopback<br> |<br> | # The eth0 interface<br> | auto eth0<br> | iface eth0 inet manual<br> |     bond-master bond0<br> |<br> | # The eth1 interface<br> | auto eth1<br> | iface eth1 inet manual<br> |     bond-master bond0<br> |<br> | # The eth2 interface<br> | auto eth2<br> | iface eth2 inet manual<br> |     bond-master bond1<br> |<br> | # The eth3 interface<br> | auto eth3<br> | iface eth3 inet manual<br> |     bond-master bond1<br> |<br> | # The public network interface<br> | auto bond0<br> | iface bond0 inet manual<br> |     # Bind this interfaces<br> |     bond-slaves none<br> |     # Balance-RR configuration<br> |     bond_mode balance-rr<br> |     bond_miimon 100<br> |     bond_updelay 200<br> |     bond_downdelay 200<br> |<br> | # The storage network interface<br> | auto bond1<br> | iface bond1 inet static<br> |     # Static assign the IP, netmask, default gateway.<br> |     address 172.16.1.21<br> |     netmask 255.255.255.0<br> |     gateway 172.16.1.10<br> |     # Bind this interfaces<br> |     bond-slaves none<br> |     # Balance RR configuration<br> |     bond_mode balance-rr<br> |     bond_miimon 100<br> |     bond_updelay 200<br> |     bond_downdelay 200<br> |<br> | # The public bridge interface<br> | auto br0<br> | iface br0 inet static<br> |     # Static assign the IP, netmask, default gateway.<br> |     address 0.0.0.0<br> |     # Bind one or more interfaces to the bridge.<br> |     bridge_ports bond0<br> |     # Tune the bridge for a single interface.<br> |     bridge_stp off<br> |     bridge_fd 0<br> |     bridge_maxwait 0<br> <br> <br> <br>             +------------------------------+<br>             |       Cloud Controller       |<br>             |                              |<br>             |      eth0           eth1     |<br>             | 192.168.1.60    172.16.1.10  |<br>             +-------+------------+---------+<br>                     |            |<br>       +-------------+------------+-------------+   +---------------+<br>       |                 Switch                 +---+  Workstation  |<br>       +--+----------+------------+----------+--+   | 192.168.1.101 |<br>          |          |            |          |      +---------------+<br>          |          |            |          |<br>          |          |            |          |<br>     +----+----------+------------+----------+----+<br>     |   eth0       eth1         eth2       eth3  |<br>     |    |          |            |          |    |<br>     |    |          |            |          |    |<br>     | +--+----------+--+      +--+----------+--+ |<br>     | |      bond0     |      |      bond1     | |<br>     | |     (no ip)    |      | (172.168.1.20) | |<br>     | +--------+-------+      +----------------+ |<br>     |          |                                 |<br>     | +--------+-----------+                     |<br>     | |        |           |  +--------------+   |<br>     | |      bond0  vnet0--+--+ eth0 (vm0)   |   |<br>     | |                    |  | 192.168.1.20 |   |<br>     | |                    |  +--------------+   |<br>     | |                    |                     |<br>     | |   br0              |  +--------------+   |<br>     | | (no IP)     vnet1--+--+  eth0 (vm1)  |   |<br>     | |                    |  | 192.168.1.21 |   |<br>     | |                    |  +--------------+   |<br>     | +--------------------+                     |<br>     |                    node01                  |<br>     +--------------------------------------------+<br> <br> As far as I know the nodes don't need a special route for the VM Network.<br> And maybe the problem is from the bonding configuration. Or maby I need to<br> enable STP on the bridge ... but I don't unterstand the problem yet.<br> <br> I could really need some help here!<br> <br> Cheers, Markus<br></div></div>_______________________________________________<br> Users mailing list<br> <a href="mailto:Users@lists.opennebula.org" target="_blank" data-mce-href="mailto:Users@lists.opennebula.org">Users@lists.opennebula.org</a><br> <a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank" data-mce-href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br> <br> <br> NOTICE: Protect the information in this message in accordance with the company's security policies. If you received this message in error, immediately notify the sender and destroy all copies.<br> <br> <br></blockquote></div><br><br clear="all"><div><br></div>-- <br>_______________________________________________________<br><div><br></div>IMKO Micromodultechnik GmbH<br>Markus Hubig<br>Development & Research<br>Im Stoeck 2<br>D-76275 Ettlingen / GERMANY<br> <br>HR: HRB 360936 Amtsgericht Mannheim<br>President: Dipl.-Ing. (FH) Kurt Koehler<br><div><br></div>Tel: 0049-(0)7243-5921-26<br>Fax: 0049-(0)7243-5921-40<br>e-mail: <a href="mailto:mhubig@imko.de" target="_blank" data-mce-href="mailto:mhubig@imko.de">mhubig@imko.de</a><br> internet: <a href="http://www.imko.de" target="_blank" data-mce-href="http://www.imko.de">www.imko.de</a><br>_______________________________________________________<br></div></div><div><br></div></div>
<br>

<html><body><b>NOTICE: Protect the information in this message in accordance with the company's security policies. If you received this message in error, immediately notify the sender and destroy all copies.</b></body></html>



<br></body></html>