<table cellspacing="0" cellpadding="0" border="0" ><tr><td valign="top" style="font: inherit;">Hi,<br><br>Here, we are using a home-made PXE script that create partitions and do a bootstrap of a standard OS (Debian and Centos). Then all package install and configuration is done by CFengine.<br><br>SystemRescueCD is a good choice, and easily PXE bootable, but we had some trouble with it, especially with odd hardware ( unrecognized NIC or RAID controler.) <br><br>A few years ago, I used partimage. It work well and consume less space than a simple dd.<br>Also, using IPMI over LAN could be interesting to manage hardware servers as virtual machines.<br><br>Although a configuration manager like CFengine or Puppet is mandatory 
for a cloud, I think it's out of scope for integration in OpenNebula. Deploy a custom image, OS independant,  (with the same system as vm?) seems to be a simple way and facilitate integration with existing infrastructure.<br><br>Cheers,<br>Nicolas AGIUS<br><br>PS: We are using Centos 5 for Xen hosts, with backported kernel from SUSE, because openSUSE life-cycle is really too short for us.<br><br>--- En date de : <b>Mar 6.11.12, Jaime Melis <i><jmelis@opennebula.org></i></b> a écrit :<br><blockquote style="border-left: 2px solid rgb(16, 16, 255); margin-left: 5px; padding-left: 5px;"><br>De: Jaime Melis <jmelis@opennebula.org><br>Objet: Re: [one-users] using PXE to boot xen hvm<br>À: "Steve Heistand" <steve.heistand@nasa.gov><br>Cc: "Users OpenNebula" <users@lists.opennebula.org><br>Date: Mardi 6 novembre 2012, 0h19<br><br><div id="yiv1728661749">Hello Steve,<div><br></div><div>This is a very interesting email,
 mainly because one of the upcoming features we want to deliver with the next release of OpenNebula is integration with bare metal provisioning systems. So, I'd like to take this opportunity to ask for more opinions from the community about this feature. So, a few questions for the community:</div>


<div>- Do you have a favourite PXE installation system you want to see OpenNebula integrated with</div><div>- Is there any specific feature of the bare metal provision system you'd like to see addressed?</div><div>- Do you have any ideas / suggestions about this?</div>


<div> </div><div>For the moment, let me describe you what we do internally at OpenNebula to address this problem.</div><div><br></div><div>- Manually install the bare metal system (once) and configure it:</div><div>  - network dhcp</div>


<div>  - remove persistent udev rules</div><div>  - configure hypervisor</div><div>  - oneadmin user, ruby, and the rest of opennebula dependencies</div><div>  - add SSH keys</div><div>  - etc</div><div>- Restart the server and boot from system rescue cd [1] </div>


<div>- Backup the system installation by doing 'dd|gzip' of the disk drive over NFS to our NAS</div><div><br></div><div>Once that's ready we deploy with a small webapp internally developed utility that does the following:</div>

<div>- the webapp configures the tftpboot so that the server will boot a system rescue cd over pxe<br></div><div>- once when the system rescue boots it automatically executes an autorun script [2] that is dynamically served by http by the webapp wich contains the command to  dump the backed up image to the disk. (I'm happy to share more configuration specific details)</div>


<div><br></div><div>As you can see this has a few shortcomings, the most important one being that we aren't using kickstarts, basically because we want to cover all the OS.</div><div><br></div><div>And answering your question about what do we use for Xen, we are currently using openSUSE since it has an out-of-the-box support for Xen which makes life a lot easier.</div>


<div><br></div><div>[1] <a rel="nofollow" target="_blank" href="http://www.sysresccd.org/SystemRescueCd_Homepage">http://www.sysresccd.org/SystemRescueCd_Homepage</a></div><div>[2] <a rel="nofollow" target="_blank" href="http://www.sysresccd.org/Sysresccd-manual-en_Run_your_own_scripts_with_autorun">http://www.sysresccd.org/Sysresccd-manual-en_Run_your_own_scripts_with_autorun</a><br>


</div><div><br></div><div>Cheers,<br>Jaime</div>
<div class="yiv1728661749gmail_extra"><br><br><div class="yiv1728661749gmail_quote">On Mon, Nov 5, 2012 at 4:34 PM, Steve Heistand <span dir="ltr"><<a rel="nofollow" ymailto="mailto:steve.heistand@nasa.gov" target="_blank" href="/mc/compose?to=steve.heistand@nasa.gov">steve.heistand@nasa.gov</a>></span> wrote:<br>

<blockquote class="yiv1728661749gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">-----BEGIN PGP SIGNED MESSAGE-----<br>
Hash: SHA1<br>
<br>
Im curious to know peoples' thoughts on how to take bare hardware<br>
without an OS and get a xen aware base kernel on it so it will<br>
take guest OS's from opennebula?<br>
<br>
I was looking around for options involving various live cds,<br>
found a nice livecd-xen thing but it hangs are boot time on our nodes.<br>
the console was complaining about a bad .iso file when it booted<br>
but the md5sum of it is at it should be. (its booted up with memdisk/gpxelinux/httpd)<br>
<br>
is there a handy/easy way to get new empty hardware available for opennebula?<br>
<br>
thanks<br>
<br>
steve<br>
<br>
<br>
<br>
- --<br>
************************************************************************<br>
 Steve Heistand                          NASA Ames Research Center<br>
 email: <a rel="nofollow" ymailto="mailto:steve.heistand@nasa.gov" target="_blank" href="/mc/compose?to=steve.heistand@nasa.gov">steve.heistand@nasa.gov</a>          Steve Heistand/Mail Stop 258-6<br>
 ph: <a rel="nofollow">(650) 604-4369</a>                      Bldg. 258, Rm. 232-5<br>
 Scientific & HPC Application            P.O. Box 1<br>
 Development/Optimization                Moffett Field, CA 94035-0001<br>
************************************************************************<br>
 "Any opinions expressed are those of our alien overlords, not my own."<br>
-----BEGIN PGP SIGNATURE-----<br>
Version: GnuPG v2.0.14 (GNU/Linux)<br>
<br>
iEYEARECAAYFAlCYMOgACgkQoBCTJSAkVrHBYwCgtN9vJGa46j3yOzLU4bmaVagf<br>
Zh0AoN5OkHpkInjqAJrBbp7LX1e732FD<br>
=X0CW<br>
-----END PGP SIGNATURE-----<br>
_______________________________________________<br>
Users mailing list<br>
<a rel="nofollow" ymailto="mailto:Users@lists.opennebula.org" target="_blank" href="/mc/compose?to=Users@lists.opennebula.org">Users@lists.opennebula.org</a><br>
<a rel="nofollow" target="_blank" href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br>
</blockquote></div><br></div><br clear="all"><div><br></div>-- <br>Jaime Melis<br>Project Engineer<br>OpenNebula - The Open Source Toolkit for Cloud Computing<br><a rel="nofollow" target="_blank" href="http://www.OpenNebula.org">www.OpenNebula.org</a> | <a rel="nofollow" ymailto="mailto:jmelis@opennebula.org" target="_blank" href="/mc/compose?to=jmelis@opennebula.org">jmelis@opennebula.org</a><br>


</div><br>-----La pièce jointe associée suit-----<br><br><div class="plainMail">_______________________________________________<br>Users mailing list<br><a ymailto="mailto:Users@lists.opennebula.org" href="/mc/compose?to=Users@lists.opennebula.org">Users@lists.opennebula.org</a><br><a href="http://lists.opennebula.org/listinfo.cgi/users-opennebula.org" target="_blank">http://lists.opennebula.org/listinfo.cgi/users-opennebula.org</a><br></div></blockquote></td></tr></table>