PDA

Bekijk Volledige Versie : [docs] Diskless Xen dom0



Wido
12/12/07, 15:17
Hallo,

Naar aanleiding van: http://www.webhostingtalk.nl/vps-forum/128154-xen-brengt-vif0-0-en-peth0-niet-up.html

De NFS setup ging dus niet goed werken, daarom ben ik het in een andere hoek gaan zoeken.

In dit geval boot ik mijn gehele OS in een initrd.

Ik heb mijn werkwijze gedocumenteerd en online gezet.

Te downloaden op: http://crew.pcextreme.nl/~wido/doc/xen_dom0_diskless_initrd.pdf

Uiteraard nog even een disclaimer:
Ik geef geen support hier op, kom ook niet met vragen: "Het lukt niet", daar help ik niet mee! :)

Vragen zijn welkom, mits onderbouwd en duidelijk geformuleerd.

Ik schrijf dit overigens uit mijn eigen perspectief en heb hier geen rekening gehouden met de zakelijke correctheid. Het logo staat dan ook alleen op de PDF omdat het mijn werk is.


Verder, brand hier los! Hopelijk kunnen we hier een interessante discussie starten.

hrodenburg
12/12/07, 15:27
Cool!, ik ga er zeker even een test systeempje mee maken

WilloW
12/12/07, 16:14
Wido, Bedankt dat je dit met ons wil delen. Zodra ik eens tijd heb zal ik hier ook eens na kijken of dit misschien voor onze constructies ook iets is.

davhog
13/12/07, 08:40
Super!!

Bedankt voor het delen van deze info.

Wido
13/12/07, 09:27
Graag gedaan!

Ik heb hier nu een paar SuperMicro machine's opgezet in enkele minuten.

- TFTP configs aanmaken
- Netwerk configs op de HTTP-server zetten

En de machines draaien!

Ze draaien nu al enkele uren te benchen/stressen, maar dat gaat tot nu toe prima, nog geen foutmeldingen of crashes.

CharlieRoot
13/12/07, 09:49
Wij zijn bezig met een nieuwe bladecluster en hierbij storage servers, ik ga het hier ook eens op proberen. Als dit goed werkt zou een uitkomst zijn!

Wido
13/12/07, 10:07
Wij zijn bezig met een nieuwe bladecluster en hierbij storage servers, ik ga het hier ook eens op proberen. Als dit goed werkt zou een uitkomst zijn!Ik ga het op precies de zelfde manier gebruiken. SuperMicro blades die draaien als dom0's en daar achter een SAN die de iSCSI aanlevert voor de domU's.

CharlieRoot
13/12/07, 10:15
ben benieuwd of het bij ons ook zo gaat werken (HP Blade's, Xeon processoren en een HP Storage server)

Wido
14/12/07, 20:20
ben benieuwd of het bij ons ook zo gaat werken (HP Blade's, Xeon processoren en een HP Storage server)Onze SuperMicro blades zijn vandaag online gegaan en daar draait het prima op.

De test opstelling die ik heb draaien, ook SuperMicro hardware draait nu al dagen prima.

Ik ben mijn domU nu elk uur Live aan het migraten naar een andere node, gaat nog steeds goed.


xm001:~# uptime
20:13:29 up 4 days, 6:34, 1 user, load average: 0.00, 0.00, 0.00
xm001:~#

Mijn nodes geven ook geen problemen, geen foutmeldingen van het kernel of verder iets te merken.

Het geheugen gebruik is ook stabiel.


root@node01:~# uptime
20:14:46 up 1 day, 6:43, 0 users, load average: 0.00, 0.00, 0.00
root@node01:~# free -m
total used free shared buffers cached
Mem: 1481 315 1165 0 0 212
-/+ buffers/cache: 102 1378
Swap: 0 0 0
root@node01:~#

In die 315MB zit dus het OS zelf (de bestanden) en het geheugen dat nodig is om het OS te draaien.

Ik heb vooral alle docs, man's, locales e.d. uit het systeem gegooid, dan kan je flink strippen. Het OS zelf is nu nog maar 206MB groot.

Mijn streven is <200MB, dus nog 7MB te gaan.

Verder heb ik her en der nog wat getuned in mijn initrd, maar dat zijn meer dingen die specifiek zijn voor intern gebruik bij ons.

Sander-
14/12/07, 23:12
Wij gaan hier ook mee testen, alleen dan niet met zulke high-end hardware, bij ons wss op een paar simpele servers met een open-E iSCSI oplossing erbij. Mocht het goed gaan dan kunnen we altijd nog verder kijken....

Wido
15/12/07, 11:26
Je hoeft het uiteraard niet op blade-servers draaien, het kan prima op losse machine's draaien met een Open-E of OpenFiler machine er achter.

Blade-servers zijn bij groot gebruik zuiniger met energie tov losse machine's, daarom hebben wij er voor gekozen.

Ik raad je aan in een setup als deze wel voor exact de zelfde hardware te kiezen.

gjtje
15/12/07, 11:37
Waarom heb je niet gekozen voor een extra netwerkkaart? Deze zou je dan aan je mangement vlan kunnen koppelen waarover je het NFS verkeer laat lopen, dan is dit ook mooi gescheiden van het publieke netwerk.
Het lijkt mij dat er hier nog al veel schakels in zitten welke een probleem kunnen veroorzaken.

Wido
15/12/07, 11:40
Waarom heb je niet gekozen voor een extra netwerkkaart? Deze zou je dan aan je mangement vlan kunnen koppelen waarover je het NFS verkeer laat lopen, dan is dit ook mooi gescheiden van het publieke netwerk.
Het lijkt mij dat er hier nog al veel schakels in zitten welke een probleem kunnen veroorzaken.Daar heb ik aan gedacht, echter zitten er op de blades 2 NIC's in gebakken wat je niet kan veranderen.

En met VLAN's werken gaat niet, Xen brengt echt de hele NIC down om de bridges up te brengen.

Ik denk persoonlijk dat je met NFS meer problemen kan krijgen. Wat kan er volgens jou hier fout gaan?

gjtje
15/12/07, 16:35
Het voordeel t.o.v. NFS is natuurlijk weer dat je het boot platform kan vervangen, aanpassen of naar de andere kant van de wereld kan verhuizen terwijl alles doordraait.
Bij NFS zal je weer moeten zorgen voor een redundante NFS host. Toch zijn er een aantal schakels waar iets mis kan gaan. En dat is niet zo erg, ik vraag mij alleen af hoe makkelijk je er achter komt waar iets mis zit.

Wido
15/12/07, 18:20
Ik neem het ook zeker nog niet direct in productie, ik ga eerst de meest maffe situaties proberen na te bootsen en kijken wat er fout gaat.

Helaas kan je in een test omgeving nooit alles nabootsen, maar wel een hoop.

De standaard dingen als kabels er uit trekken e.d., die zijn prima te testen.