PDA

Bekijk Volledige Versie : Virtualisatie, wie gebruikt het?



Wido
27/10/06, 13:31
Hallo,

De laatste tijd ben ik steeds meer gebruik gaan maken van Virtualisatie voor diverse dingen.

Zo maken wij veel gebruik van Linux-VServer (http://www.linux-vserver.org/) voor het virtualiseren van diverse diensten.

Het voordeel hiervan is dat je snel een heel systeem op een andere host draaiende kan hebben zonder al te veel lastige truucjes.

Draai regelmatig een backup van je VPS/guest/hoe je het wil noemen en je hebt deze in een korte tijd weer draaiend op een ander systeem.

Nu vraag ik me af, wie maakt er nog meer gebruik van virtualisatie en op welke manier?

gjtje
27/10/06, 13:40
Zijn nog steeds bezig VPS hosting op te zetten. ;)

Verder wordt het gebruikt om snel een test configuratie op te zetten om een situatie bij een klant na te bootsen, of voor ontwikkeling van applicaties die speciale behoeftes hebben waardoor de "gewone" dev server niet voldoet.
Je kan ook leuk installatie scripts testen door na de test een snapshop terug te zetten.

De backup dns/mx en linux webhosting draaien beide in een (Xen) vps. Het voordeel is ook dat je een systeem kan opzetten puur gericht op een bepaalde functie.

Uiteindelijk wil ik alles gaan virtualiseren. De nieuwe mogelijkheden wegen veel zwaarder dan het kleine beetje performance dat je inlevert. Een update kan je eenvoudig testen door even een snapshot te maken en deze daar op uit te voeren. Migratie is een paar klikken en wat data over het netwerk sturen, etc. ;)

nzyme
27/10/06, 13:47
Hier ook Xen :) werkt perfect. Binnenkort ook maar eens bij het dienstenpakket zetten.

Wido
27/10/06, 13:53
Het gaat me hier nu niet om wie het als dienst aan bied, waar vooral wie zijn eigen diensten (bijvoorbeeld hosting, dns-servers, mailservers) in virtuele omgevingen draait.

Wat zijn je ervaringen en wat gebruik je? (VServer, Xen, VMWare, etc, etc)

nzyme
27/10/06, 14:02
Het gaat me hier nu niet om wie het als dienst aan bied, waar vooral wie zijn eigen diensten (bijvoorbeeld hosting, dns-servers, mailservers) in virtuele omgevingen draait.

Wat zijn je ervaringen en wat gebruik je? (VServer, Xen, VMWare, etc, etc)
webserver/mail (DirectAdmin) en sql ieder in een aparte DomU, mocht sql later stevig in gebruik zijn gooi ik ff mailing de deur uit dat er wat downtime zal zijn voor database gerelateerde zaken en copieer ik de sql DomU naar een dedicated host. Althans dat is het plan :)

AlexanderOnline
27/10/06, 14:31
Dat is inderdaad wel slim, zo kun je veel makkelijker uitbreiden. Ik ben er naar aan het kijken wat ik er mee kan, wat de voordelen zijn en hoe wij het zouden kunnen gebruiken.

almar
27/10/06, 14:40
Wij gebruiken het nog niet actief, maar ik moet zeggen dat het in combinatie met IIS wel een uitkomst is. Met name het restoren gaat een stuk sneller. Als je een machine key op processorniveau hebt, moet je heel IIS opnieuw gaan opbouwen. Nu hoeft dat niet.

Wido
27/10/06, 14:55
Dat is inderdaad wel slim, zo kun je veel makkelijker uitbreiden. Ik ben er naar aan het kijken wat ik er mee kan, wat de voordelen zijn en hoe wij het zouden kunnen gebruiken.
Inderdaad, als je bak niet meer krachtig genoeg is, kan je je services zonder al te veel downtime zo overzetten naar een andere host.

gjtje
27/10/06, 15:02
Wat ideaal zou zijn is dat je een centrale SAN hebt en verder geclusterde nodes waar je vm's op draaien. Wat precies waar draait doet er niet toe. Je wijst een bepaalde capaciteit toe aan een vm en de nodes zorgen onderling maar dat dit gebeurd. Maar goed, dan heb je ook wel een flinke zak geld nodig. ;)

nzyme
27/10/06, 15:07
hmm interessant.... een X aantal nodes die een synced filesystem hebben op basis van drbd.. Nix geen backup server(s) meer aangzien van uitval pas sprake is als je complete rack zonder stroom zou komen te zitten :D

Wido
27/10/06, 15:10
Wat ideaal zou zijn is dat je een centrale SAN hebt en verder geclusterde nodes waar je vm's op draaien. Wat precies waar draait doet er niet toe. Je wijst een bepaalde capaciteit toe aan een vm en de nodes zorgen onderling maar dat dit gebeurd. Maar goed, dan heb je ook wel een flinke zak geld nodig. ;)Wat ben ik om die reden blij met mijn SAN :)

Ik kan mijn VM's starten op elke machine die ik wens, gaat prima :)

Keenondots
27/10/06, 15:15
Het gaat me hier nu niet om wie het als dienst aan bied, waar vooral wie zijn eigen diensten (bijvoorbeeld hosting, dns-servers, mailservers) in virtuele omgevingen draait.

Wat zijn je ervaringen en wat gebruik je? (VServer, Xen, VMWare, etc, etc)
Al onze diensten draaien op basis van Virtuozzo. Qua performanceoverhead is dat echt minimaal (3%) en de management features zijn über (online migrations, QoS, capacitieexpansion, etc.).

Je moet wel rekening houden met de veel optimalere (lees zwaardere) benutting van je hardware. Je moet dus geen single P4 inzetten. Denk aan redundante netwerk, voedingen, etc.). De impact van de uitval van 1 hardware node wordt groter, dus daar moet je meer maatregelen treffen.

CPU capaciteit is (bij ons) niet direct de bottleneck, wel RAM en DISK. Denk bij ram aan 4GB *minimaal*, maar liever 8GB, 12GB of meer. De bottleneck is disk, dus minimaal 10krpm in RAID, liever 15krpm.

Wido
27/10/06, 15:18
Je kan uiteraard ook gewoon 1 VM per host draaien, maar als er nood aan de man is, draai je deze VM zo op een andere host :)

Keenondots
27/10/06, 15:18
Je kan uiteraard ook gewoon 1 VM per host draaien, maar als er nood aan de man is, draai je deze VM zo op een andere host :)
Jep, dat doen wij voor een aantal projecten zo. Heeft ook voordeel bij hardware onderhoud: even migreren naar andere node, onderhoud zonder downtime uitvoeren, terugzetten, klaar.

almar
27/10/06, 15:26
Ik ben erg benieuwd hoe vaak jullie dit gedaan hebben. Ik heb al een aantal maal gehoord online(!) swappen van een VPS naar een andere machine tot een regelrechte ramp heeft geleid...


Al onze diensten draaien op basis van Virtuozzo. Qua performanceoverhead is dat echt minimaal (3%) en de management features zijn über (online migrations, QoS, capacitieexpansion, etc.).


Zijn hier benchmarks van? Ik kan nergens echt goede benchmarks vinden van de overhead van VPS..

HK Productions
27/10/06, 15:30
Hier Alles met VMWare Server

Keenondots
27/10/06, 15:38
Ik ben erg benieuwd hoe vaak jullie dit gedaan hebben. Ik heb al een aantal maal gehoord online(!) swappen van een VPS naar een andere machine tot een regelrechte ramp heeft geleid...

Het live migreren van een VE doen we (bijna) dagelijks. In het begin bleef een VE na een mislukte migratie wel eens hangen waardoor hij niet wilde stoppen of starten, maar dat is opgelost (laatste keer was maart dit jaar en daar zijn specifieke fixes voor geweest).

Ik meen dat VMWare een dedicated SAN nodig heeft om dat te doen. Virtuozzo stuurt de data gewoon over je (Gbit) netwerk.

Wido
27/10/06, 15:49
Ik heb tot op heden eigenlijk alleen maar gewerkt met Linux VServer, maar ik denk dat ik eens snel een Xen bak ga opzetten.

Grischje
27/10/06, 16:02
wij hebben een tijdje getest met Virtual Server 2005 R2 van Microsoft werkt ook prima en een bijkomend voordeel:



In addition to the license terms of this downloaded software, you are also granted rights to use the software to provide hosted services. End customers receiving this software service are not required to obtain their own Microsoft software licenses. End customers receive the right to interact with functionalities of Microsoft software through the services of the provider's hosted environment.


link: http://www.microsoft.com/downloads/details.aspx?familyid=6DBA2278-B022-4F56-AF96-7B95975DB13B&displaylang=en

wonko
27/10/06, 16:05
Wij gebruiken vserver (al heel lang, minstens 4 jaar of zo, nog toen het nog enkele obscure patches) en xen (sinds enkele maanden, al iets langer in testomgevingen).

Elk heeft zijn eigen voor en nadelen. Xen is perfect afgescheiden, lekker virtueel, maar ook beperkt daarop. vserver deelt bvb geheugen, en kan dus gemakkelijker een tijdelijk iets zwaarder belaste vserver aan.

Proxio
27/10/06, 16:18
Iemand overigens een idee wat Virtuozzo zoal kost?

Keenondots
27/10/06, 16:22
Kijk voor een indicatie op http://www.proserve.nl/virtuozzo/ (waarmee ik niet wil aangeven dat wij onze licenties daar kopen).

Je betaald per CPU, per VE, per fysieke server. Koop + jaarlijks onderhoud en support.

Proxio
27/10/06, 16:24
Hmm die prijzen vallen me nog erg mee :). Installatie er van en dergelijke is ook goed te doen?

Keenondots
27/10/06, 16:28
Hmm die prijzen vallen me nog erg mee :). Installatie er van en dergelijke is ook goed te doen?
Vrijwel volledig te scripten (CentOS + Virtuozzo).

Wil je Virtuozzo echt goed gebruiken, dan zit het meeste werk in het bakken van eigen applicatietemplates (rpm based). Dat geeft je de optie om bijv. je eigen Apache of PHP uit te rollen/upgraden over meerdere VE's met een paar klikken in de management console.

Verder heb je een Windows of Linux management console (per seat) nodig. En echt goed kun je er pas mee werken als je meerdere hardware nodes hebt en een dedicated backup + monitorig server.

Wido
27/10/06, 17:22
Wat ik overigens wel merk is dat VServer erg gevoelig is voor dingen die in een guest gebeuren.

Nu vraag ik me af hoe dat met Xen is. Als een guest op hol slaat, hoe reageert het systeem daar op?

Sander-
27/10/06, 17:33
Waar zitten eigelijk de verschillen tussen Xen en Vserver?

Ik werk op dit moment veel met VMware, omdat ik op mijn opleiding op 2 fysieke machines een compleet linux cluster moest realiseren en de machines waren al geinstalleerd met Win XP Pro en mochten niet schoon... Dus toen maar met Vmware bezig gegaan.

Wil wel asap een keer met Xen bezig gaan om eens te kijken hoe dat in zijn werk gaat. Wat zijn eigenlijk de verschillen/voordelen tussen Xen een Vserver (als ze er al zijn)

Glenn
27/10/06, 17:45
Wij hebben onze DNS servers en databaseservers hierop draaien. Hardware stuk? Guest naar een ander systeem en booten maar. Momenteel zijn bij ons een aantal servers toe aan vervanging, die gaan niet meer op aparte machines maar gelijk virtueel. Echt de nieuwe manier van werken ;)

Wij gebruiken VMware Server, de gratis versie. Werkt prima.

Wido
27/10/06, 17:47
VMWare heb ik ook wel eens mee gespeeld, zag er zeer mooi uit. Werking leek me ook prima.

@ Sander-, google maar eens op Xen vs VServer.

Idago
27/10/06, 17:56
Wij willen binnekort beginnen met een aantal diensten binnen een xen omgeving te laten draaien. Op dit moment zijn we ermee aan het testen.

nopzolder
27/10/06, 20:11
Welke versie van Xen gebruiken jullie dan??

gjtje
27/10/06, 20:45
3.0.2 maar dat zal wel snel 3.0.3 worden, zitten mooie nieuwigheden in.

nopzolder
27/10/06, 20:52
de opensource versie van Xen? of een commerciele?

nzyme
27/10/06, 21:06
wat is trouwens het beste om te gebruiken in Xen, LVM of img files ? Voor echte storage lijkt me namelijk lvm op /home het fijnst en voor de root (1gb), tmp(256mb), var(1gb) en swap(512mb) gebruik ik eigelijk altijd images. Echter een nameserver kan wel af met alleen diskbased, en zelfs een webserver ook wel. Alleen de storage kant staat dan op lvm. (of op nfs)

edit: hier trouwens opensource Xen 3.0.2

gjtje
27/10/06, 21:28
Hier per vm 3 lvm parties voor / /tmp en swap Images waren redelijk traag, daarnaast zie ik er geen voordeel in boven lvm partities.

nzyme
27/10/06, 21:53
Hier per vm 3 lvm parties voor / /tmp en swap Images waren redelijk traag, daarnaast zie ik er geen voordeel in boven lvm partities.

hoe zou jij domains gemakkelijk migreren dan... ?

smurf
27/10/06, 22:02
Wij zijn momenteel onze shared hosting setup aan het verhuizen naar een Virtuozzo setup met gecluserde nodes.

Het is de bedoeling dat enkele Dual Xeon nodes en 2 zware Fileservers onze huidige PIV's en Dual Xeons vervangen.

Op dit moment hebben we 12 PIV hosting servers geconsolideerd op de setup en hebben over de nodes nog geen 10% cpu usage...

De enige problemen die opdoken waren probleempjes eigen aan de plesk migratietool (migratie van Plesk op onze gewone server naar de VZ setup).

De setup is schaalbaar, redundant en zeer stabiel tot nu toe. En veel gemakkelijker te administreren dan X aantal losse servers. Backups gaan snel, retores ook, omschakeling van de hardware node.

nzyme
27/10/06, 22:15
beetje offtopic, maar kan je wat specifieker zijn over hoe en wat met je cluster ?

JROnline
27/10/06, 23:44
Wij gebruiken xen 3.0.x met aparte LVM's voor / /tmp en swap. LVM is veel sneller dan looped files. Bovendien kun je met LVM snaps draaien.

We zijn wel op zoek naar een goede en betaalbare SAN, hoewel drbd misschien ook wel wat is. Iemand ervaring met een betaalbare SAN (lees < 3000 euro per TB) of een drbd opstelling?

Idago
27/10/06, 23:55
Op moment zijn we aan het testen met 3.0.3 (open source versie).

smurf
28/10/06, 00:04
beetje offtopic, maar kan je wat specifieker zijn over hoe en wat met je cluster ?

http://wiki.openvz.org/HA_cluster_with_DRBD_and_Heartbeat

djalken
28/10/06, 00:45
Zijn er eigenlijk mensen die een opensource cp gebruiken voor xen? Of een eigen gescript paneltje?

gjtje
28/10/06, 01:04
Er zijn nog niet zoveel control panels voor Xen. Er is enomalysm maar dat vereist nog al veel zoals een volledige ldap e.d., verder is het allemaal nog redelijk basic, er zijn wat python en perl panels met basic features als starten en stoppen, tenzij je er geld tegen aan gooit, dan is alles mogelijk.

Er is een rpc interface in ontwikkeling maar die is nog niet af, verder is er een onbeveiligde http interface.

Aessence
29/10/06, 20:10
op zoek naar een goede en betaalbare SAN, hoewel drbd misschien ook wel wat is. Iemand ervaring met een betaalbare SAN (lees < 3000 euro per TB) of een drbd opstelling?

Een entry-level iSCSI SAN kan je voor deze bedragen al 'krijgen'. Uitsluitend voor backup en non-critical files gebruiken we (een net nieuwe) PE2950 met Windows Storage Server 2003 R2 (Standard). 1500GB bruto voor +/- je budget met hw support.

Je kan ook gebruik maken van http://www.open-e.com voor het opwaarderen van je eigen server tot SAN host.

Voor een NetApp betaal je toch wel een vactor 10 meer...

George/

wdv
29/10/06, 21:00
Je kan ook gebruik maken van http://www.open-e.com voor het opwaarderen van je eigen server tot SAN host.

Gewoon een standaard servertje in RAID lijkt mij toch bij lange na niet snel genoeg om te gebruiken als storage voor bijvoorbeeld een cluster?

gjtje
29/10/06, 21:32
Snelheden tot 300/400MB/s is prima mogelijk daarmee en dat is voor een webcluster natuurlijk best wel wat. Zolang je snelle disks gebruikt met een lage zoektijd.

Keenondots
29/10/06, 21:33
Gewoon een standaard servertje in RAID lijkt mij toch bij lange na niet snel genoeg om te gebruiken als storage voor bijvoorbeeld een cluster?
Niet een desktop board met software raid nee, maar de meeste dedicated storage systemen zijn ook Linux based, dus met de juiste keuze van je componenten (NIC, controller, disks) kun je een heel eind komen:

/dev/sda:
Timing cached reads: 3844 MB in 2.00 seconds = 1921.33 MB/sec
Timing buffered disk reads: 462 MB in 3.00 seconds = 153.82 MB/sec

Aessence
29/10/06, 22:31
Gewoon een standaard servertje in RAID lijkt mij toch bij lange na niet snel genoeg om te gebruiken als storage voor bijvoorbeeld een cluster?

In m'n post stond ook "entry-level" SAN, maar dat is maar wat je daar onder verstaat. In ons specifieke geval is de performance meer dan voldoende, al heb ik geen meetwaarden voor je (zal eens kijken).

Het disksysteem is belangrijk. Onze config gebruikt een eenvoudige RAID5 config, vanwege de aard van de opslag en dat er maar twee targets aan hangen. Maar kan net zo goed RAID10 met 15k disks gebruiken als je meer targets hebt of hoge doorvoersnelheden behoeft.

Wij gebruiken ook de standaard on-board NIC's (wel met TOE), maar je kan ook dedicated iSCSI IF's gebruiken voor weer betere prestaties.

Maar goed die PE2950 kan tot 3TB bruto (6x500GB SATA2) en is best voordelig. Of ie geschikt is voor alle situaties: vast niet.

George/

nopzolder
30/10/06, 08:23
Voor een NetApp betaal je toch wel een vactor 10 meer...



Heel toevallig weet ik dat een 2TB bruto oplossing rond de 20k kost (1,2TB netto). Wij zijn er zelf ook mee bezig. NetApp will de MKB markt bestormen.

Aessence
30/10/06, 09:06
Heel toevallig weet ik dat een 2TB bruto oplossing rond de 20k kost (1,2TB netto). Wij zijn er zelf ook mee bezig. NetApp will de MKB markt bestormen.

Dat zijn die kleine vier-nogwat-serie toch? Laatste project heb ik 2TB redundant met (2) FAS-3030's gedaan (jaartje terug) en dat was 60K-70K (inkoop).

Ben niet zo'n fan van NetApp, omdat je dik betaald voor hun software en support, en de kleine units niet schaalbaar zijn (en dat is toch niet wat je verwacht voor die Euro's). Gene halleluja product (wel goed gemarket).

George/

nopzolder
30/10/06, 14:00
@George,

Offtopic:

Nee in dit geval praat ik over de Fas250
Momenteel loopt er een initiatief van de NL distri + NetApp.. dat noemen ze het zng 3b concept.

Netapp is zo schaalbaar als maar kan. Ze garanderen dat er tijdens een upgrade NOOIT datamigratie nodig is. Dit is mijn inziens ook zo..

Heel simple loopt het upgradepad zo:

FAS250 (2TB max) 14*146GB FC schijven
FAS270 (8TB max) 4x 14*146GB FC schijven.
FAS3020 (54TB max)

Een shelf bij een netapp bestaat uit 14 disken.
De FAS270 kan ook met SATA disken geleverd worden.

Zonder er een commercieel plaatje van te maken..:
Netapp is UNIEK met zijn methode van snapshotten. Deze techniek is ook de basis van bv snapmirror (mirroring tussen 2 netapp dozen, dit kan al over een 256k lijntje).
De NetApp FAS250 kletst over iSCSI, NFS, CIFS etc
Vanaf de NetApp Fas270 komt er ook FC bij.

Mocht je meer info willen, PM even, of wellicht is een apart topic leuk?

Ontopic:

Op welk os kun je XEN het beste draaien??

Keenondots
30/10/06, 14:51
http://wiki.openvz.org/HA_cluster_with_DRBD_and_Heartbeat
Hoe zijn je ervaringen hiermee? Ik weet dat http://www.thomas-krenn.com/cluster/ het commerciëel doet.

W3SERVE
30/10/06, 15:13
Hier ook goede ervaringen met Xen. Is er al iemand die 3.0.3 in productie heeft? En werkt er al iemand met LVM2 snapshotting? Aangezien dit nog niet stabiel was in de standaard kernel van 3.0.2...

smurf
30/10/06, 15:31
Hoe zijn je ervaringen hiermee? Ik weet dat http://www.thomas-krenn.com/cluster/ het commerciëel doet.

Zelf werken we et Virtuozzo. Eerste ervaringen zijn heel goed, hier en daar moeten er wel nog parameters getuned worden.Failover ging nog wel niet zeer vlot maar het is allemaal nog een kwestie van parameters tunen.

luser
30/10/06, 16:24
Hoe zijn je ervaringen hiermee? Ik weet dat http://www.thomas-krenn.com/cluster/ het commerciëel doet.


Kheb het ook draaien met heartbeat en DRDB, werkt uitstekend met zowel Xen als OpenVZ.

Keenondots
30/10/06, 16:26
Thanks for the heads up. Wij gebruiken ook Virtuozzo, ik wil in een productieomgeving de support en managmentfeatures van Virtuozzo tov OpenVZ niet missen.

rayden
30/10/06, 17:24
VMWare GSX server voor virtualisatie van diverse diensten.. VMWare is the shizknuck.. het kan alles draaien ;)

Keenondots
30/10/06, 17:41
VMWare GSX server voor virtualisatie van diverse diensten.. VMWare is the shizknuck.. het kan alles draaien ;)
Het is ook de shizknuck qua performance overhead. ESX is daarin beter. Virtuozzo nog beter, maar dat is een andere opzet. Voor ons: ik hoef geen Windows op een Mac of HP-UX op Linux of andersom te draaien.

PimEffting
30/10/06, 20:43
Gebruik zelf meerdere omgevingen met virtualisatie. Combinatie van Vmware Server en Vmware ESX (icm EMC CX3-20 SAN). Samen met Virtual Center beheertool is dat erg fijn werken.
Binnenkort lanceren we tevens een Virtuozzo omgeving.

Wido
30/10/06, 21:30
Gebruik zelf meerdere omgevingen met virtualisatie. Combinatie van Vmware Server en Vmware ESX (icm EMC CX3-20 SAN). Samen met Virtual Center beheertool is dat erg fijn werken.
Binnenkort lanceren we tevens een Virtuozzo omgeving.Onder welk OS draai je VMWare en je gebruikt iSCSI neem ik aan? Welke tools gebruik je daarvoor?

Ik ben nu aan test met:
- Ubuntu Dapper (AMD64)
- Open-iSCSI (1.0-485)
- Xen 3.0.3

Dit op een EMC Celerra NSX, werkt tot nu toe lekker stabiel.

Ik heb wel twee iSCSI kaarten van intel gekocht omdat ik hoor dat er toch nog wat bugs in Open-iSCSI zitten. Desalniettemin, wat gebruik jij?

Wido
02/11/06, 10:01
Kleine kick, Unexplained, kan je nog even reageren?

Shadowfox
02/11/06, 13:12
Ik heb toch al wel een naar ervaring met OpenVZ. Na upgrade van Ubuntu 6.06 naar 6.10 is de bak niet meer online gekomen. Waarschijnlijk door een kernel replace. Je zou verwachten dat je met virtualisatie dit soort problemen eigenlijk niet meer hebt. Tevens kan ik ook niet de oude kernel booten omdat er nergens een grub.conf of lilo.conf te vinden is op het filesystem meer???

Keenondots
02/11/06, 13:15
Ik heb toch al wel een naar ervaring met OpenVZ. Na upgrade van Ubuntu 6.06 naar 6.10 is de bak niet meer online gekomen. Waarschijnlijk door een kernel replace. Je zou verwachten dat je met virtualisatie dit soort problemen eigenlijk niet meer hebt. Tevens kan ik ook niet de oude kernel booten omdat er nergens een grub.conf of lilo.conf te vinden is op het filesystem meer???

OpenVZ is niet bedoeld voor productieomgevingen. Wij gebruiken Virtuozzo bovenop CentOS en daar heb ik dergelijke problemen nog nooit gehad. Wordt Ubuntu door OpenVZ ondersteund als host OS?

Wido
02/11/06, 14:51
Ik heb toch al wel een naar ervaring met OpenVZ. Na upgrade van Ubuntu 6.06 naar 6.10 is de bak niet meer online gekomen. Waarschijnlijk door een kernel replace. Je zou verwachten dat je met virtualisatie dit soort problemen eigenlijk niet meer hebt. Tevens kan ik ook niet de oude kernel booten omdat er nergens een grub.conf of lilo.conf te vinden is op het filesystem meer???Waarom ga je met een server in godsnaam naar 6.10 toe? Die is geen LTS en 6.06

Al mijn Ubuntu bakjes blijven mooi bij 6.06 (Dapper) :)

PimEffting
06/11/06, 19:55
Onder welk OS draai je VMWare en je gebruikt iSCSI neem ik aan? Welke tools gebruik je daarvoor?

Ik ben nu aan test met:
- Ubuntu Dapper (AMD64)
- Open-iSCSI (1.0-485)
- Xen 3.0.3

Dit op een EMC Celerra NSX, werkt tot nu toe lekker stabiel.

Ik heb wel twee iSCSI kaarten van intel gekocht omdat ik hoor dat er toch nog wat bugs in Open-iSCSI zitten. Desalniettemin, wat gebruik jij?
Kom hier niet dagelijks, daarom duurt het antwoord wat langer ;)

Die omgeving draait op basis van Fiber Channel (Brocade switches, redundant uitgevoerd). De hosts gebruiken Qlogic HBAs. De gehele infrastructuur is 4 gigabit en volledig redundant. De harde schijven in het SAN zijn 2 gigabit, dat wel...
Voor backups en templates is ook nog een NAS op basis van NFS gekoppeld overigens.

Vmware ESX heeft een eigen besturingssysteem op de host. Hierdoor is de overhead erg laag en de performance indrukwekkend.

ephram
06/11/06, 21:33
Wij gebruiken al meer dan een jaar User Mode Linux (UML). Er zijn niet echt fancy tools voor op de markt, maar het doet wat we willen. We zijn nu aan het bekijken om naar vmware server over te gaan omdat we ook Windows virtueel willen draaien. 1 systeem voor al onze systemen. Enige wat we nog aan het bekijken zijn is hoe we de data ter beschikking gaan stellen van onze virtuele guests.

rayden
06/11/06, 23:26
Wij gebruiken al meer dan een jaar User Mode Linux (UML). Er zijn niet echt fancy tools voor op de markt, maar het doet wat we willen. We zijn nu aan het bekijken om naar vmware server over te gaan omdat we ook Windows virtueel willen draaien. 1 systeem voor al onze systemen. Enige wat we nog aan het bekijken zijn is hoe we de data ter beschikking gaan stellen van onze virtuele guests.

Wat ik begrepen heb kun je in VMWare je disks als het ware 'sharen' althans mounten door de guest OS'ses heen.We zijn nog aan het kijken voor oplossingen binnen VMWare hiervoor. Op de infosecurity beurs heb ik me laten vertellen dat dit wel mogelijk zuo moeten zijn!

ephram
07/11/06, 12:47
Wat ik begrepen heb kun je in VMWare je disks als het ware 'sharen' althans mounten door de guest OS'ses heen.We zijn nog aan het kijken voor oplossingen binnen VMWare hiervoor. Op de infosecurity beurs heb ik me laten vertellen dat dit wel mogelijk zuo moeten zijn!

Volgens mij niet in VMware Server, in VMware workstation zit dit er bij, maar dat is zo brak. Ze gebruiken een aangepaste samba die op de achtergrond draait, maar beter is je eigen samba te gebruiken dan kan je veel meer configureren.

Wido
02/12/06, 18:24
Ik heb een document gemaakt over de opstelling die ik heb opgezet, dat kan misschien een hoop lichtjes doen branden bij andere mensen.

Je kan hem hier (http://crew.pcextreme.nl/~wido/doc/xen_en_iscsi.pdf) halen.

Ik kan je zeggen, dit document wordt gehost in een Xen VM :)

djalken
02/12/06, 18:40
Nice wido, zo'n opstelling is ideaal :) Volgens mij is het de bedoeling dat enomalism.com ook een dergelijk iets kan draaien. Heb jij plannen om er een cp voor te gaan schrijven?

Wido
02/12/06, 18:43
Nee, ik zie de nood van een CP nog niet zo. Met de command-line tools kan ik prima uit te voeten.

Het draait ook allemaal prima en ik hoef eigenlijk nooit om de dom0's te zijn.

Voor onze DDS dienst ben ik wel bezig met een controle paneel, maar dat wordt dan weer ingebouwd in ons WSCP.

djalken
02/12/06, 18:57
Zo'n vermoeden had ik al en ik bedoelde ook voor je klanten zeg maar :) voor mezelf vind k t ook niet nodig, maar als een klant een reboot wil geven of iets dergelijks is het toch handig dat daarvoor geen support nodig is :)

gjtje
03/12/06, 12:59
Hoezo heb je voor de swap voor een loopback gekozen en niet voor een lokale lvm partitie?

Wido
03/12/06, 22:44
Loopbacks zijn makkelijk aan te maken, via een simpel sync script kan ik alles zo gelijk trekken.

Swap is iets wat je eigenlijk niet wil gebruiken, daarom zorg ik gewoon dat er genoeg geheugen in zit.

Iedere keer als er een extra VM in de pool komt moet je dus op alle servers weer een LVM partitie aanmaken.

LVM ben ik verder ook niet zo bekend mee, dus daarom mijn keuze voor loopback.

AlexanderOnline
10/12/06, 19:15
Intressante PDF, leuk dat je die info met ons wou delen! Ik ga er zeker eens mee spelen.

Glenn
10/12/06, 22:44
Leuke PDF Wido! Zijn er losse iSCSI kaarten of gebruik je hiervoor gewoon een gigabit netwerkkaart?

Wido
17/01/07, 23:13
Leuke PDF Wido! Zijn er losse iSCSI kaarten of gebruik je hiervoor gewoon een gigabit netwerkkaart?Sorry voor de late reactie, maar wij gebruiken gewoon gigabit netwerkkaarten (TG3's) met Open-iSCSI.

Ik wil nog wel eens met Q-Logic iSCSI HBA's gaan spelen voor nog wat extra stabiliteit, al kost een fatsoenlijke iSCSI HBA al snel 800 euro.

Zie: http://www.qlogic.com/products/iscsi_products_hba.asp

hostingpower
19/01/07, 20:35
Sorry voor de late reactie, maar wij gebruiken gewoon gigabit netwerkkaarten (TG3's) met Open-iSCSI.

Ik wil nog wel eens met Q-Logic iSCSI HBA's gaan spelen voor nog wat extra stabiliteit, al kost een fatsoenlijke iSCSI HBA al snel 800 euro.

Zie: http://www.qlogic.com/products/iscsi_products_hba.asp

Mijn ervaringen met vmware zijn over het algemeen goed.
Alle windowsservers zou je met de coverttool van vmware zo kunnen overzetten. Tevens word het ook telkens meer bij bedrijven gebruik,
vertragingen vallen over het algemeen best mee, alleen zijn ze er wel.

Dus drukbezochte websites kunnen wel eens wat trager worden,
maar voor omgevingen zoals citrix ed werkt het super!