PDA

Bekijk Volledige Versie : Van dedicated naar VM



Armand
24/02/11, 14:42
Hallo allemaal,

Voor een aanstaand project ben ik aan het overwegen nu toch eindelijk de overstap te maken naar een Virtualisatie omgeving. De afgelopen 2 jaar een hoop gevolgd en gelezen, en vooral het restoren van een server op andere hardware is voor mijn een sterk punt om de stap nu te maken.
( Mijn hardware beheer is nooit meer geweest dan een 10 á 15 tal servers. )

Nu heb ik in eerste instantie zitten kijken naar hardware specs voor een eigen dedi server waarop ik kan gaan virtualiseren. Daarnaast een dediserver als hot-standby, waar eveneens de backups op komen.
In eerste instantie zouden deze twee fysieke servers maar twee virtuele servers hosten.
( Ik weet het, weird ;-) )

Nu twijfel ik zelf over het volgende:
1.
Als ik bijvoorbeeld kijk bij Leaseweb, bieden ze VPS-en aan in hun Cloud.
De voordelen om dit te doen ten opzichte van het zelf doen lijken mij logisch: je hebt niet het management van de VPS host, en zij bieden een stukje redundancy in hardware en storage.
( De hot-standy kan in dat geval vervallen. )

De nadelen zijn daar tegenover weer dat je op eigen hardware zelf ook nog VPS-en kunt bij draaien.
Je krijgt dus pas een omslagpunt wanneer je voldoende VM's wilt draaien.
Zijn er mensen die positieve of negatieve ervaringen hebben met VM's uit een dergelijke cloud?

2.
Ik nijg er naar om aan de slag te gaan met XEN, maar ook KVM vind ik erg interessant. Het probleem is dat ik geen budget heb voor een oplossing op basis van een SAN, dus HA technieken zal ik voorlopig niet kunnen gebruiken. Ook de duurdere licenties voor virtualisatie software liggen buiten mijn bereik.
Toch vind ik het interessant om te weten of er qua management-tools nog tips zijn om juist voor een specifiek virtualisatie platform te gaan?

Dat je geen live motion hebt tussen twee servers zonder SAN snap ik, maar als iemand tips heeft m.b.t. beheer software hoor ik het graag! (De fysieke node's en de VM's zien met hun status via mijn windows werk pc vind ik wel een leuke toevoeging :-) En als het even kan de mogelijkheid met minimale downtime te migreren naar andere hardware ;-))

3.
Het beheer van de dom0 (machine waar de VM's op draaien) is voor mij het grote onbekende (toch nieuw) waar moet rekening mee gehouden? Ik heb wel ervaring met server beheer, maar hoe timmer ik mijn dom0 zo goed mogelijk dicht? Hoe is jullie ervaring met up-to-date houden van software versies? Ik kan me voorstellen dat je op een dom0 wellicht niet teveel risico wilt lopen dus niet te vaak software update? (Aan de andere kant is JUIST updaten ook wel weer wat voor te zeggen natuurlijk ^-^ )

4.
Ik heb tijdelijk een VM gehad via een partij hier ook actief op het forum. Daar had ik het probleem dat toen mijn geheugen op was (teveel nodig qua zware applicaties) mijn complete VM niets meer deed. (Crash.) Is dit normaal? Kent een VM niet net als een dedicated server een load welke "gewoon" zwaar vertragend werkt?

Alvast bedankt voor alle visie en inhoud die jullie willen delen :-)

Met vriendelijke groet,
Armand

Alain
24/02/11, 14:52
In eerste instantie zouden deze twee fysieke servers maar twee virtuele servers hosten.
( Ik weet het, weird ;-) )


Dat is niet zo raar hoor...



Je krijgt dus pas een omslagpunt wanneer je voldoende VM's wilt draaien.
Zijn er mensen die positieve of negatieve ervaringen hebben met VM's uit een dergelijke cloud?

Tja het ligt er helemaal aan hoeveel capaciteit er beschikbaar is binnen zo'n cloud. Je kunt er natuurlijk min of meer vanuit gaan dat de prijs ook wel enigzins bepaald hoeveel capaciteit je echt in de praktijk (en dus niet alleen in therorie) tot je beschikking hebt.



Ik nijg er naar om aan de slag te gaan met XEN, maar ook KVM vind ik erg interessant. Het probleem is dat ik geen budget heb voor een oplossing op basis van een SAN, dus HA technieken zal ik voorlopig niet kunnen gebruiken. Ook de duurdere licenties voor virtualisatie software liggen buiten mijn bereik.

Voor HA heb je niet per definitie een SAN nodig, wij bieden bv HA cloudhosting aan zowel met of zonder SAN!


Dat je geen live motion hebt tussen twee servers zonder SAN snap ik

Dat kan bij ons dus wel... Zie http://weblog.shockmedia.nl/2010/11/30/high-availability-betaalbaar-dure-san-overbodig/



Het beheer van de dom0 (machine waar de VM's op draaien) is voor mij het grote onbekende (toch nieuw) waar moet rekening mee gehouden? Ik heb wel ervaring met server beheer, maar hoe timmer ik mijn dom0 zo goed mogelijk dicht? Hoe is jullie ervaring met up-to-date houden van software versies? Ik kan me voorstellen dat je op een dom0 wellicht niet teveel risico wilt lopen dus niet te vaak software update? (Aan de andere kant is JUIST updaten ook wel weer wat voor te zeggen natuurlijk ^-^ )

Elk systeem die in een netwerk hangt, of dat nou de dom0 is of niet, moet je up-2-date houden, altijd. Als je dat niet zelf kunt, kun je dat uitbesteden.



Ik heb tijdelijk een VM gehad via een partij hier ook actief op het forum. Daar had ik het probleem dat toen mijn geheugen op was (teveel nodig qua zware applicaties) mijn complete VM niets meer deed. (Crash.) Is dit normaal? Kent een VM niet net als een dedicated server een load welke "gewoon" zwaar vertragend werkt?

Als er niet voldoende capaciteit is/de dom0 bv te zwaar is belast door andere VM's, dan kun je daar last van hebben als je zelf ook capaciteit nodig hebt.

Een dom0 of VM die niks doet maar alleen aanstaat, werkt niet zwaar vertragend.

Armand
24/02/11, 15:15
Dat is niet zo raar hoor...
Dat kan bij ons dus wel... Zie http://weblog.shockmedia.nl/2010/11/30/high-availability-betaalbaar-dure-san-overbodig/


Hoe cluster jij je data in dit geval over de nodes?
Ik neem aan dat je je data door een VM tussen de node's laat mirroren, maar maak je gebruik van NFS? Of is het hot-standy met een DRBD setup op basis van block devices?

Het nadeel, en daarom vraag ik ook specifiek naar het beheer van de dom0, van iedere laag extra complexiteit, is dat je je altijd weer onbekend-heden op de hals haalt.

Alain
24/02/11, 15:29
Hoe cluster jij je data in dit geval over de nodes?
Ik neem aan dat je je data door een VM tussen de node's laat mirroren, maar maak je gebruik van NFS? Of is het hot-standy met een DRBD setup op basis van block devices?

Ik weet zelf niet alle technische details daarvan, maar we hebben een paar jaar ontwikkeling in dat product zitten. Het is geheel geautomatiseerde HA cloud software.



Het nadeel, en daarom vraag ik ook specifiek naar het beheer van de dom0, van iedere laag extra complexiteit, is dat je je altijd weer onbekend-heden op de hals haalt.
De dom0 is over het algemeen niet zo heel complex om te beheren, maar dat hangt natuurlijk wel weer af van de virtualisatiesoftware en opstelling. Het is echter wel zo dat als je iets fout zou doen op de dom0, dit gevolgen kan hebben voor alle virtuele instanties. Zelf zou ik nooit adviseren om zonder voldoende kennis een dergelijke productie omgeving te beheren.

avanmessen
24/02/11, 16:03
Hoe cluster jij je data in dit geval over de nodes?
Ik neem aan dat je je data door een VM tussen de node's laat mirroren, maar maak je gebruik van NFS? Of is het hot-standy met een DRBD setup op basis van block devices?
.

DBRD replicatie ism XenSource.

Als je twee servers hebt met 2 NICs werkt
dit echt proper en kost slechts wat moeite.

Had iets gelijkaardigs draaien met VMware
Server 2 bij een klant dit echt cheap wou
blijven.

basdoorn
24/02/11, 16:32
3.
Het beheer van de dom0 (machine waar de VM's op draaien) is voor mij het grote onbekende (toch nieuw) waar moet rekening mee gehouden? Ik heb wel ervaring met server beheer, maar hoe timmer ik mijn dom0 zo goed mogelijk dicht? Hoe is jullie ervaring met up-to-date houden van software versies? Ik kan me voorstellen dat je op een dom0 wellicht niet teveel risico wilt lopen dus niet te vaak software update? (Aan de andere kant is JUIST updaten ook wel weer wat voor te zeggen natuurlijk ^-^ )

4.
Ik heb tijdelijk een VM gehad via een partij hier ook actief op het forum. Daar had ik het probleem dat toen mijn geheugen op was (teveel nodig qua zware applicaties) mijn complete VM niets meer deed. (Crash.) Is dit normaal? Kent een VM niet net als een dedicated server een load welke "gewoon" zwaar vertragend werkt?

3. dom0 goed beheren is uiteraard belangrijk, maar is bijvoorbeeld bij KVM zeer vergelijkbaar met een normale debian/Ubuntu server, alleen heb je de KVM, libvirt en qemu specieke pakketten erbij te onderhouden. Daarbij heb je een aantal bestanden met virtuele schijven en processen met virtuele servers. Ik draai zelf zo'n machine, eenmaal goed ingesteld heb je er in principe weinig omkijken meer naar. Ik zou zeker de updates goed in de gaten houden, je wilt natuurlijk niet dat alle VM's een herstart krijgen vanwege een relatief kleine update. Zeker niet omdat 'destroy' bij KVM de standaard actie bij het afsluiten/herstarten van KVM is. Voor een VM is dat hetzelfde als de stekker eruit trekken, daar wordt je niet blij van. Daarom houd ik mijn dom0 zo schoon mogelijk, afgezien van wat specieke monitoring met Nagios. libvirt en/of qemu zou ik op een productie server nooit zomaar updaten en indien echt nodig zo'n update eerst uittesten in een testomgeving, of in jouw geval bijvoorbeeld op de 2e server. Ik maak ook altijd een kleine testVM voor mezelf aan, waar alleen mijn eigen testomgeving in zit, waarmee ik wat experimenten kan draaien, voor bepaalde zaken op 'echte' VM's toe te passen.

4. een VM werkt net als een normale server wat betreft geheugen en load, afgezien van zaken als burstable RAM natuurlijk. Als je dedicated RAM hebt dan zou je bij extreem geheugengebruik gewoon een steeds hogere load moeten zien door het gebruik van swap space en het wachten van processen daarop. Op een gegeven moment gaat dan de OOM killer zijn werk doen. Een crash zou zeker met dedicated RAM nooit zomaar voor moeten kunnen komen, net zo min als op een fysieke server.

Armand
05/03/11, 13:56
Bedankt voor de feedback.
Heeft iemand nog tips welke kant op te gaan voor lowbudget beginnen?
Ik lees overal dat Vmware de bom is, bij voorkeur met een echte SAN.

Echter trekt DBRD replicatie met een lowcost VM omgeving mij toch meer.
In mijn belevingswereld zit er niet zoveel verschil tussen XEN en KVM.
Zijn er mensen die hun bewuste keuze voor één van de twee eens zouden kunnen motiveren?

( sorry voor de bump )

cyberbootje
05/03/11, 14:57
Wij hebben bewust voor KVM gekozen, op het moment van testen gaf dat de beste resultaten wat I/O betreft en het was/is erg fijn te beheren.
Daarnaast speelt eigen voorkeur natuurlijk ook een grote rol.
De eerste testopstellingen hebben we met Proxmox gedaan, werkt ook prima en is zo ongeveer hetzelfde als debian + KVM alleen zijn we op een gegeven moment toch zelf iets gaan bouwen.

Je zou naar proxmox kunnen kijken, die heeft dacht ik ook nog allemaal howto's om HA te doen zonder SAN.
Let op, proxmox is gewoon een verzameling van debian + kvm en andere pakketten met een eigen kernel en een web paneel. Echt heel spannend is het niet maar het verlaagt wel de drempel om even snel een testserver op te zetten.

En nee, als ram op is dan hoort de VM te swappen, niet compleet vast te draaien. Het lijkt er meer op de VM gewoon I/O tekort kwam en het contact tussen de disk image zelf verloor waardoor je een freeze kreeg(gokje).

rimote
05/03/11, 15:07
TS, wil je Windows of Linux op je vps's draaien?

Armand
05/03/11, 16:04
Enkel Linux, maar opties voor de toekomst open houden is altijd fijn :-)

Mark17
05/03/11, 16:20
Met KVM hebben wij zowel Windows als Linux VPSen draaien. Wat noem je lowbudget om hiermee te beginnen? Wil je een goede setup neerzetten dan wil je niet afhankelijk zijn van 1 losse storage omgeving lijkt mij. Verder wil je niet besparen op I/O capaciteit en zou je als het zo goedkoop mogelijk moet waarschijnlijk op een gedeelte inkopen bij een ander uitkomen. Alleen al door de beheer kosten (tijd) en hardware kosten.

rimote
05/03/11, 16:22
Beste Armand,

Wij geven je graag een paar tips om een low cost virtuele omgeving voor Linux te realiseren. Zoals cyberbootje al aangaf is proxmoxVE een leuk iets om eens naar te kijken. Wij gebruiken het zelf niet, maar het is een uitstekend project voor zover ik kan beoordelen.

Je kan je ook afvragen of je zelf er zoveel tijd in wilt steken. Er zijn een aantal partijen die dit ook voor jou kunnen aanbieden. Je kan bijvoorbeeld voor een dedicated public cloud server gaan (kost evenveel als een dedi, maar je hebt wel redundantie en automatische snapshots standaard ingebouwd en kan je zoveel VPSen maken als je wilt). Ook een private cloud kan een optie zijn.

Ik ben eigenlijk erg benieuwd naar welke eisen je zelf stelt. Hoeveel capaciteit heb je nodig? Welke software gebruik je? Wat is je budget? Een dedicated public cloud server kost al snel tussen de 100 en 150 euro per maand. Als dat teveel is, raad ik je aan losse VPSen te nemen of te kijken naar Proxmox of andere soortgelijke systemen.

t.bloo
05/03/11, 16:29
Heb je geen nood aan HA en wil je zelf leren? Regel een Dell R210 of vergelijkbaar met een paar gig geheugen, knal er ProxmoxVE op en ga het eens lekker testen. Je zult zien dat je op zo'n simpele setup nog heel veel kwijt kan. Experimenteer ook met twee machines in een "cluster" en je wil voor de eenvoudige dingen niet meer terug naar dedicated machines.

cyberbootje
05/03/11, 16:41
Heb je geen nood aan HA en wil je zelf leren? Regel een Dell R210 of vergelijkbaar met een paar gig geheugen, knal er ProxmoxVE op en ga het eens lekker testen. Je zult zien dat je op zo'n simpele setup nog heel veel kwijt kan. Experimenteer ook met twee machines in een "cluster" en je wil voor de eenvoudige dingen niet meer terug naar dedicated machines.

Ga ik helemaal in mee.

En zoals Mark17 ook al zei, let aub op de I/O want dat is al heel snel een bottleneck.
Voorbeeld: een simpele sata 7200rpm, geen raid etc... is 3 * niks qua I/O maar dat moet je dus even zelf "voelen"
In alle gevallen is I/O een must, geen SAN? dan raid met degelijke raid + caching dus misschien kan je al raden welke kant je op gaat qua budget als je het goed wil hebben.

Armand
05/03/11, 16:49
Ik begrijp uiteraard dat de betere omgeving een hogere prijs heeft.
Zoals in het eerste bericht staat heb ik al gekeken naar de mogelijkheden.
Ik zit al enkele jaren op de MD Raid en ZFS mailinglist, dus de in's en out van omgevingen en iops ken ik zeer goed :-)

Uit een dedicated LAMP omgeving weet ik ook dat de bottelneck ook de iops is.
Zodra de webserver meer dan 200 requests moest afhandelen ontstond er een vertraging, ongeveer te verwachten met raid 1 scsi 10k rpm disks qua iops. Op dat moment zit de CPU nog uit zijn spreekwoordelijke neus te eten.

Wat ik in het verleden als test setup gedaan heb was een ZFS storage oplossing.
Vooral dat read & write cache in ZFS vind ik juist zo interessant qua IOPS.

Ik ben ook wel benieuwd of er nog goede cache tips zijn.
Zijn er, behalve al je disks op SSD's doen, nog tips om het aantal iops te verhogen?

@Cyberbootje:
Wat moet ik voorstellen bij een dedicated public cloud?

P.S. Ik ga uit van een prijs van ten minste 2 dedicated machines voor een eigen omgeving. (tot 500 euro per maand.)

cyberbootje
05/03/11, 17:15
Denk dat je @rimote bedoeld met de dedicated cloud :thumbup:
Dedicated cloud kan je afhuren, resources kopen, en virtual servers aanmaken. Dus heel kort door de bocht, je huurt gewoon virtuele servers met garantie op beschikbare ram, cpu, i/o etc...

Lijkt mij overigens ook geen slecht plan, scheelt weer een hoop uitzoeken, tijd en geld investeren.

Armand
05/03/11, 17:28
Geld investeren vind ik sowieso geen punt :-)
In het verleden met dedicated machines is dat ook altijd goed gegaan.
Ik zie eigenlijk alleen maar kansen zo.

rimote
05/03/11, 17:38
Met dedicated public cloud server bedoel ik dat je zelf wel een eigen server hebt (dus zonder andere klanten er op), maar dat je niet een eigen failover-node hebt. Er zijn dan ook andere servers die terug kunnen vallen op een gemeenschappelijke failover node. Je hebt dus geen eigen cluster, wel een eigen server met de voordelen van de cluster.

Een private cloud biedt de mogelijkheden zaken wat beter af te stemmen op jou eigen wensen. Je kan nog spreken van een soort hogere mate van veiligheid. Een private cloud is fysiek niet aangesloten op andere systemen dan die die slechts geheel voor jou bestemd zijn.

Armand
05/03/11, 19:37
Klinkt opzich ook erg leuk, maar ik ga toch een eigen omgeving proberen op te zetten :-)
Hoe zit het met de disk capaciteit, kan 1 VM qua iops de andere machines vertragen?

rimote
05/03/11, 20:37
Als op dat moment een andere VPS/VM veel IO genereert en de dataopslag (SAN/NAS/DRBD/ZFS) aan zijn max IOPS komt waarschijnlijk wel. Is er voldoende IO capaciteit dan niet. Bij KVM en XEN kan je ook wel veel 'reserveren' waardoor je deze effecten bijna kan wegstrijken en een constante hoeveelheid resources hebt. Nadeel is wel dat veel van je hardware dan niet volledig gebruikt wordt. Hiermee laat je een belangrijk voordeel liggen. Ik zou me er niet druk over maken als je het goed aanpakt.

Wat wel soms een domper kan zijn is RAM access speed (bijv. database queries) vergeleken met een ongevirtualiseerde omgeving. Hangt echter ook af van je hardware en welke virtualisatie-techniek je gebruikt.

En vergeet niet dat je met KVM en Xen Intel/AMD hardware-virtualisatieondersteuning moet hebben. Niet alle servers hebben dat en de vraag is of het wel blijft in de toekomst. Gezien de populariteit van de twee virt.systemen zal het echter wel mee vallen.

Kijk ook eens naar OpenVZ (ProxmoxVE ondersteunt dit ook icm met KVM als ik mij niet vergis). Razend snel. Dan kan je OpenVZ voor Linux en KVM voor eventuele andere gebruiken. http://pve.proxmox.com/wiki/Main_Page (er is ook ergens een unofficial 32 bit als je liever geen 64 wilt gebruiken).