PDA

Bekijk Volledige Versie : Virtualiseren of losse servers?



®on
11/02/09, 12:21
Dit jaar wil ik een aantal servers gaan vervangen. Dit zijn vrijwel allen Dell 850's, niet heel erg spannend al met al. Nu twijfel ik enigzins om of alle servers te vervangen door nieuwere hardware, of op basis van virtualisatie te gaan werken.

Betreffende servers worden allen ingezet voor het normale webhosting activiteiten, nothing fancy, allen op basis van FreeBSD als OS en cPanel als controlpanel.

De voordelen van virtualiseren zijn me geheel duidelijk (kosten, stroom, schaalbaarheid). Welke nadelen kleven aan het virtualiseren waarbij webhosting servers omgezet worden naar een cluster vorm?
Hoe bepaal je wat je nodig hebt? Je wil tenslotte niet achteruit gaan qua performance en kwaliteit.

Tips?

VinceSTM
11/02/09, 12:31
Wij virtualiseren tegenwoordig alles. Dit om beter te kunnen schalen en schakelen bij problemen in het netwerk/hardware. Ik heb op dit moment nog geen nadelen kunnen ontdekken (behalve dat als je cluster problemen heeft, al je vm's problemen geven)

®on
11/02/09, 12:36
(behalve dat als je cluster problemen heeft, al je vm's problemen geven)
Dat was tot op heden ook mijn enige nadeel dat ik heb kunnen ontdekken.

Hoe heb je bepaald wat voor hardware je ter vervanging van een stapel losse server ging gebruiken?

VinceSTM
11/02/09, 12:38
Dat was tot op heden ook mijn enige nadeel dat ik heb kunnen ontdekken.

Hoe heb je bepaald wat voor hardware je ter vervanging van een stapel losse server ging gebruiken?

Ik heb twee benaderingen geprobeerd:

Optelsom[b]:
Ik heb al mijn hardware geinventariseerd, daar een optelsom van gemaakt en dat als hardware laten offereren.

[b]Inschatting:
Ik heb gemeten welke resources de machines die ik nu gebruik gebruiken en geinventariseerd wat ze nodig gaan hebben. Dat heb ik als minimale resources genomen, vermenigvuldigd met de groei over 4 jaar.

De tweede manier bleek uiteindelijk de beste te zijn.

®on
11/02/09, 12:42
Okee, thanks. Daar kan ik zeker wat mee, met name die tweede bepaling.

VinceSTM
11/02/09, 12:43
Okee, thanks. Daar kan ik zeker wat mee, met name die tweede bepaling.

Merk dat ik nog een foutje had gemaakt in mijn uitleg: ik heb, naast de groei over 4 jaar, hier ook nog 25% aan marge aan toegevoegd en naar boven afgerond (processoren koop je nooit in megahertz nauwkeurig).

®on
11/02/09, 14:30
Vince, dank je voor de input.

Anderen met meningen/ervaringen?

oehTie
11/02/09, 15:19
ik zou zelf voor virtualiseren gaan. Je kan de hardware beter benutten, met highavailability en vmotion vpssen heen en weer schuiven zodat drukke machines meer resources krijgen en als je cluster goed werkt kan je een hogere uptime halen dan een fysieke machine voor je websites.

ervaring met falende clusters heb ik gelukkig/helaas nog niet dus kan ik me niet over uitlaten.

Vergeet overigens bij nadelen niet de kostprijs te noemen. Een licentie voor het geheel kost al gauw zo'n 15 a 20 000 euro. (vcenter enterprise en voor iedere fysieke host een infrastructure licentie)

bvankuik
11/02/09, 15:21
Met virtualisatie is het gemakkelijk om een extra VM aan te maken. Maar elke VM brengt beheerskosten met zich mee.

VinceSTM
11/02/09, 15:23
ik zou zelf voor virtualiseren gaan. Je kan de hardware beter benutten, met highavailability en vmotion vpssen heen en weer schuiven zodat drukke machines meer resources krijgen en als je cluster goed werkt kan je een hogere uptime halen dan een fysieke machine voor je websites.

ervaring met falende clusters heb ik gelukkig/helaas nog niet dus kan ik me niet over uitlaten.

Vergeet overigens bij nadelen niet de kostprijs te noemen. Een licentie voor het geheel kost al gauw zo'n 15 a 20 000 euro. (vcenter enterprise en voor iedere fysieke host een infrastructure licentie)

Als je aan het werk gaat voor jezelf (dus niet het verhuren van vpssen) kan je gewoon gebruik maken van esxi. Hiernaast kan je gebruik maken van een storage-cluster zodat je niets te maken hoeft te hebben met 'vmotion' ed.

bvankuik
11/02/09, 15:26
Nog een nadeel: lagere performance I/O naar lokale schijf. Met Xen meet ik een 5 tot 10% lagere performance naar een lokale RAID1.

N.B. ik vind virtualisatie geweldig, maar TS zoekt naar nadelen.

pierce
11/02/09, 15:35
Nadelen kunnen zijn:
Licentie kosten (bij vmware)
Aanschaf storage, al kan je natuurlijk ook zelf wat bouwen...
Bij virtuele machines kom je eerder geheugen dan processorkracht tekort, bespaar hier dus niet op!

Voordelen:
Geheugen koop je voor een prikkie.

burp2001
11/02/09, 15:38
let wel op dat vmware en freebsd niet lekker loopt..

pierce
11/02/09, 15:40
let wel op dat vmware en freebsd niet lekker loopt..

Want?

burp2001
11/02/09, 15:50
Want?

Nogal veel last van vastlopende systemen, maakt niet uit of het 4.11, 6.2 of 7.x is..
of dat de disken ineens read-only worden...

®on
11/02/09, 16:03
Nog een nadeel: lagere performance I/O naar lokale schijf. Met Xen meet ik een 5 tot 10% lagere performance naar een lokale RAID1.
En performance naar een centraal storage systeem (nas/san)?

Want?
Daar ben ik ook best benieuwd naar, want tot op heden heb ik met de test opstelling ESXi + FreeBSD7 nog geen rare zaken kunnen ontdekken.

burp2001
11/02/09, 16:08
Daar ben ik ook best benieuwd naar, want tot op heden heb ik met de test opstelling ESXi + FreeBSD7 nog geen rare zaken kunnen ontdekken.

okee, wij zijn van FreeBSD onder ESX 3.5 afgestapt en naar Centos gegaan ivm de problemen met FreeBSD onder vmware..

zijn wij de enige ?

pierce
11/02/09, 16:14
okee, wij zijn van FreeBSD onder ESX 3.5 afgestapt en naar Centos gegaan ivm de problemen met FreeBSD onder vmware..

zijn wij de enige ?

Geen idee, maar ik heb het nog nooit eerder gehoord.
Goed, we gebruiken dan ook geen FreeBSD, enkel CentOS en Windows.

maxnet
11/02/09, 16:24
Onder Xen zijn er ook problemen met FreeBSD.
Bij 7.1 bootte de installatie procedure niet eens, bootloader gaf een BTX halted fout.

Schijnt inmiddels in een nieuwere versie opgelost te zijn
Maar zolang dit soort dingetjes nog voorkomen, zou ik het niet in een productieomgeving willen draaien.
Als het niet meteen al vlekkeloos draait, of er patches nodig zijn, is het risico dat het na de eerste de beste kernel upgrade helemaal niet meer werkt, me iets te groot.

Ber|Art
11/02/09, 16:34
Ik ben het helemaal met Maxnet eens, ik vond er ook te veel kleine zaken die nog niet goed waren, dus kort gezegt te veel risico voor een productie omgeving IMO

Randy
11/02/09, 16:40
Vergeet overigens bij nadelen niet de kostprijs te noemen. Een licentie voor het geheel kost al gauw zo'n 15 a 20 000 euro. (vcenter enterprise en voor iedere fysieke host een infrastructure licentie)

Of je belt een VMware partner en huurt een oplossing. Zo hoef je geen SAN te kopen en betaal je je licenties netjes per VPS per maand, zoals je met Microsofts SPLA ook doet. Al zou ik bij een homogene omgeving gewoon XEN gebruiken. Ik weet aleen niet hoe met met BSD's werkt, omdat ik er zelf nooit echt mee werk.

Ron: Monitor jij nu je CPU / Load al met Cacti van de servers?

Randy
11/02/09, 16:43
Nog een nadeel: lagere performance I/O naar lokale schijf. Met Xen meet ik een 5 tot 10% lagere performance naar een lokale RAID1.

N.B. ik vind virtualisatie geweldig, maar TS zoekt naar nadelen.

RAID-1 is not done. Je gebruikt je harddisk bij 4 VM's 4x zo intensief. Het is niet voor niets dat iedereen met geld naar een SAN oplossing gaat en de mensen met een wat kleinere omgeving voor lokale RAID5/6/10 gaan.

Wat je zeker niet moet doen is nog met SATA disks werken. SAS wordt gelukkig heel goed betaalbaar. Een 2,5" SFF diskje van HP (146Gbyte / 10K RPM) heb je al voor 200 euro. Neem hier een goede RAID-controller bij met BWC cache en je hebt een bloedsnelle machine.

®on
11/02/09, 16:55
Ron: Monitor jij nu je CPU / Load al met Cacti van de servers?
Yep, en het leek me dan ook een prima startpunt om te bepalen wat er aangeschaft moet worden. Mede naar aanleiding van de opmerking van Vince eerder in dit topic.

Jefke
11/02/09, 18:12
Vergeet ook niet dat VMWare niet de enige is voor enterprise virtualisatie. Wij gebruiken Virtual Iron. Alle toeters en bellen van VMWare, alles in één licentie per socket, en een stuk goedkoper.

(Disclaimer: Wij verkopen Virtual Iron)

systemdeveloper
11/02/09, 18:48
okee, wij zijn van FreeBSD onder ESX 3.5 afgestapt en naar Centos gegaan ivm de problemen met FreeBSD onder vmware..

zijn wij de enige ?
Dat kan aan de hardware liggen. Ik heb het zelf met supported hardware draaien en dat werkt toppie :)

harvey
12/02/09, 02:04
Wij gebruiken op dit moment een paar oudere dells met virtuozzo
als je alles door een kundig persoon opzet zou je de vpssen gewoon stabiel kunnen draaien.

Bij uitval van een machine zal je vps zelfs door draaien op een andere fallback locatie.

Op dit moment hosten wij een portfolio van rond de 2500 domeinen op
1x supermicro 5013-i ns1 bij leaseweb

3x webservers Dell PowerEdge SC1425(2x 2,8ghz 2 gb ram) en
1x database Dell PowerEdge 1850 (2x 3,2ghz 4 GB)
bij True tot op heden draait alles nog steeds naar behoren.
1x ns3 mailserver Dell PowerEdge 2650 (2x 2,4ghz 2 gb memory) extern bij BIT

Enige nadeel van virtuozzo vindt ik nog dat het geen direct os heeft
maar draait als software op bijvoorbeeld redhat of centos of name it.

VMware hebben we ook naar gekeken maar hebben we weinig ervaring mee.
De licentie kosten vind ik geen probleem, dat verdient zich wel terug.

maxnet
12/02/09, 18:57
Enige nadeel van virtuozzo vindt ik nog dat het geen direct os heeft
maar draait als software op bijvoorbeeld redhat of centos of name it.


Klinkt een beetje als de "jail" functionaliteit die standaard bij FreeBSD zit.
Daarmee kan je meerdere userland omgevingen onder dezelfde kernel draaien.

Zou je eventueel ook nog kunnen overwegen.

Randy
12/02/09, 22:07
Inderdaad correct, dat is wel de virtualisatiemethode (2x woordwaarde) van Virtozzo.

VinceSTM
13/02/09, 00:27
Inderdaad correct, dat is wel de virtualisatiemethode (2x woordwaarde) van Virtozzo.

Doet xen ook niet zoiets?

Randy
13/02/09, 00:43
Hypervising is het woord. Maar XEN kan ook volledige virtualisatie aan. (Mits je CPU dit ondersteund, wat bij elke moderne server het geval is) Hypervising is leuk, vooral in een homogene omgeving.

fossie
20/03/09, 10:44
Ik heb niet veel ervaring met ESXi / XenServer, maar wil een nieuwe server, een Dell Power Edge R200 Quad Core Xeon X3360 (2.83GHz, 2x6MB, 1333MHz FSB) 4Gb, de SAS 6i/R kaart, graag opsplitsen, om een CentOS en een Debian naast elkaar te draaien. Is het mogelijk om het met een Raid 1 configuratie te doen, want las hierboven, wat vanzelfsprekend is, dat je voor elke VPS disk access nodig hebt en dat kan erg belastend zijn.

Is dit mogelijk of kan ik het beter niet doen?

Wat is dan de beste manier, gebruik te maken van ESXi of nog even wachten voor de XenServer. Mensen met ervaringen soortgelijke configuratie? Zal misschien nog wel geheugen upgraden, maar dat staat nog niet vast.

Bedankt,
Fossie

oehTie
20/03/09, 16:47
Als je voor eigen gebruik 2 vm's draait is een Raid 1 meer dan genoeg onder ESXi.

Ga je meer draaien, en dat is nogal snel aangezien de fysieke hardware toch draait dus een extra testvmmetje heb je zo gemaakt, dan heb je zeker geheugen en disk access nodig. Een raid 5 of 10 met minimaal 4 schijven is dan zeker aan te raden.

Voor eigen gebruik is ESXi gratis te downloaden.

fossie
20/03/09, 19:05
Prima, dus zolang ik er slechts de geplande twee vm's op draai, zal het me lukken. Het doel is eigenlijk één vast VM te houden waar productie (160 Gb disk en 3Gb memory) data op komt en een tweede als test-development voor online demo's enzo. Dus deze kan dan opnieuw geïnstalleerd worden met de nodige configuratie, kan een debian, ubuntu server ofzo zijn, de eerste zal een CentOS blijven en ben niet van plan die regelmatig te verwijderen.

Thx.

oehTie
20/03/09, 19:14
hou er wel rekening mee dat je de vm's genoeg cpu cores toekent. Standaard is dit 1. En bij 2 vm's zal een quadcore dus max 50% belast worden :) De overige 2 cores staan dan hun neus leeg te eten. Als je iedere vm 2 cores toekent is dit opgelost.

VinceSTM
21/03/09, 10:11
tenzij je i7's inzet, die zetten dan de andere cores uit en dan heeft de ene core veel meer rekenkracht in zn eentje (las ik vanochtend)

oehTie
21/03/09, 21:59
desktop hardware is af te raden. voor servers zijn ze nog niet beschikbaar.

rogerhe
22/03/09, 00:05
Wij hebben in januari 70 machines vervangen door een IBM bladecenter H met vier blades (elk met 2x quad core Xeon 7xxx, 32Gbyte ram).

Als storage gebruiken we een IBM N series (een Netapp met een IBM stickertje), met zowel iscsi als nfs naar de blades en VM's toe.

In principe is RAM de beperkende factor bij onze config; de CPU's staan uit hun spreekwoordelijke neus te eten, ook al zitten er VM's tussen die shared hosting en mysql verzorgen voor meerdere duizenden sites.

Het is de hoeveelheid RAM die het aantal VM's per blade bepaalt in ons geval. Dat zijn er bij ons rond de 60.

Voor de VMs gebruiken we Xen Server Enterprise.

FreeBSD 7 geeft bij ons geen enkel probleem onder Xen, we hebben een paar klanten die er dedicated servers mee draaien. Echter is de reporting en het management met Linux varianten naar Xen Server Enterprise wat beter. We gebruiken veel Debian Etch, maar ook Centos werkte bij ons prima.

Het handige met de IBM N series is dat je deduplicatie aan kunt zetten zodat alleen de verschillen tussen de VM's nog worden opgeslagen. Aangezien je systeembestanden vaak identiek zijn win je daar erg veel storageruimte mee. Het koste alleen wel wat overhead.

Ook wij gebruiken 25% spare capaciteit, in de vorm van een extra blade.

Klanten geven aan dat de snelheid van hun dedicated servers er sinds het virtualiseren merkbaar op vooruit is gegaan. Nu zal in ons geval het overstappen van 100Mbit/s naar gigabit ook een rol daarbij spelen. De IO snelheid van de N series is weliswaar lager dan twee SAS disks in sparring mode, maar lijkt sneller dan twee oudere SATA drivers in RAID 0/1.

Het mindere is de prijs van alle hardware (85000,-), maar goed, 70 servers kosten bij elkaar ook iets soortgelijks (afhankelijk van je config uiteraard).

Een van de leukere dingen is dat je nu makkelijker even een machine ergens voor aanmaakt - om te testen bijvoorbeeld. Je hoeft geen harware meer te bestellen en alles is veel beter te managen. Bezoekjes aan het datacentrum omdat iemand zich in de voeten heeft geschoten komen bijvoorbeeld niet meer voor.

Hollanda
22/03/09, 01:19
desktop hardware is af te raden. voor servers zijn ze nog niet beschikbaar.

jawel hoor