PDA

Bekijk Volledige Versie : loadbalancers hardware



nzyme
07/10/06, 11:37
wat ik me afvraag, wat voor systeem ben je eigelijk nodig om een <vul maar in>cluster te loadbalancen ? (een cluster met een 5tal webservers als richtlijn)

Is dat hetzelfde id als met routers/firewalls, dus dat je met een Pentium2 config genoeg kan of hangt het slechts van raw cpu power af of ....

Mijn eerste indruk is iig dat een Dual Opteron met 16GB iig niet nodig is :)

ErikKosters
07/10/06, 11:44
Hiervan kan je een hele lichte machine pakken. Denk dat Sempron of Celeron al voldoet :).

Apoc
07/10/06, 11:45
De Dual Opterons met 4GB ram waarmee wij getest hebben konden zo'n 3gbps traffic aan, dus dat zal je inderdaad niet nodig hebben. Let wel dat dat enkel normale http traffic is - traffic zoals https is veel intensiever. Het hangt verder ook af van de software.

Een Pentium2 zou dus zeker moeten volstaan. Zorg er wel voor dat je er 2 gebruikt voor redundantie.

nzyme
07/10/06, 11:54
Zorg er wel voor dat je er 2 gebruikt voor redundantie.
i know, staat al in de planning :)

gewoon het meest goedkope bakje is dus voldoende:

p3 1ghz
64mb
3gb hdd
100mbit nic

zoiets dus :)

NIS3
07/10/06, 11:56
Je zou ook eens kunnen kijken bij F5 Networks. Die hebben ook leuke hardware load balancers.

gjtje
07/10/06, 11:57
Ik zou er meer geheugen in stoppen, cachen van sessie gegevens e.d. wil je niet via swap doen.

nzyme
07/10/06, 11:58
Je zou ook eens kunnen kijken bij F5 Networks. Die hebben ook leuke hardware load balancers.
true, maar ik heb de software al voor elkaar (linux-ha) dus het gaat me puur om hardware.... En zo'n kast van F5 is meteen voorzien van routing/switching/firewall en ach, dat lukt me voorlopig met linux ook wel :)

edit:
@hierboven:
doen we er 128mb in :)

Swiftway-UK
07/10/06, 12:31
Ook wat meer NICS lijkt me, meest ideale voor elke server aan je LBer een eigen NIC en voor data naar je netwerk een eigen NIC.

Mocht het commercieel ingezet worden, dan raad ik je een hardware loadbalancer aan.

nzyme
07/10/06, 12:39
hmm, ik had eigelijk het volgende in gedachten:


switch
|
---- loadbalancer1 \
| |-- virtual-ip
---- loadbalancer2 /
|
---- www1
|
---- www2

Swiftway-UK
07/10/06, 12:52
Wil je dan de webservers hangen aan virtuele IPs achter de LBers?

In zo een setup kan het op je NICs wel lekker druk worden, wat niet echt bevordelijk is voor de snelheid.

nzyme
07/10/06, 13:01
aha, want alle traffic komt binnen op eth0 op een loadbalancer en gaat uit diezelfde eth0 naar de eth0 van www1 of www2. De eth0 van de webserver neemt het dan over. De loadbalancer hoeft namelijk alleen de eerste connectie door te delegeren naar een van de webservers.

edit: het webcluster zit op 1 virtueel ip dus, voor de duidelijkheid. Dit ip is in feite geshared tussen het cluster en de loadbalancers. (als je een nmap zou doen zou je de loadbalancers voor je kiezen krijgen.)

ivs
08/10/06, 00:16
Ik heb geen ervaring met loadbalancing maar ik zou voor een diskless systeem gaan dus met een geheugen kaart, zijn heel mooie oplossingen voor die je op je ide/sata poort aansluit.

alexbik
09/10/06, 23:06
Om te beginnen zou ik me afvragen wat je met je loadbalancers wilt bereiken. Doorgaans is dat niet alleen het verdelen van load, maar ook zorgen voor een hoge beschikbaarheid. Naar mijn idee bereik je dat niet door een beetje in software te loadbalanceren op een linuxbakje. Voor het balancen van load zal dat best werken, maar betrouwbaarder zal 't er waarschijnlijk niet op worden.

Zoals al werd opgemerkt heft F5 prima hardware loadbalancers. Kost wat, maar dan heb je ook wat. Als de aanschaf van F5's (liefst twee natuurlijk) financieel niet haalbaar is, zou je ook kunn overwegen loadbalancing als dienst bij een ISP af te nemen die wellicht voor zichzelf al F5's heeft gekocht.

nzyme
09/10/06, 23:36
Om te beginnen zou ik me afvragen wat je met je loadbalancers wilt bereiken. Doorgaans is dat niet alleen het verdelen van load, maar ook zorgen voor een hoge beschikbaarheid. Naar mijn idee bereik je dat niet door een beetje in software te loadbalanceren op een linuxbakje. Voor het balancen van load zal dat best werken, maar betrouwbaarder zal 't er waarschijnlijk niet op worden.
uhm, omdat :huh:
als ik twee loadbalancers heb waarvan de een de andere kan opvangen als die dood gaat is dat lijkt mij toch zeker wel betrouwbaar ?
Het doel is natuurlijk het verdelen van de druk op je webserver(s) over meerdere systemen. De beschibaarheid komt daar uit voort, je hebt immers meerdere systemen in je cluster.

Apoc
10/10/06, 08:26
Om te beginnen zou ik me afvragen wat je met je loadbalancers wilt bereiken. Doorgaans is dat niet alleen het verdelen van load, maar ook zorgen voor een hoge beschikbaarheid. Naar mijn idee bereik je dat niet door een beetje in software te loadbalanceren op een linuxbakje. Voor het balancen van load zal dat best werken, maar betrouwbaarder zal 't er waarschijnlijk niet op worden.

Zoals al werd opgemerkt heft F5 prima hardware loadbalancers. Kost wat, maar dan heb je ook wat. Als de aanschaf van F5's (liefst twee natuurlijk) financieel niet haalbaar is, zou je ook kunn overwegen loadbalancing als dienst bij een ISP af te nemen die wellicht voor zichzelf al F5's heeft gekocht.

Dat is natuurlijk pure onzin. Een hardware load balancer is in principe ook niets meer dan een computer met een operating system, met software erop. Of dat nu linux is of iets anders maakt erg weinig uit.

Sterker nog, de load balancers van Zeus (ZXTM) worden voornamelijk aangeboden als software, en dan kun je zelf de hardware samenstellen. En je kunt wel stellen dat Zeus de marktleider is qua loadbalancers. Ook bij Zeus kun je hun producten bestellen als "hardware appliance", maar dat is verder ook niets meer dan een dual opteron met 4-8 netwerk poorten en de software pre-installed. Het enige wat anders is, is de behuizing, maar dat maakt natuurlijk geen verschil qua prestaties of betrouwbaarheid.