PDA

Bekijk Volledige Versie : Setup vraag mbt. colocation



LBCsm
29/11/09, 13:15
Ten behoeve van website en server applicatie heb ik twee Poweredge R200 servers aangeschaft (Xeon X3320, 8GB RAM per machine), die ik in december ergens ga colocaten.

Aanvankelijk leek het mij logisch de website van de ene server te gaan draaien en de server applicatie van de ander. Ik sprak laatst echter een vriend van me die systeembeheerder is en die kwam met het setup plan hieronder. Hij wil dit ook wel voor mij installeren. Windows OS is nodig mbt. Server applicatie.

Dit heb ik de software engineer die de server applicatie maakt gemaild en die geeft aan dat het opzich een goed plan is, maar dat het nog wel eens problemen zou kunnen opleveren mbt. colocation. Ik was dus van plan om 2x 1U rackspace te gaan huren en volgens software engineer kan je dan niet zomaar een switch en NAS erbij zetten, maar moet je daarvoor 1/4 rack huren.

Budget is vrij krap aangezien ik student ben en het project prive-financier. Dan zal men zeggen "waarom dan extra kosten maken door aanschaf switch en NAS?". De servers hebben op dit moment beide 1x 160GB HD. Ik was zo wie zo van plan hier 2x SAS 6iR RAID controllers bij te kopen om in RAID1 te gaan draaien. De controllers en 2HD's zullen zo'n €350 kosten. Switch en NAS zullen iets duurder uitpakken, maar heel veel duurder zal het waarschijnlijk niet zijn (dan schaf ik de RAID controllers niet meer aan namelijk). NAS zou dan minimaal in RAID1 draaien en wellicht in RAID5.

Ik was van plan om bij Leaseweb te gaan hosten (omdat software engineer daar zit en ik zijn keuze vertrouw). Ik heb echter nog steeds geen antwoord op een mail die ik een week geleden aan de sales van Leaseweb gestuurd heb. Bovendien biedt het forum uiteraard meerdere invalshoeken.

Ik ben benieuwd naar jullie commentaar en advies over de situatie.

http://img32.imageshack.us/img32/1626/20091129laag1vanosi.jpg

KristianT
29/11/09, 13:25
Vaak krijg je per colocated server 1 uplink naar het internet toe.
Onderling zou je eventueel nog met crosskabels kunnen werken, dit scheelt dan weer 1U.

En wil je echt Windows boven op een Linux OS gaan draaien ?
Het lijkt me voor de configuratie juist makkelijker om Windows gewoon als hoofd OS te installeren.
Volgens mij kan je met VM Ware juist meer problemen creëren.

LBCsm
29/11/09, 13:47
Vaak krijg je per colocated server 1 uplink naar het internet toe.
Onderling zou je eventueel nog met crosskabels kunnen werken, dit scheelt dan weer 1U.
Setup in plaatje heeft toch ook maar 1 uplink nodig?



En wil je echt Windows boven op een Linux OS gaan draaien ?
Het lijkt me voor de configuratie juist makkelijker om Windows gewoon als hoofd OS te installeren.
Volgens mij kan je met VM Ware juist meer problemen creëren.
Geen idee. Ik heb nog nooit iets met Linux gedaan. Volgens die vriend van me is Linux lichter en stabieler.
Reden van deze setup is volgens hem redundancy (ofzo). Volgens hem draait in deze setup Server1 het windows image van de serverapplicatie en Server2 het windows image van de website. Indien Server1 er mee op zou houden zou Server2 allebei de images gaan draaien opdat er geen downtime zou zijn en de gebruiker er niet veel van merkt. En Server1 rustig onderzocht kan worden/onderdelen vervangen kunnen worden.

Patrick_st
29/11/09, 14:31
Die switch kan je misschien nog wel achter je server kwijt maar die NAS gaat toch echt ruimte in nemen.

Verder zie ik dat je 2 virtuele servers vanaf je NAS gaat draaien. Wat voor NAS heb je in gedachte? Je hebt best een stevige NAS nodig wil daar enige vorm van performance uit halen.

Yourwebhoster
29/11/09, 14:38
Aangezien het in dit geval om maar twee servers gaat kan je ook kiezen voor een crosskabel en dat de systemen elkaar hdds mirroren. Dan heb je geen switch én geen NAS nodig.En je hebt ook niet het probleem dat als de NAS uitvalt dat beide systemen onbruikbaar zijn, dit lijkt mij in dit geval een betere oplossing als het om HA gaat.

LBCsm
29/11/09, 14:55
Die switch kan je misschien nog wel achter je server kwijt maar die NAS gaat toch echt ruimte in nemen.

Verder zie ik dat je 2 virtuele servers vanaf je NAS gaat draaien. Wat voor NAS heb je in gedachte? Je hebt best een stevige NAS nodig wil daar enige vorm van performance uit halen.
Had een 4bay Synology ofzo met gigabit verbinding in gedachten in RAID5. Is echter allemaal giswerk en heb geen idee hoe dit in de praktijk zal draaien.

Maar zo'n NAS plaatsen bij shared-colocation (2x 1U) is geen optie dus?

En die switch achter de servers wegwerken; is dit over het algemeen wel toegestaan? Ik kan me als hoster voorstellen dat je het zo net mogelijk wilt houden en geen zin hebt in rondbungelende hardware.


Aangezien het in dit geval om maar twee servers gaat kan je ook kiezen voor een crosskabel en dat de systemen elkaar hdds mirroren. Dan heb je geen switch én geen NAS nodig.En je hebt ook niet het probleem dat als de NAS uitvalt dat beide systemen onbruikbaar zijn, dit lijkt mij in dit geval een betere oplossing als het om HA gaat.
Dit klinkt interessant. Bedankt voor de tip. Technisch zie ik dit nog niet helemaal voor me (door gebrekkige server kennis), maar het klinkt zeker interressant. Ik zal het die vriend van me voorleggen.

Dat over die uitvallende NAS, dat idee had ik inderdaad ook. Maar dacht als je RAID5 met hotspare inzet zal dat wel wat meevallen, maar inderdaad, de NAS zelf kan ook nog kapot.

JanSmit
29/11/09, 14:56
vmware server mag dan gratis zijn, echter is het een hosted oplossing. Je gebruikt niet de hardware virtualisatie die je servers hebben. Wellicht dat je voor vmware esxi of een ander systeem (ook gratis) kan kiezen. Die maakt gebruik van je hardware virtualisatie en geeft je wat meer performance

su6

Jan

Yourwebhoster
29/11/09, 14:58
Hoop niet voor je dat je echt een consumenten dingetje daar gaat plaatsen, maar meer een echte SAN als je een externe opslag wilt. Als switch ook géén consumenten spul plaatsen;)

En sowieso zou ik iemand huren die alles managed als je der zelf geen weet van hebt, het kan best lastig zijn en als het niet meer werkt kan het lang duren voordat je het zelf of iemand anders werkend kan krijgen. Daarnaast wordt er vaak vergeten dat het opzetten van zoiets niet makkelijk is.

Patrick_st
29/11/09, 15:27
Had een 4bay Synology ofzo met gigabit verbinding in gedachten in RAID5. Is echter allemaal giswerk en heb geen idee hoe dit in de praktijk zal draaien.

Maar zo'n NAS plaatsen bij shared-colocation (2x 1U) is geen optie dus?


Ik ben geen hoster maar als je extra ruimte nodig hebt, moet je meer huren lijkt me? Je hebt NAS oplossingen in 1U, dan zou je met 3x 1U klaar zijn ipv een kwart rack.

Ik ken niet alle Synology nasjes maar degene waar ik ervaring mee heb, halen ongeveer 20 tot 30MB per seconde. Dat lijkt me wat weinig om er twee virtuele servers op te draaien.

LBCsm
29/11/09, 15:29
ESXi geef ik ook door. Bedankt voor de tip.


Hoop niet voor je dat je echt een consumenten dingetje daar gaat plaatsen, maar meer een echte SAN als je een externe opslag wilt. Als switch ook géén consumenten spul plaatsen;)
Ik zie dat idee van je met die crosscable nog niet helemaal helder voor me, maar dan is nog steeds een switch nodig? En mocht die nog nodig zijn, een switch geschikt voor deze situatie van max. €150 zal wel te realiseren moeten zijn toch? Dat ik er geen €6,95 Sweex switch tussen plaats, dat snap ik, maar waar die grens van wat wel bruikbaar is dan ligt, is me niet geheel duidelijk.

SAN is volgens mij geen optie voor mij omdat ik dat gewoonweg niet kan opbrengen.


En sowieso zou ik iemand huren die alles managed als je der zelf geen weet van hebt, het kan best lastig zijn en als het niet meer werkt kan het lang duren voordat je het zelf of iemand anders werkend kan krijgen. Daarnaast wordt er vaak vergeten dat het opzetten van zoiets niet makkelijk is.
Op dit moment is de planning om met die vriend van me die netwerkbeheerder is alles te configureren en te installeren. Op zijn werk werkt hij met OSI laag 2, 3 en 4 (wat dat ook maar moge zijn), maar heeft ook toegang tot advies van veel collega's aangezien hij bij een grote organisatie werkt. Daarbij de gemaakte keuzes met software engineers (2) overleggen en op het forum plaatsen. Als alles eenmaal geinstalleerd is denk ik dat ik een overeenkomst met een van de software engineers afsluit ivm. onderhoudt.


Ik ben geen hoster maar als je extra ruimte nodig hebt, moet je meer huren lijkt me? Je hebt NAS oplossingen in 1U, dan zou je met 3x 1U klaar zijn ipv een kwart rack.

Ik ken niet alle Synology nasjes maar degene waar ik ervaring mee heb, halen ongeveer 20 tot 30MB per seconde. Dat lijkt me wat weinig om er twee
virtuele servers op te draaien.
1U NAS die ik tot nog toe gezien heb ik zijn te duur voor mij. Die doorvoersnelheid heb ik geen idee van.

Ik was dus van plan om gewoon Server1: Server applicatie, Server2: Website te gaan draaien met RAID1 setup. Toen sprak ik die vriend echter en die vroeg me de hardware en requirements even te mailen. Vervolgens kwam hij met dit plan op de proppen en dat failover systeem klinkt wel prima uiteraard. Daarna kwam software engineer echter met kanttekening over ruimte en toen dacht ik, laat ik het eens op webhostingtalk.nl plaatsen om te horen wat de community ervan te zeggen heeft. Dat is het hele verhaal eigenlijk.

Wat extra uitgeven (paar honderd euro) om een setup te realiseren dat wanneer Server1 uitvalt, Server2 het werk van Server1 overneemt is prima. Het is echter niet de bedoeling om de setup dusdanig aan te passen dat de extra kosten gelijk zijn aan de kosten van de twee aangeschafte servers (€1000).

gjtje
29/11/09, 15:40
In principe verleg je het probleem nu alleen maar van de server naar de NAS. Als je budget beperkt is denk ik dat de kwaliteit van de nas zeker niet beter zal zijn dan die van een Dell R200, zeker op het gebied van support bij een storing, zonder nas werkt helemaal niks.
Je maakt de setup ook een stuk complexer waardoor bij problemen het uitzoeken een stuk langer gaat duren. Zeker als je niet iemand hebt die dagelijks met dergelijke omgevingen werkt.

Ik zou die extra centjes in een raid controller stoppen en gewoon je initiele plan uitvoeren. Mocht het goed draaien en de vraag naar een hogere uptime garantie daar zijn dan is er wel iemand die er voor wil betalen.

Yourwebhoster
29/11/09, 15:44
Ik weet niet waar je naar kijkt, maar een normale 1 U server met RAID 1+0 kan je al als SAN inzetten. Waar jij het over hebt is denk ik consumenten spul, deze presteren niet vergelijkbaar met een SAN waar ik het over heb.

Patrick_st
29/11/09, 15:58
Een geschikte NAS/SAN kost net zo veel als je servers zelf.
Een gigabit switch met VLAN ondersteuning ga je met max 150 euro net redden. De HP Procurve 1810 8Poorts zit rond die prijs (ex btw)

Het lijkt me inderdaad verstandiger om je bij het eerste idee te houden.

Welke ideeen heeft die vriend over een switch/NAS? Als hij het zo voorsteld dan heeft hij toch ook iets van merk/type in gedachte hiervoor?

Yourwebhoster
29/11/09, 16:02
Wat ik zou doen:
- Twee servers
- Data op servers mirroren, dit kan die vriend van je met enig kennis van linux wel voor je opzetten
- Cross cable tussen servers om de mirror over te laten lopen, anders moet je onnodig extra dataverkeer betalen. Een switch is niet nodig, pakt dus goedkoper uit. Je hebt geen probleem als een SAN uitvalt of één van de servers, data is op beide servers aanwezig. Enig verschil is dat geen switch nodig is, performance zou hetzelfde moeten zijn.
- servers elkaar laten monitoren.

Piwi-Web
29/11/09, 16:17
OSI laag 2, 3 en 4 (wat dat ook maar moge zijn)

Data, Network en Transport =)

Voor de rest, wanneer het bij 2 servers blijft, zou ik het volgende doen zoals yourwebhost er ook zegt:
- Crosslink tussen beide servers
- HD mirror maken met heartbeat en drbd

Zou je gaan uitbreiden kom je onder een NAS niet meer uit. HP Procurve 1810 switches zijn prima dingetjes trouwens die je goed kan gebruiken tegen die tijd.

Marinus
29/11/09, 16:22
Die eigen switch kun je opvangen door een hoster te zoeken waarbij intern verkeer tussen servers gratis is. Geen idee of LeaseWeb dat doet. Maar dat scheelt alweer 1U.

Ook kun je kijken of er een colo provider is die een SAN heeft waarbij je een stuk kunt afnemen. Dan hoef jij in ieder geval de investering niet zelf te maken. Je kunt natuurlijk altijd met twee servers beginnen in je oorspronkelijke setup. Op het moment dat je er geld aan gaat verdienen kun je dan altijd nog een duurdere, high availability oplossing nemen.

Piwi-Web
29/11/09, 16:25
Die eigen switch kun je opvangen door een hoster te zoeken waarbij intern verkeer tussen servers gratis is. Geen idee of LeaseWeb dat doet. Maar dat scheelt alweer 1U.

Dat is bijna overal zo ;)

Mark17
29/11/09, 16:28
Heb je het volgende al overwogen met de 2 servers die je al gekocht hebt (enkel dan nog die hardeschijven upgraden voor betere prestaties):
- 2 servers met (bijv. Debian 64 bit) met daar op DRBD om partities tussen beide machines te synchroniseren.
- Op beide machines ook KVM zetten om de VPS binnen te draaien (met hardware virtualisatie draait Windows er gewoon op als er hardeschijfruimte/RAM wordt toegekend). Bij problemen met de ene machine start je het zo op op de andere (als of de stroom onderbroken is wat data veiligheid betreft).
- Cross cable tussen de servers voor een snelle interne verbinding of een leverancier zoeken die intern verkeer niet meet (cross cable heeft de voorkeur en kost een paar euro). Bij een cross cable kun je tevens vragen om aangesloten te worden op 2 switches om zo ook bij het uitvallen van een switch met wat werk weer verder te kunnen draaien (terwijl die switch uit is).
- Servers elkaar laten monitoren en eventueel het overnemen automatiseren (afhankelijk van de eisen/wensen, dit brengt namelijk ook weer enige risico's met zich mee).

Voordelen van deze opzet:
- Volledig redundant (voor zover mogelijk binnen 1 DC/netwerk) opzetten is mogelijk.
- De kans dat 2 systemen tegelijk kapot gaan is gering.
- Geen SPOF (wel bij een lossen NAS/SAN die uit 1 apparaat bestaat).
- Ruimte gebruik is enkel 2x 1U (bij een goede colocatie leverancier zijn 2 switch poorten per server geen probleem, hoogstens kost een paar euro per maand extra).
- Beheer aan de VPS nodes (want dat zijn je 2 fysieke machines) kan zonder downtime of met nagenoeg geen downtime.

Nadelen van deze opzet:
- Gelimiteerd tot 2 systemen in de basis, het is uiteraard in de toekomst wel uit te breiden (maar is meer werk).

Het opzetten van het geheel is op zich niet zo moeilijk. Een DRAC kaartje kan je een ritje naar het datacentrum midden in de nacht besparen (ten minste als er een beetje een degelijke KVM over IP optie in zit), tevens is het om hulp vragen van iemand anders dan ook makkelijker.

Overweeg ook managed colocation, dan heb je helemaal geen omkijken naar de systemen zolang er geen hardware probleem is (en dat kan zelfs nog weer binnen de overeenkomst vallen).

Marinus
29/11/09, 16:29
Dat is bijna overal zo ;)

waarom dan uberhaupt nog een eigen switch voor 2 servers ophangen :)

Piwi-Web
29/11/09, 16:33
waarom dan uberhaupt nog een eigen switch voor 2 servers ophangen :)

Dat zeg ik toch niet?

Ik zeg dat je naar een eigen switch kan kijken als hij een SAN er neer hangt. Dan scheid je intern/extern

Marinus
29/11/09, 16:34
Dat zeg ik toch niet?

Ik zeg dat je naar een eigen switch kan kijken als hij een SAN er neer hangt. Dan scheid je intern/extern

zelfs dan, als je dat via de switches van je host kunt doen heb je en betere hardware en minder kosten. Zeker als alles voor laag budget moet...

LBCsm
29/11/09, 16:35
Bedankt voor de heldere uitleg allemaal heren! Alweer bijzonder veel perspectief meer dan vanochtend.

Wat YourWebHoster voorsteld spreekt mij aan.

Ik zie net een post van Mark17 verschijnen wat er volgens mij erg op lijkt, maar ook dit spreekt mij aan (ja die studenten kijken inderdaad slechts naar de kosten).

Ik zal de hele thread binnenkort met die vriend van me overleggen.

Als ik het goed begrijp is RAID1 in beide setups (YWH en Mark17) enigszins overbodig, aangezien de HD's tussen de servers onderling gemirrord worden? En blijft de setup eigenlijk hetzelfde als mijn vriend voorsteld, maar zonder NAS.

Mark17
29/11/09, 17:16
@LBCsm: Persoonlijk zou ik wel minimaal RAID1 (of RAID5) adviseren, echter zou het strikt genomen ook met 1 hardeschijf per server kunnen of met RAID0 (aangezien er een soort van netwerk RAID1 is, hoewel dit niet de goede benaming is). Als het budget het toelaat zou ik wel voor 15k RPM schijven gaan als de hardeschijven redelijk belast zullen worden.

Als er nog vragen zijn dan horen we die graag en dan kunnen we altijd kijken of we de oplossing weten.

LBCsm
29/11/09, 17:37
Ik zat net te kijken naar de prijzen van SAS en zag al 143GB SAS 15K schijven voor €140 wat in principe best te betalen is en binnen het budget valt (dan niet in RAID1 opstelling, anders wordt het wel wat duur; 4 schijven + 2 RAID controllers).

Nou vroeg ik me alleen af, is SSD dan misschien niet interessanter? Die intel Postvilles zijn zo'n €190 geloof ik. Wel 80GB ipv 143GB en iets duurder, maar die performance van die Postvilles schijnt wel goed te zijn.

Moet ik er ook bij zeggen dat het ook nog mogelijk is dat ik het gewoon met de meegeleverde 160GB SATA schijven (1 per machine) probeer eerst. Weet eerlijk gezegd niet echt wat nodig is.

Ik draai hier thuis op 2x WDRaptor 73GB 10.000rpm SATA1 in RAID0. Die zouden eventueel ook gebruikt kunnen worden (ik heb de snelheid thuis niet meer nodig), alhoewel die al wel een jaartje of 3 draaien.

Patrick_st
29/11/09, 17:45
Als je Raptors al een jaartje of 3 draaien zou ik die niet meer in een server inzetten.

Je hoeft inderdaad niet per se raid 1 te gebruiken in je servers maar ik advies om dit wel altijd te doen. Het is niet alleen veiliger maar het maakt het lezen ook veel sneller omdat de controller van twee schijven tegelijk kan lezen.

XBL
29/11/09, 17:56
Bij Raid 1 kan je wellicht voor tragere schijven kiezen, om de reden die Patrick_st hierboven noemt.

Verder moet je je afvragen hoe ver je wilt gaan. Technisch gezien is het altijd het leukst om zoveel mogelijk SPOFs uit te sluiten, maar vaak komt het de uptime niet ten goede: redundantie vraagt behoorlijk wat kennis en 1 foutje kan voor enorm veel problemen zorgen. Maak dus een afweging tussen de verschillende risico's.

Voor de rest ga ik mee in de eerder genoemde opties: laat de servers elkaar mirroren en je hebt een NAS e.d. al niet eens meer nodig :).

vipeax
29/11/09, 18:00
Als je Raptors al een jaartje of 3 draaien zou ik die niet meer in een server inzetten.

Daar ben ik het niet helemaal mee eens... Als ze al een tijdje draaien gaan ze meestal ook lang mee. Een groot deel van de uitval schijven zul je toch echt na 1 jaar pas uit de collectie hebben.

Randy
29/11/09, 18:15
Ik zou niet voor VMware Server gaan maar voor ESXi. Dit is al genoemd. Deze maakt gebruik van hardwarevirtualisatie en heeft aanzienlijk minder overhead - en dus betere prestaties - dan de gewone VMware Server.

Als storage kun je een Synology gebruiken. Ga dan wel voor raid 10 in plaats van raid 5. Dit zal sneller zijn. De performance van Synology valt echter tegen. Ikzelf heb deze in een testlab thuis wel eens gebruikt, maar deze inmiddels vervangen door een Netgear Readynas. Deze is ook door VMware gecertificeerd. De NVX als het goedkoop moet, de Pro voor als het goed moet. Gebruik de X-RAID(2) instellingen en je haalt ~100 Mb/s aan snelheid (Pro) of ~75 Mb/s (NVX).

Colocaten van niet 19" apparatuur is mogelijk in overleg met je provider. In jouw geval zal het voordeliger zijn voor 1/4 rack te gaan, mede door de switches en powerbar. De verbinding tussen de servers en storage kun je met een crosslink* kabel doen bij de Netgear, dit doe ik ook in mijn testlab. Een 1/4 rack zit ongeveer op ~200 euro per maand, inclusief 4 Ampere stroom en 1.000 Gbyte dataverkeer.

* Gebruik je wel een switch, zorg dat deze Gbit is én Jumbo frames ondersteund.

Wil je geen NAS/SAN gebruiken, kun je de Linux DRDB oplossingen gebruiken. Persoonlijk blijf ik dit toch een beetje rommelen vinden. Zeker omdat de prijs van de genoemde storage verwaarloosbaar is op de kosten van de servers en colocatie gedurende de hele lifecycle en die zich makkelijk terug verdient op de beheerskosten die met de VMware / NAS oplossing aanzienlijk lager liggen.