PDA

Bekijk Volledige Versie : Hoe een full rack indelen?



krisdv
12/03/08, 16:09
Binnenkort neem ik een nieuw rack in gebruik. Nu vraag ik mij af hoe ik de hardware moet installeren. Wat hoort waar te zitten in een full rack?

Ik moet plaats voorzien voor 2 stroomblokken A en B feed, 1x redundant power switch, 2x APC 7920, 2x switch 1U, en verschillende servers lang en kort chassis.

Hoe ga ik best te werk?

swedendedicated
12/03/08, 16:47
Wil je het echt perfect hebben?

bovenin switch
firewall en of balancer
kabelgeleider (optioneel)
16x daaronder servers
apc (bij 16 slots anders servers in stappen van 8 ;))
stroomblok
16x servers
apc
stroomblok

enz...

onderin backup en eventueel 2e switch.

dreamhost_nl
12/03/08, 17:56
Waarom niet met een switch beginnen en zo van onderaf opbouwen naar boven?
Of de switch in het midden en daarna naar boven- en onderen uitbouwen?
Er is niet echt eens gulden regel m.i. zo lang je alles maar gemakkelijk kunt bereiken.

RayManZ
12/03/08, 18:18
Ik zou de switch boven je apperatuur hangen. Dan hangen de kabels ook lekker naar beneden. Zelfde geld voor je apc. Daar onder gewoon je servers en dergelijke en indien nodig weer een nieuwe apc als de poorten op zijn.

krisdv
12/03/08, 18:37
Bedankt voor de reacties. Korte chasis onderaan hangen zodat koude lucht voldoende doorgang heeft?

bakkerl
12/03/08, 19:19
als je van bovenaf begint te vullen, moet je je apparatuur wel netjes ophangen. De apparatuur kan namelijk niet leunen op een onderganger...

santema
12/03/08, 19:39
Switch onderin hangen, voorkomt veel kabelrommel (dat ligt dan onderin achter/onder de switch).

Afhankelijk van hoe je rack gekoeld wordt (lucht vanaf onder: korte servers onderin, lange bovenin), als je rack vanaf de voorkant gekoeld wordt lange servers onderin en korte bovenin). Altijd de onderste 3 units ofzo vrij houden (in elk geval bereikbaar vanaf 1 kant) voor het geval je eens iets laat vallen.

Power switches maakt niet uit, je kunt 2 in t midden doen, maar ook beide onderin (wel langere kabels nodig dan), je kunt ook 1 bovenin en 1 onderin hangen. Ook hier hangt het er weer van af wat voor servers je hebt (met of zonder rails?).

mdf
12/03/08, 20:34
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.

slipperman
12/03/08, 21:20
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.
Overdrijven is ook een vak he!

Luke B
12/03/08, 21:24
8 ampère is vaak hetgeen wat je standaard krijgt bij een fullrack, maar je kunt vaak uitbreiden tot 12, 16 of zo nu en dan nog meer ampères ;).
Overigens weet ik niet wat voor servers jij hebt inderdaad, maar energiezuinig is anders...

Randy
12/03/08, 21:25
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.

We hebben een rack met 33 servers. Dus het valt wel mee. Er zijn ook moderne datacentra waar je wel 2x 16A (of meer) kunt krijgen!

TS: Als je een dubbele feed hebt, neem de 'staande' APC's en zet er twee naast elkaar. Weerk met korte stroomkabels van 50-80 cm en je werkt dat gedeelte al heel netjes af, zonder dat het je rackspace kost.
Verder even wat haken halen voor de netwerkkabels, connect-home.nl heeft leuke dingen.

Sorcer
12/03/08, 21:26
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.

Ligt eraan in welk datacenter. Er zijn namelijk genoeg datacenters welke dit nog steeds aanbieden (grote afname Ampere per Rack). Hier in EvoSwitch kan er zelf 32A per rack worden geleverd. Daarnaast zit er ook grote verschil in het verbruik van servers!

BertvArkel
13/03/08, 01:54
Stefan van C-H.nl heeft leuke dingen o.a. plankjes :) Neem vooral plankjes als je gaat starten en begin deze onder de server teleggen dit bespaard je veel gedoe met rails ! Ik weet het dat plankjes duur zijn maar kijk eens naar de rails die zijn maar voor 1x en die kosten ook al snel 30 euro.. en die plankjes 45 ?

Daarnaast zal ik gaan voor schroef plankjes want die klik dingen zijn niet handig (niet makkelijk verplaatsen).

Maar begin onder aan (hou +/- 6 units open) en begin dan met stapelen en pak vanaf boven je switch en je APC's en laat alles rustig vallen qua kabels zo dat je het later netjes kan bundelen.

Tip: neem ook een aantal kabel geleiders zijn handig om onder je switch tehangen om tegeleiden naar de zijkanten.

Luke B
13/03/08, 07:45
Stefan van C-H.nl heeft leuke dingen o.a. plankjes :) Neem vooral plankjes als je gaat starten en begin deze onder de server teleggen dit bespaard je veel gedoe met rails ! Ik weet het dat plankjes duur zijn maar kijk eens naar de rails die zijn maar voor 1x en die kosten ook al snel 30 euro.. en die plankjes 45 ?

Waarom zijn plankjes handig? Rails zijn toch echt wel wat makkelijker voor onderhoud en dergelijke, je roetsjt de server er zo uit en je kunt aan het werk.
Nee, ik zie nou niet echt het nut van plankjes boven rails, maar dat kan aan mij liggen :)

crazycoder
13/03/08, 08:04
Kijk eerst hoe in het dc netwerk en stroom zijn geregeld. Als netwerk boven ligt en stroom onder dan zou ik apc onderin houden, switch boven. Op die manier kan je stroom en netwerk maximaal gescheiden houden.
Mijn voorkeur gaat dan uit naar langs de ene kant de netwerkkabels geleiden en langs de andere kant de stroomkabels.

Als je meerdere apc's per rack gebruik verdeel deze dan over de kast zodat je geen ontzettend lange kabels nodig hebt. Dus tot de helft (vanaf onder gerekend) op de onderste apc, vanaf midden tot boven op de bovenste.

Costeijn
13/03/08, 08:34
Je kan met Visio ook je rack indelen. Misschien handig om te proberen?

DennisWijnberg
13/03/08, 09:19
als je van bovenaf begint te vullen, moet je je apparatuur wel netjes ophangen. De apparatuur kan namelijk niet leunen op een onderganger...

Dat lijkt me sowieso een must!

phreak
13/03/08, 09:31
Waarom zou je van bovenaf willen opbouwen, elk goeddenkend persoon begint van onderaf op te bouwen met hun servers.

DennisWijnberg
13/03/08, 09:51
Ja, klopt! Maar wel met rails (dat bedoelde ik :P)

xabin
13/03/08, 11:49
Waarom zou je van bovenaf willen opbouwen, elk goeddenkend persoon begint van onderaf op te bouwen met hun servers.

De reden daarvan is? Dat het boven altijd warmer is dan beneden?

phreak
13/03/08, 12:24
De reden daarvan is? Dat het boven altijd warmer is dan beneden?

Warmte gaat naar boven? Als je alles boven in gaat opbouwen blijft de warmte daar hangen.

dreamhost_nl
13/03/08, 12:41
Ligt eraan hoe de koeling is opgebouwd, maar normaliter wordt koude lucht van onderaf verticaal het rack in geblazen, dus is het boven theoretisch inderdaad het warmst.

umf
13/03/08, 13:32
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.

nah we hebben nu meerdere racks in evoswitch
1 rack hebben we inderdaad maar 5 servers 6 amp zitten we daar
en extra amps zijn duurder

de andere racks hebben we vol met supermicro pentium4 bakken 20 stuks 12 amp andere rack met c2d hebben we volhangen met c2d 40 stuks 12 amp
tot de nok vol

zal binnenkort een foto maken

per rack hebben we
achterin APC 7954

in het midden
cisco 2960G extern
of HP2824
en backup 2950-24 intern alleen

de reden dat we ze in het midden ophangen is omdat het kabel management dan beter uitkomt

host3000
13/03/08, 13:44
Ligt eraan hoe de koeling is opgebouwd, maar normaliter wordt koude lucht van onderaf verticaal het rack in geblazen, dus is het boven theoretisch inderdaad het warmst.

Dat is wel een beetje bejaarde oplossing inmiddels. Je mag toch inmiddels wel verwachten dat racks niet meer binnenin van onder gekoeld worden maar voor de voorkant een koude muur hebben. Koeling in de racks wordt direkt geblokkeerd door de onderste servers (die zo diep zijn dat ze een groot gedeelte van het vloeroppervlak bedekken).

santema
13/03/08, 14:04
Dat is wel een beetje bejaarde oplossing inmiddels. Je mag toch inmiddels wel verwachten dat racks niet meer binnenin van onder gekoeld worden maar voor de voorkant een koude muur hebben. Koeling in de racks wordt direkt geblokkeerd door de onderste servers (die zo diep zijn dat ze een groot gedeelte van het vloeroppervlak bedekken).

Ik weet zeker dat er nog voldoende plekken zijn waar dit wel zo gaat. In Easynet (4 maanden geleden nog wel) was dit ook zo, daarnaast zaten er willekeurig (aan beide kanten) tegels met gaten waar koudelucht doorkwam, het was ook niet voor niks 29 graden daar maargoed.

host3000
13/03/08, 14:08
Ik weet zeker dat er nog voldoende plekken zijn waar dit wel zo gaat. In Easynet (4 maanden geleden nog wel) was dit ook zo, daarnaast zaten er willekeurig (aan beide kanten) tegels met gaten waar koudelucht doorkwam, het was ook niet voor niks 29 graden daar maargoed.

Vier maanden geleden in suite2a lagen er allang tegels voor de kasten (nog niet de afgesloten lane, maar koeling IN de kast is er in de afgelopen twee jaar nooit geweest in die suite, de rest van het gebouw ken ik niet)

Wynand
13/03/08, 14:19
zal binnenkort een foto makenDat plastic bedrukt bord al'ns gelezen als je langs de balie naar binnen gaat? :rolleyes::p

umf
13/03/08, 16:19
Ik weet zeker dat er nog voldoende plekken zijn waar dit wel zo gaat. In Easynet (4 maanden geleden nog wel) was dit ook zo, daarnaast zaten er willekeurig (aan beide kanten) tegels met gaten waar koudelucht doorkwam, het was ook niet voor niks 29 graden daar maargoed.

laat me raden euroaccess cage/suite ?
daar is nooit iets goeds geweest

wij staan ook op easynet naar is daar echt 10 graden koeler
19 graden en we hebben tot nu toe ook geen stroomstoringen gehad

1x een onderbreking maar dat was voor het ompluggen van een digitale powermeter om verbruik in kwh en ampere digitaal uit te lezen

santema
13/03/08, 19:18
laat me raden euroaccess cage/suite ?
daar is nooit iets goeds geweest

wij staan ook op easynet naar is daar echt 10 graden koeler
19 graden en we hebben tot nu toe ook geen stroomstoringen gehad

1x een onderbreking maar dat was voor het ompluggen van een digitale powermeter om verbruik in kwh en ampere digitaal uit te lezen

De suite waar onderandere EA stond inderdaad, maar ook sitebytes en Easyhosting staan/stonden daar.

Serve-xs
13/03/08, 19:44
Volgens mij zijn er nog maar weinig datacentra waar je je racks nog echt vol mag hangen? Met de limiet van veel dc's van 8A per rack ben je met 5 servers en een switch al bijna klaar.

Dat is nou de reden dat er virtualisatie software is gemaakt.. Dan spaar je kosten in stroom en rackspace, maar hebt toch die capaciteit die je nodig hebt :)

santema
13/03/08, 19:50
Dat is nou de reden dat er virtualisatie software is gemaakt.. Dan spaar je kosten in stroom en rackspace, maar hebt toch die capaciteit die je nodig hebt :)

Explain...

Als ik ergens 4 GB ram voor nodig heb en 3 Ghz processor speed, hoe kan ik dan besparen door dat te virtualiseren? Een server nemen met 2 x 3.0 Ghz en 8 GB ram? Volgens mij gebruik je dan meer stroom en heb je minder rackspace, oftewel: je kunt racks niet vol krijgen.

Mitch
13/03/08, 22:36
Volgens mij wordt er bedoelt dat je een flinke server neerzet. Deze verdeel je dus waardoor dingen als fans en voedingen niet 2 keer stroom nodig hebben maar 1. Natuurlijk gebruikt een flinke server wel weer meer stroom, maar waarschijnlijk zal het minder zijn dan 2 kleine. Of zie ik het verkeerd?

Randy
13/03/08, 22:39
Volgens mij wordt er bedoelt dat je een flinke server neerzet. Deze verdeel je dus waardoor dingen als fans en voedingen niet 2 keer stroom nodig hebben maar 1. Natuurlijk gebruikt een flinke server wel weer meer stroom, maar waarschijnlijk zal het minder zijn dan 2 kleine. Of zie ik het verkeerd?

Helemaal correct. En zelfs met een hele stapel dual quadcores prop je de racks nog vol, al zul je extra stroom moeten bijkopen en in een datacentrum moeten zitten dat wél gebouwd is als datacentrum en dus >8A / footprint kan leveren.

Phu
14/03/08, 03:00
De suite waar onderandere EA stond inderdaad, maar ook sitebytes en Easyhosting staan/stonden daar.

ach ja easypret heeft zijn ups en down gehad
ik heb toendertijd ook bij ea gestaan daar waren inderdaag wat problemen met powerdipjes en airco problemen maar dat is nu verleden tijd de ruimtes zijn nu rond de 18 graden

de manier hoe bij de meeste ook de racks werden gevult zegt ook genoeg
ik kan het weten :)
3x 14 amp per rack is geen uitzondering

Waupiman
26/03/08, 20:52
ach ja easypret heeft zijn ups en down gehad
ik heb toendertijd ook bij ea gestaan daar waren inderdaag wat problemen met powerdipjes en airco problemen maar dat is nu verleden tijd de ruimtes zijn nu rond de 18 graden

de manier hoe bij de meeste ook de racks werden gevult zegt ook genoeg
ik kan het weten :)
3x 14 amp per rack is geen uitzondering

EasyNet heef ook nette zalen


Je kom een beetje over als een negatief persoon.. kan aan mij liggen.

frankske
27/03/08, 12:42
Hoe wij het doen: Bovenaan A bar, B bar, A+B bar, STS en Venea. Halfweg het rack de switch.

Reden switch niet bij powerdingen: kabelgepruts. Je wil je stroomkabels en je datakabels niet in elkaars buurt om geen soep te hebben als je rack (half) vol zit. Zelfs als je je datakabels links en je stroom rechts doet, wordt het al snel "druk".

Reden switch halfweg: je komt dan ruim toe met kabels van 2m, meestal zelfs 1m. Als je je switch helemaal bovenaan of onderaan stopt, heb je voor servers in het andere uiterste kabels van 3m nodig om comfortabel te zitten. Is niet handig.

Als je 2 remote power switches voorziet, zou ik eentje bovenaan, eentje onderaan doen.

Phu
27/03/08, 18:20
EasyNet heef ook nette zalen


Je kom een beetje over als een negatief persoon.. kan aan mij liggen.

als je me niet kent wat probeer je dan te zeggen ?
ik heb er gewerkt en heb er me spullen staan

wat is er precies negatief

Gh0sty
27/03/08, 21:24
Ik zou 1 a 2 U onder openlaten aan de achterkant en aan de voorkant powerbars (a+b feed) zodat je tenminste nog wat kunt pakken als je wat laat vallen :P. Daarna grote zware servers onderop en kleine / lichtere servers boven en bovenaan switches.
APC/ KVM in het midden van het rack :).