PDA

Bekijk Volledige Versie : Stroom in cabinet



wutr
13/02/07, 11:23
Na vele aanbiedingen van complete cabinets (40 tot 47U) voorbij te hebben zien komen hier op WHT en via de aanbieders zelf vraag ik mij af waarom er in hemelsnaam maar maximaal 16A in een cabinet te leveren is. Er kunnen toch extra fases in worden aangebracht zodat er meer power kan worden afgenomen? Het is IMHO verspilling van kostbare ruimte om een dergelijk cabinet niet volledig te kunnen benutten omdat er maar 16A stroom getrokken mag worden... Verder dan 10 servers en een switch gaat het dan niet.

Ik zou graag willen weten waarom er zo weinig stroom beschikbaar is in een rack en wat ongeveer de kosten zijn om méér dan 16A af te nemen.

Thanks alvast :)!

P.S. Het zou natuurlijk ook nog kunnen zijn dat op 16A veel meer servers aan kunnen worden gesloten, maar dan zou je niet op safe spelen als alle servers volledig worden belast (kleine 300W voeding >> 1.3A stroom). Misschien dat jullie aan kunnen geven hoeveel jullie servers maximaal verbruiken.

Paulewk
13/02/07, 11:39
Wat dacht je van 16A stroom verbruiken = 16A warmte produceren.

Extra stroomaanleggen is totaal geen probleem in een rack, extra koeling/airco 'even aanleggen' is onmogelijk.

Verder, dump die oude machines en koop zuinig nieuw spul, dan kan je met 16A een rack makkelijk vol krijgen.

Verder is de voeding van een machine misschien 300W, maar die zal dat maar zelden leveren, dus je berekening die opzich niet vreemd is moet je niet van uit gaan.

wutr
13/02/07, 11:40
Wat dacht je van 16A stroom verbruiken = 16A warmte produceren.

Extra stroomaanleggen is totaal geen probleem in een rack, extra koeling/airco 'even aanleggen' is onmogelijk.

Verder, dump die oude machines en koop zuinig nieuw spul, dan kan je met 16A een rack makkelijk vol krijgen.

Dat was ook al mijn bedoeling, maar 16A >> 40x 1U of 20x 2U server wordt nog lastig, zelfs voor een zuinige opstelling! Althans, dat lijkt mij.

Paulewk
13/02/07, 11:42
Overigens over die vraag van je.

Wij hebben dual core Xeons (LV versie) met 7 HD's welke op 'rustige' momenten 0.5A verbruiken, en onder max belasting ~1A. Let op, rustig is in onze situatie heel erg relatief, wat voor een NNTP doos bij ons rustig is is voor een webserver soms als topdrukte.

Apoc
13/02/07, 11:47
Dat was ook al mijn bedoeling, maar 16A >> 40x 1U of 20x 2U server wordt nog lastig, zelfs voor een zuinige opstelling! Althans, dat lijkt mij.

Waarom denk je dat de meeste racks in de meeste datacentra ook maar halfvol hangen?

Datacentra zijn berekend op een bepaalde hoeveelheid koeling. Elke Watt die je server ingaat, moet ook gekoeld worden. De huidige Nederlandse datacentra zijn niet berekend op meer dan 16A per kast. Dat heeft niets te maken met het niet mogelijk zijn van een tweede fase toevoegen, maar met het feit dat meer simpelweg niet gekoeld kan worden.

Apoc
13/02/07, 11:48
Overigens over die vraag van je.

Wij hebben dual core Xeons (LV versie) met 7 HD's welke op 'rustige' momenten 0.5A verbruiken, en onder max belasting ~1A. Let op, rustig is in onze situatie heel erg relatief, wat voor een NNTP doos bij ons rustig is is voor een webserver soms als topdrukte.

Dat hangt waarschijnlijk vooral af van de harde schijven.

wutr
13/02/07, 11:49
Overigens over die vraag van je.

Wij hebben dual core Xeons (LV versie) met 7 HD's welke op 'rustige' momenten 0.5A verbruiken, en onder max belasting ~1A. Let op, rustig is in onze situatie heel erg relatief, wat voor een NNTP doos bij ons rustig is is voor een webserver soms als topdrukte.

Klopt... maar daar heb je het al: top belasting 1A. Dit is natuurlijk wel met 7hds en energie zuinige cpu's. Stel een webserver heeft 1x een 5100 serie LV en 2 hds, dan zit ie waarschijnlijk max op ~0.7A (van jouw configuratie uitgaande). Dan kan je zo'n 22 bakken in een kast van 40U hangen, + een switch... Is het dan zo erg met die koeling?

Ah ondertussen waren er weer wat reacties bijgekomen, en als Apoc zegt dat een woodcrest geen 1A trekt (het ging ook nog eens de Low Voltage versie, en 7harddisks)...

Paulewk
13/02/07, 12:05
Dat hangt waarschijnlijk vooral af van de harde schijven.

15K SCSI disken. Niet super zuinig dus.

En qua koeling, ja dat is niet 1/2/3 geregeld, omdat je een hele room koelt op een bep belasting per rack, je koelt niet 1 rack apart, als dat zo was was 'r uiteraard geen probleem.

Verder, waarom zou je je rack volstouwen met 1U's? 2U's zijn meestal cheaper in de aankoop, en als je een 2e rack nodig hebt, krijg je daar in veel gevallen oko bandbreedte bij.

Weeg dus de zaken goed af, en richt je niet te veel op 1 situatie.

wutr
13/02/07, 12:11
2U's zijn vaak wel voordeliger en nu snap ik dat het ook uit kan met de ruimte in een cabinet! Denken jullie dat een bak met 1x 5100serie LV en 2 sataII of 2 scsi disks onder de 0.5A kan zitten?

Apoc
13/02/07, 12:44
2U's zijn vaak wel voordeliger en nu snap ik dat het ook uit kan met de ruimte in een cabinet! Denken jullie dat een bak met 1x 5100serie LV en 2 sataII of 2 scsi disks onder de 0.5A kan zitten?

Of 2u's goedkoper zijn, dat hangt er helemaal vanaf welk chassis je het over hebt.

Een enkele 5100 LV met 2 sata zal rond de 0.5-0.6A zitten, met SCSI waarschijnlijk iets meer.

Jacobs.T
13/02/07, 13:11
Ik zou zelfs geen 40 servers in 1 rack willen hangen.
Warmteontwikkeling maakt je machines kapot.
Geef gewoon wat meer geld uit en verdeel je machines over 2 kasten.
Zo heb je tenminste goede koeling en een professionele opstelling die de levensduur van je apparatuur zeker ten goede zullen komen.

wutr
13/02/07, 13:16
Ik zou zelfs geen 40 servers in 1 rack willen hangen.
Warmteontwikkeling maakt je machines kapot.
Geef gewoon wat meer geld uit en verdeel je machines over 2 kasten.
Zo heb je tenminste goede koeling en een professionele opstelling die de levensduur van je apparatuur zeker ten goede zullen komen.

Daar heb je helemaal gelijk in, maar om in één rack maar 10 servers te hangen vind ik pure ruimteverspilling. 20 servers met een goede koeling in het rack is denk ik het maximale wat eruit is te halen.

Apoc
13/02/07, 13:29
Ik zou zelfs geen 40 servers in 1 rack willen hangen.
Warmteontwikkeling maakt je machines kapot.
Geef gewoon wat meer geld uit en verdeel je machines over 2 kasten.
Zo heb je tenminste goede koeling en een professionele opstelling die de levensduur van je apparatuur zeker ten goede zullen komen.

Met goede koeling in de server maakt het echt niet uit of er nu 20 of 40 servers in de kast hangen. Bij een goede opstelling wordt de warme lucht er aan de achterkant van de server uitgeblazen, en deze kan er vervolgens niet meer terug in.

wutr
13/02/07, 13:48
Met goede koeling in de server maakt het echt niet uit of er nu 20 of 40 servers in de kast hangen. Bij een goede opstelling wordt de warme lucht er aan de achterkant van de server uitgeblazen, en deze kan er vervolgens niet meer terug in.

Maarja dan zit je weer met de prijzen om een extra fase in je cabinet te krijgen en wie weet wat dat mag gaan kosten ;)!

Jacobs.T
13/02/07, 14:18
Met goede koeling in de server maakt het echt niet uit of er nu 20 of 40 servers in de kast hangen. Bij een goede opstelling wordt de warme lucht er aan de achterkant van de server uitgeblazen, en deze kan er vervolgens niet meer terug in.

De theorie zegt het zo toch, praktijk is echter heel anders.
Nog nooit seminaries over koeling bijgewoond?
Is gewoon pure logica dat servers die er 1u vrij tussen hebben het een stuk minder warm hebben.

Optimale opstelling vind ik persoonlijk 1u machine, 1u blindeer, 1u, enz...

Paulewk
13/02/07, 14:26
Met goede koeling in de server maakt het echt niet uit of er nu 20 of 40 servers in de kast hangen. Bij een goede opstelling wordt de warme lucht er aan de achterkant van de server uitgeblazen, en deze kan er vervolgens niet meer terug in.

Apoc, het gaat niet om de koeling IN de server, maar de ruimite daarbuiten.

De airco in het DC moet de warmte die jouw servers nog zo perfect de warme gang in voeren wel kunnen afvoeren.

rida
17/02/07, 19:34
heb onlangs de unieke server in elkaar gezet voor mijn managed server: amd geode processor (15 watt!!!) of de mobile intel's (32 watt!) totaal kwam ik uit op 0.26Amp is dus heel erg netjes. van de week de performance even testen.

wutr
17/02/07, 19:41
heb onlangs de unieke server in elkaar gezet voor mijn managed server: amd geode processor (15 watt!!!) of de mobile intel's (32 watt!) totaal kwam ik uit op 0.26Amp is dus heel erg netjes. van de week de performance even testen.

Performance is dat lage verbruik niet waard. Van zo'n server moet je er al een aantal hebben om een dual Xeon 51XX LV qua prestaties te evenaren, en reken maar dat dat uiteindelijk veel meer gaat kosten (stroomverbruik, Units, noem maar op).

Hoe bedoel je trouwens "voor je mananged server"?

WI-Hosting
17/02/07, 20:36
Ik zou zelfs geen 40 servers in 1 rack willen hangen.
Warmteontwikkeling maakt je machines kapot.
Geef gewoon wat meer geld uit en verdeel je machines over 2 kasten.
Zo heb je tenminste goede koeling en een professionele opstelling die de levensduur van je apparatuur zeker ten goede zullen komen.

Toevallig dat je dit vandaag zegt:
http://tweakers.net/nieuws/46382/Google:-hoge-temperatuur-geen-oorzaak-van-harddiskfouten.html

Het gaat dan wel over harddisks.. maar het laat toch zien dat een deel van de "theorie' waarop wij onze aankopen baseren, toch nooit bewezen zijn.

wutr
17/02/07, 20:43
Toevallig dat je dit vandaag zegt:
http://tweakers.net/nieuws/46382/Google:-hoge-temperatuur-geen-oorzaak-van-harddiskfouten.html

Het gaat dan wel over harddisks.. maar het laat toch zien dat een deel van de "theorie' waarop wij onze aankopen baseren, toch nooit bewezen zijn.

Dat heb ik inderdaad ook gelezen eerder vandaag, maar dat gaat alleen over de harddisks. De CPU's moeten ook gekoeld worden, en als de omgevingstemperatuur te hoog is wordt de temperatuur van de core vanzelfsprekend ook hoger en dat kan wél fataal zijn. Waarschijnlijk schakelt het mobo alles dan zelfs uit en dan zit je :) .

Merlijn
17/02/07, 21:55
Extra stroomaanleggen is totaal geen probleem in een rack, extra koeling/airco 'even aanleggen' is onmogelijk.


Extra stroom is in vrijwel alle DC's ook een probleem. Niet zozeer voor 1 rack, maar bij tientallen zal dit ook inhouden dat UPS en NSA's groter moeten worden (naast de genoemde koeling). Daarnaast zit er ook een max. aan het netstroom wat de DC's krijgen. Zeker in Amsterdam e.o. is dat een probleem omdat daar het net nog verouderd is.

thunder
18/02/07, 02:01
mijn box verbruikt 0.3A (normaale belasting voor ons, dit is lichte belasting voor de meeste hier :) )
1U
Pentium D 820
1hdd
2ramlatjes
extra netwerkkaart
300W PSU

wutr
18/02/07, 10:59
mijn box verbruikt 0.3A (normaale belasting voor ons, dit is lichte belasting voor de meeste hier :) )
1U
Pentium D 820
1hdd
2ramlatjes
extra netwerkkaart
300W PSU

Zo'n Pentium D 820 neemt bij volledige load al gauw 130Watt terwijl intel een TDP van 95Watt aan deze CPU heeft gehangen. Uiteraard blijft het energieverbruik bij normaal gebruik wel binnen de perken zoals thunder hier al aangeeft. (0.3A = ~70Watt voor de hele server). Leuke is dat de D820 idle al bijna 50Watt weet te verstoken, dus de rest van de hardware neemt onder lichte belasting slechts 20Watt.

bron: http://www.xbitlabs.com/articles/cpu/display/pentiumd-820_3.html

Ik zal kijken of ik ook een dergelijke test voor de Xeon (5100 serie) en/of Opteron kan vinden.


Zo'n Pentium D 820 neemt bij volledige load al gauw 130Watt terwijl intel een TDP van 95Watt aan deze CPU heeft gehangen. Uiteraard blijft het energieverbruik bij normaal gebruik wel binnen de perken zoals thunder hier al aangeeft. (0.3A = ~70Watt voor de hele server). Leuke is dat de D820 idle al bijna 50Watt weet te verstoken, dus de rest van de hardware neemt onder lichte belasting slechts 20Watt.

bron: http://www.xbitlabs.com/articles/cpu/display/pentiumd-820_3.html

Ik zal kijken of ik ook een dergelijke test voor de Xeon (5100 serie) en/of Opteron kan vinden.

Edit: ik bedenk me nu dat ik niet weet of bovengenoemd verbruik voor het hele systeem geldt of voor de CPU zelf (130W onder full load is ~0.6A). In de betreffende test heb ik de gebruikte meetmethode niet kunnen vinden.

Ijsbox
18/02/07, 19:34
wel grappig trouwens had van de week een verkooppersoon van een DC (zal de naam niet noemen) aan de lijn die me wist te vertellen dat 40A per rack bij hen geen enkel probleem was....

wutr
18/02/07, 19:43
wel grappig trouwens had van de week een verkooppersoon van een DC (zal de naam niet noemen) aan de lijn die me wist te vertellen dat 40A per rack bij hen geen enkel probleem was....

Dan zou ik juist wél graag de naam horen, zou wel eens willen weten of dat een marketingtruc is of een hypermodern DC dat het aankan...

jurrian
18/02/07, 19:47
wel grappig trouwens had van de week een verkooppersoon van een DC (zal de naam niet noemen) aan de lijn die me wist te vertellen dat 40A per rack bij hen geen enkel probleem was....

Kom op, laat ons ook eens mee (uit)lachten! :D

Triloxigen
18/02/07, 19:53
moreDatacenters zeker :p

NWO
18/02/07, 20:35
OF: Uberkoelsystems.nl ? :P

Ik vind het opzich wel een punt hoor voor de dc's om eens te kijken naar de koel / temparatuur kwaliteit. Ik zie zelf in het DC veel mogelijkheden om de airco beter te laten werken en dus meer systemen in 1 kast te zetten..

Eigenlijk moet gewoon de ruimte iedereen dwars zitten, niet de stroom of koeling.

Erwin Zeeuw
18/02/07, 22:32
De nieuwere datacentra kunnen dat inderdaad aan.
GrafixNOC kan uitbreiden tot 36amp per rack uit mijn hoofd (capelle a/d ijssel)


Gr. Erwin

xYnta
18/02/07, 22:58
Na een zoektocht bij verschillende datacentra heb ik er meerdere gevonden welke 32amp en zelf 64amp per rack aankonden. Echter moet je natuurlijk ten alle tijden zoals hier eerder al is gezegd rekening houden met de tempratuur ontwikkeling, des te hoger de tempratuur des te hoger het aantal defecte servers. Gewoon zorgen voor genoeg ruimte tussen je bakken of zorgen dat de airflow in je rack goed in elkaar zit.

phreak
18/02/07, 23:02
De nieuwere datacentra kunnen dat inderdaad aan.
GrafixNOC kan uitbreiden tot 36amp per rack uit mijn hoofd (capelle a/d ijssel)


Gr. Erwin

2 x 16AMP afgezekerd, dus max 12 a 13 amp per feed, wat trouwens ook niet aan te raden is.

ErikKosters
18/02/07, 23:53
Heb hier momenteel @ We Dare ook 16A bij het rack en trek hier met 1 apc 7952, hp procurve, en 2 servers 0.9A.

frankske
19/02/07, 08:21
Toen wij enkele maanden terug begonnen te tekenen en te plannen voor onze eigen ruimte in LCL Diegem, was een hoog stroomverbruik één van de eisen. Onze hoofdzekeringen zijn meer dan zwaar genoeg om een *gemiddeld* verbruik van +/- 28A per rack aan te kunnen (A + B), en lopen genoeg kabels enz. Standaard leveren we 2*16A af (op 16A zekeringen, dus niet aan te raden boven de 12 à 13A te gaan ivm piekbelastingen), maar er zijn 2 extra plugs per footprint voorzien en voorbekabeld zodat we 2*2*16A kunnen leveren. Eens je systematisch boven de 22A gaat, bekijken we wel best even wat we kunnen doen om de koeling optimaal te houden (bv indeling van het rack, eventueel racks met extra koeling (APC, Liebert, IBM, ...).

Mvg,

Frank

ps: ja, er staat ook effectief in ons contract met LCL dat we zoveel stroom mogen verbruiken!

DutchTSE
19/02/07, 11:50
xs4all levert 20 amp bij een rack van 47U mee

xYnta
19/02/07, 11:56
Ik denk trouwens dat als je een rack goed indeeld je gemakkelijk onder de 16 Amp kan blijven, anders heb je wel zeer antieke servers.

frankske
19/02/07, 11:58
Met 1U dells die meer dan 2A trekken (ja, met woodcrest cpus), loopt het nogthans snel op hoor. Heb je er maar een 8-tal van die nodig om je 16A vol te trekken.

Paulewk
19/02/07, 13:22
Na een zoektocht bij verschillende datacentra heb ik er meerdere gevonden welke 32amp en zelf 64amp per rack aankonden. Echter moet je natuurlijk ten alle tijden zoals hier eerder al is gezegd rekening houden met de tempratuur ontwikkeling, des te hoger de tempratuur des te hoger het aantal defecte servers. Gewoon zorgen voor genoeg ruimte tussen je bakken of zorgen dat de airflow in je rack goed in elkaar zit.

Vraagje, gaf het DC ook aan of de ruimte ook echt op 32/64A per rack gebouwd was? Of was het een verkoop praatje? Want iedereen kan meerdere feeds in een rack schroeven, maar is de koeling er ook op gebouwd?

xYnta
19/02/07, 14:27
Vraagje, gaf het DC ook aan of de ruimte ook echt op 32/64A per rack gebouwd was? Of was het een verkoop praatje? Want iedereen kan meerdere feeds in een rack schroeven, maar is de koeling er ook op gebouwd?

De koeling was bij sommige datacentra goed op orde er zaten daar ook al meerdere racks tussen met 14 tot 22 amp., andere dc's hadden het minder goed op orde. De vloer was daar bloedheet. Dat toont natuurlijk ook kwaliteit.

Paulewk
19/02/07, 14:35
De koeling was bij sommige datacentra goed op orde er zaten daar ook al meerdere racks tussen met 14 tot 22 amp., andere dc's hadden het minder goed op orde. De vloer was daar bloedheet. Dat toont natuurlijk ook kwaliteit.

Ah ok, je hebt 't dus zelf mogen ondervinden. Dat wilde ik dus ffies weten, niet dat 1 of andere saleskip zegt 'ja het kan'

Jacobs.T
19/02/07, 15:51
Dat heb ik inderdaad ook gelezen eerder vandaag, maar dat gaat alleen over de harddisks. De CPU's moeten ook gekoeld worden, en als de omgevingstemperatuur te hoog is wordt de temperatuur van de core vanzelfsprekend ook hoger en dat kan wél fataal zijn. Waarschijnlijk schakelt het mobo alles dan zelfs uit en dan zit je :) .

Zo was/is ook mijn redenering.
Heb enkele maanden een interessant seminarie van Rittal bijgewoond.
Indien sommige mensen dit wensen bezorg ik ze wel even wat slides met uitleg omtrent rackkoeling. (Ga ze wel moeten opzoeken)

frankske
19/02/07, 16:18
Als je ze hebt, mail maar: frank@openminds.be. Ik heb hier verschillende dingen liggen, maar Rittal ontbreekt nog.

Jacobs.T
20/02/07, 16:10
Geen probleem Frank(ske).
Ik zal daar één dezer eens werk van maken.

alfa_44
21/02/07, 12:55
Rittal heeft rittal therm om de warmte en dus de koel capaciteit uit te rekenen.

http://www.rittal.nl/index.php/id_structuur/6152/therm_512.html

WI-Hosting
21/02/07, 13:26
Geen probleem Frank(ske).
Ik zal daar één dezer eens werk van maken.

Als je ze even online gooit, kunnen we er allemaal van genieten.
Lijkt me best leuk om even in te zien. (En zo krijgen we geen volle thread met: Ja, ook voor mij aub!)

thunder
23/02/07, 02:01
Zo was/is ook mijn redenering.
Heb enkele maanden een interessant seminarie van Rittal bijgewoond.
Indien sommige mensen dit wensen bezorg ik ze wel even wat slides met uitleg omtrent rackkoeling. (Ga ze wel moeten opzoeken)

kan je mij ook een copytje bezorgen?