PDA

Bekijk Volledige Versie : 84 servers in 1 42U Rack



smurf
31/03/05, 17:29
Was me gisteren opgevallen:

-Kort 1U rackmount met alle aansluitingen vooraan, met uitzondering van de stroom.

Je kan aan elke kant van het rack één server monteren, tot 84 servers in een42U rack

Zie: http://www.ahead-it.be/shop/configure.php?id=310

Die Half Length sumpermicro's zijn tot nu toe onze favoriet geweest, en we hadden al met het idee gespeeld ze met 2 op 1U te stapelen. Niet echt ideaal voor de airflow, maar kom.

Wel enorm handig, je kan je APC en Switch delen op 1U/.

Zouden jullie het aandureven 84 van die cases in 1 Rack te steken?

Je kan denk ik evengoed ovenelementen in je rack steken =) .

Heeft er iemand al ervaring mee?

Aike
31/03/05, 17:33
Je noemt het zelf al; warmte! Dat gaat je waarschijnlijk niet lukken. Voor 42 1U servers in een rack moet je al een hele goeie airco hebben.. voor 84 dus helemaal.

Toch gaat het verhaal dat google wel een dergelijk systeem gebruikt. Ben alleen even de naam kwijt.

XS-24
31/03/05, 17:34
Om nog maar te zwijgen over stroom.

Falc0n
31/03/05, 17:35
als je dit gaat doen moet je er echt even een foto van maken :D.

Jan Van Haaren
31/03/05, 17:42
Origineel geplaatst door Aike
Toch gaat het verhaal dat google wel een dergelijk systeem gebruikt. Ben alleen even de naam kwijt.

In dit (http://www.computer.org/micro/mi2003/m2022.pdf) document wordt 'The Google Cluster Architecture' uit de doeken gedaan. Misschien heb je er iets aan.

TechXP
31/03/05, 18:17
geen 1 april grap ?

Ahead-IT
31/03/05, 18:33
Origineel geplaatst door TechXP
geen 1 april grap ?
Nee ;)

Als je met een degelijke oplossing gaat werken van APC (izm koeling) dan krijg je er wel 84 in een rack.

Verder, een PIV systeem verbruikt onder full load misschien 175 a 200W, met 2 schijven en 4 latjes geheugen.

De koeling van onze servers is optimaal, en alle airflow wordt centraal achteraan uitgeblazen. Als je dus in het rack onderaan, in het midden enkele extra fan's zet is er een goeie kans dat je er een hoog aantal in één rack krijgt, zeker als je weet dat de servers normaal slechts 35 a 40° draaien.

Aike
31/03/05, 19:03
Waar heb je eigenlijk 84 van die apparaten voor nodig?

Cybafish
31/03/05, 19:07
Als je 42 servers in een rack hebt dan is een extra rack huren een schijntje, lijkt me dus niet erg nodig ;)

ProServe
31/03/05, 20:18
Origineel geplaatst door Ahead-IT
Verder, een PIV systeem verbruikt onder full load misschien 175 a 200W, met 2 schijven en 4 latjes geheugen.
[/B]
"Zeg meneer de coloboer, ik wil graag een 19" rack met 73A aan stroom."
Ben erg benieuwd hoe je dat wil koelen, de meeste datacenters zijn gebouwd op 600-800W per m2.

Media
31/03/05, 20:38
Inderdaad Ik zou eerst eens dit "duall sided rack" in actie willen zien :) voordat risicos te nemen om je zeer belangrijke klant een minder "stabiele" oplossing te geven
Als je op een paar euries p/m wilt gaan besparen om nog meer budget te kunnen ....

XS-24
31/03/05, 20:43
Idd, wat kost een rackje tegenwoordig, 200 euro per maand?

justin
31/03/05, 20:58
Origineel geplaatst door ProServe

"Zeg meneer de coloboer, ik wil graag een 19" rack met 73A aan stroom."
Ben erg benieuwd hoe je dat wil koelen, de meeste datacenters zijn gebouwd op 600-800W per m2.
haha die coloboer "Pardon" ^_^

Cybafish
31/03/05, 20:58
Een floorprint kost meer dan dat als je pech hebt ;)

luser
31/03/05, 21:05
IBM Bladecenter:

7U hoog en er passen 14 dualhead blades in.

49HE rack / 7U's = 7 Bladecenters.

14 x 7 = 98 echte dualhead servers.

Een mooiere & betere oplossing maw ;)

Ahead-IT
31/03/05, 21:21
Origineel geplaatst door ProServe

"Zeg meneer de coloboer, ik wil graag een 19" rack met 73A aan stroom."
Ben erg benieuwd hoe je dat wil koelen, de meeste datacenters zijn gebouwd op 600-800W per m2.
Akkoord, zoals ik al zei, het zou een koeloplossing zijn op maat. Maar dat is net hetzelfde bij 42 Dual AMD Opterons, dan kom je er ook niet met een standaard rackkoeling.

Maar er is wel degelijk een markt voor, ik zeg niet dat je heel je rack moet volhangen met deze apparaten, slechts dat het mogelijk is.

Waar een markt voor is, zijn er oplossingen. De servers ter zake verkopen heel goed!

Sander-
31/03/05, 23:16
Ik denk ook zeker dat er bedrijven zijn die hier belang bij hebben... Kijk 200 euro per maand is misschien niet een onoverkomelijk bedrag, maar als we het hebben over zeer grote bedrijven die zeg 840 servers hebben
dan praat je wel over een besparing van 1000 euro per maand door op bovenstaande manier te werken ;) En dan ga jij nog uit van een vrij goedkope coloboer... Als je kwaliteit netwerk wil en je hebt ervaring met het koelen van dit soort oplossingen dan kan je dat een flinke besparing opleveren.

Tuurlijk ga je er dan geen 84 in hangen, want je moet ook nog ergens je APC's routers etc kwijt (lijkt me niet dat je 84 x Lan enzo naar buiten gaat leiden) Maar je kunt er iig een stuk meer in kwijt

luser
01/04/05, 10:26
Eerder neem je dan 60x60 kastjes ipv de 60x100 van tegenwoordig. Zulk geknoei levert op termijn niets op.

Nucleus
02/04/05, 00:01
Origineel geplaatst door Aike


Toch gaat het verhaal dat google wel een dergelijk systeem gebruikt. Ben alleen even de naam kwijt.

Zie: http://www.rackable.com

Aike
02/04/05, 00:26
Origineel geplaatst door Nucleus


Zie: http://www.rackable.com

Die was het ja! Volgens de site gebruiken een heleboel grote namen rackable systemen. Yahoo en Sony oa. Ik heb ze zelf nog nergens gezien.....

Plaatje:
http://www.rackable.com/img/home2_logos.gif

ivs
02/04/05, 11:05
Origineel geplaatst door luser
Eerder neem je dan 60x60 kastjes ipv de 60x100 van tegenwoordig. Zulk geknoei levert op termijn niets op.

Is inderdaad een optie, alleen het nadeel in combinatie met de kast van super-micro is dat de voedings-kabel nog aan de achterkant zit. Dit betekent dus dat je bij de achterkant moet kunnen en dat je daarom toch weer ruimte tussen de kasten moet laten en niet twee kasten op 120cm kan zetten.

Reinier v Eeden
03/04/05, 11:24
80 cobalts in een rack gaat wel hoor, enige probleem is idd het stroomverbruik maar daar zijn altijd wel oplossingen/trucjes voor. Standaard heb je zowiezo al een A en B feed bij een rack (eigenlijk voor redundantie) maar word ook weleens gebruikt voor extra power.

groeten
reinier

Aike
05/04/05, 13:07
Naast warmte-ophoping en simpel weg veel warmte productie is het ontzettend lastig beheren als je nog bij power/UTP kabeltjes wilt kunnen?

Ik denk dat meerdere racks al snel lonen als je toch zo'n investering overweegt. 1U is leuk, maar 0.5 U... dan kan je beter virtualiseren zoals wij dat doen ;)

Ik kan me trouwens afbeeldingen van een Google datacenter herinneren waar ze een stofzuiger aan een rack hadden hangen ;)

alex[nl]
14/04/05, 22:27
@ Aike
Nu 'colo' ik niets, en heb er ook eigenlijk niet zo veel verstand van, maar als A & B de respectievelijk hoofd-stroom/back-up stroom zijn ('eigenlijk voor reduntie'), dan lijkt mij dat je die JUIST NIET gebruikt voor extra stroom. Eerst prop je de hele kast vol, en als dan 1 van de 2 stroom uitvalt is wellicht de helft van je rack offline..

McRox
15/04/05, 01:32
Origineel geplaatst door alex[nl]
@ Aike
Nu 'colo' ik niets, en heb er ook eigenlijk niet zo veel verstand van, maar als A & B de respectievelijk hoofd-stroom/back-up stroom zijn ('eigenlijk voor reduntie'), dan lijkt mij dat je die JUIST NIET gebruikt voor extra stroom. Eerst prop je de hele kast vol, en als dan 1 van de 2 stroom uitvalt is wellicht de helft van je rack offline..

Om dit even te onderstrepen, de 2e redundant feeds kan best achter backup stroom zitten van bijv. 48 uur (ipv diesel generatoren die altijd door kunnen draaien), dus is het zeker niet verstandig deze feed voor niet-redundantie doeleinden te gebruiken ;)

Marijn0
15/04/05, 11:09
Whoo lekker hor :D
je zal t maar hebben :D