PDA

Bekijk Volledige Versie : Eurofiber bouwt eigen datacenter



Ijsbox
17/01/12, 18:07
Geen idee of dit al was langs gekomen, maar net zitten praten met iemand van eurofiber die vertelde dat ze medio maart een eerste eigen datacentrum gaan openen in Utrecht.

Domenico
17/01/12, 18:14
Ja was al bekend.

Utrecht, 15 september 2011 –Eurofiber is gestart met de bouw van een datacenter in de regio Utrecht. Het datacenter is het eerste in Utrecht. Het nieuwe datacenter biedt organisaties niet alleen veilig onderdak aan hun bedrijfssystemen en gegevens, maar ook aansluiting op het landelijk dekkende glasvezelnetwerk van Eurofiber. (http://www.eurofiber.nl/2011/09/eurofiber-start-bouw-datacenter-regio-utrecht/
)

IceHosting
17/01/12, 18:23
Ik heb inmiddels hier ook het eerste specificatie documentje binnen gekregen :)

Rubra
18/01/12, 12:11
Ik heb inmiddels hier ook het eerste specificatie documentje binnen gekregen :)

Kan je die even online zetten ergens ? Die wil ik ook wel even lezen..

dreamhost_nl
18/01/12, 12:35
Is toch niet zo moeilijk te vinden :

http://www.eurofiber.nl/wp-content/uploads/downloads/2011/09/datacenter-Utrecht_web-DEF.pdf

Robert Esseveld
18/01/12, 12:54
Nice:) Als de prijzen nou ook nog goed te doen worden, is het zeker interessant. Er is veel te weinig keus in de omgeving van Utrecht..

The-BosS
18/01/12, 15:09
In dat document staat er 16A of 32A, ik vindt dat voor een nieuw modern datacenter eigenlijk een gemiste kans. Je zou van nieuwe datacenters op zijn minst toch mogen verwachten dat ze high density aan kunnen (64A, 128A per rack).

IceHosting
18/01/12, 15:11
Is toch niet zo moeilijk te vinden :

http://www.eurofiber.nl/wp-content/uploads/downloads/2011/09/datacenter-Utrecht_web-DEF.pdf

Dat is hem inderdaad.


Nice:) Als de prijzen nou ook nog goed te doen worden, is het zeker interessant. Er is veel te weinig keus in de omgeving van Utrecht..

Mee eens, alhoewel ze wel een flinke monopoly kunnen voeren omdat ze ook alle netwerkverbindingen kunnen leveren. Ik vraag mij dan ook af hoe ze met andere internet/fiber aanbieders omgaan in hun datacenter.

Yourwebhoster
18/01/12, 16:04
Dat is hem inderdaad.



Mee eens, alhoewel ze wel een flinke monopoly kunnen voeren omdat ze ook alle netwerkverbindingen kunnen leveren. Ik vraag mij dan ook af hoe ze met andere internet/fiber aanbieders omgaan in hun datacenter.


Vrije keuze verbindingen
Gebruikers van het regionale datacenter zijn niet gebonden om voor het ontsluiten van hun systemen in het datacenter verbindingen van Eurofiber af te nemen. Ook hier biedt het bedrijf zijn klanten keuzevrijheid, net zoals bij zijn glasvezelnetwerk dat open is voor alle protocollen, diensten en providers.

Als ik het goed begrijp zou het geen probleem moeten zijn, hoewel ze onder verbindingen ook uplinks naar het internet kunnen verstaan.

Ijsbox
18/01/12, 16:08
In dat document staat er 16A of 32A, ik vindt dat voor een nieuw modern datacenter eigenlijk een gemiste kans. Je zou van nieuwe datacenters op zijn minst toch mogen verwachten dat ze high density aan kunnen (64A, 128A per rack).

Ze werken met een modulaire bouw, dit zijn de waardes voor de eerste module als die te laag blijken te zijn kunnen ze voor de volgende module hogere waardes incalculeren. Maar ik denk dat er genoeg partijen zijn die met 8kW per rack uit de voeten kunnen aangezien je met 100W al een aardige 1U server kunt voeden.


Mee eens, alhoewel ze wel een flinke monopoly kunnen voeren omdat ze ook alle netwerkverbindingen kunnen leveren. Ik vraag mij dan ook af hoe ze met andere internet/fiber aanbieders omgaan in hun datacenter.

Wat ik hoorde is dat er meerdere fiber aanbieders binnenkomen en dat er zowieso keuze uit internet aanbieders is omdat eurofiber dat zelf niet levert.

Paulewk
18/01/12, 16:14
In dat document staat er 16A of 32A, ik vindt dat voor een nieuw modern datacenter eigenlijk een gemiste kans. Je zou van nieuwe datacenters op zijn minst toch mogen verwachten dat ze high density aan kunnen (64A, 128A per rack).

16A of 32A per rack betekend niet persee dat een datacenter niet meer kan leveren, het betekend vaak dat ze dat gemiddeld per rack in ruimte X kunnen leveren, meer is vaak prima mogelijk, dan moeten er alleen wel andere rack posities leeg gelaten worden.

Verder denk ik dat de vraag naar 64A of 128A per rack minimaal is, misschien een paar enterprise klanten. Je moet je uiteindelijk ook afvragen, hoe 'afhankelijk' wil ik zijn van 1 rack.

Yourwebhoster
18/01/12, 16:14
Wat ik hoorde is dat er meerdere fiber aanbieders binnenkomen en dat er zowieso keuze uit internet aanbieders is omdat eurofiber dat zelf niet levert.
Ik dacht dat eurofiber wel internet zelf kan leveren?

Yourwebhoster
18/01/12, 16:21
16A of 32A per rack betekend niet persee dat een datacenter niet meer kan leveren, het betekend vaak dat ze dat gemiddeld per rack in ruimte X kunnen leveren, meer is vaak prima mogelijk, dan moeten er alleen wel andere rack posities leeg gelaten worden.

Verder denk ik dat de vraag naar 64A of 128A per rack minimaal is, misschien een paar enterprise klanten. Je moet je uiteindelijk ook afvragen, hoe 'afhankelijk' wil ik zijn van 1 rack.
Ik vind het inderdaad niet vreemd, 16 tot 32A is gangbaar en andere gevallen kunnen extra vermogen krijgen tegen meerprijs vaak. Andere racks laten ze dan leeg er naast ivm het vermogen van de koeling. Anders moet je onnodig investeren in een hoger vermogen koeling die in de praktijk niet gebruikt is. Je ziet dit vaker voorkomen bij oudere data centers die maar 10A kunnen leveren, wil je meer (20A bijvb) dan moet je bijbetalen (afhankelijk van je aanbieder liggen deze kosten net zo hoog als een extra rack nemen).

The-BosS
18/01/12, 18:11
Hoe je het ook draait of keert, als je rackspace/floorprint moet vrij laten om 32A te kunnen leveren kun je eigenlijk dus geen 32A leveren en is het geen high-density. En ja servers verbruiken niet veel stroom meer, maar ze worden ook altijd maar kleiner (meer servers in blades bvb). En om nu 1/4 rack te vullen en de rest leeg te laten omdat je niet meer genoeg stroom zou hebben is ook zonde. Ik heb een volledig rack dat met moeite 9A trekt, maar ik heb hier ook een 10U bladechassis die 10A zuipt, je zou dus 4 van die bladechassis in een rack kunnen hangen. Maar dan moet je wel al minimaal 40A per rack kunnen halen en om je cage/room/datacenter nu bvb maar 1/4 te vullen (en 3/4 leeg te laten) lijkt me in zo een geval echt zonde. Ik zeg ook niet dat ze het volledige datacenter high-density moeten uitvoeren, maar een room zou toch moeten kunnen.

Wido
18/01/12, 23:11
In dat document staat er 16A of 32A, ik vindt dat voor een nieuw modern datacenter eigenlijk een gemiste kans. Je zou van nieuwe datacenters op zijn minst toch mogen verwachten dat ze high density aan kunnen (64A, 128A per rack).Enig idee hoe duur het koper is?

Voor 32A is 6mm2 naar je racks voldoende, voor 64A heb je al 10mm2 nodig, laat staan 128A! Welke stekkers wou je ook gebruiken voor 64(63)A of 128A? Zoiets kan je niet zo maar veilig aanleggen en mensen mee laten knutselen.

Een DC volledig 32A uitvoeren is denk ik niet 2x zo duur, maar wellicht wel 3 tot 4x zo duur.

Daarnaast kijk je vaak naar een gemiddelde per rack. Wij hebben een suite met 90 racks waar we X ampere mogen doen. We kunnen zelf (tot 32A) bepalen wat we in welk rack verbruiken.

WebMeso
18/01/12, 23:16
128A per rack. Overkill?! Hardware zou juist steeds energiebesparender en efficiënter moeten worden. 32A is al aardig wat, laat staan 64A, maar 128A is ziek. Voor klanten die dat willen, kan je gewoon een custom solution opzetten.

drex
19/01/12, 00:29
is er iemand die dat gebruikt >>128A per rack? Dat zal toch niet waar zijn.

visser
19/01/12, 00:38
128A per rack. Overkill?! Hardware zou juist steeds energiebesparender en efficiënter moeten worden. 32A is al aardig wat, laat staan 64A, maar 128A is ziek. Voor klanten die dat willen, kan je gewoon een custom solution opzetten.

Het ging me richting bullshit, zo'n vermogensdichtheid.
Met 128A @230V is dat ongeveer 30KW .
(het is het vermogen van een huis model CV ketel, bijvoorbeeld).
Als ik even lees op fora is een serieus bruikbare wokbrander 5-9 KW, en alleen een buitenmodel met extra brander ringen is dan maximaal 24KW.
Je moet je dus een aantal wokbranders voorstellen in die ene kast.

Mijn natte (ha ) vinger zegt , stevige waterkoeling, want ik betwijfel of je genoeg luchtvolume erdoor kunt blazen om zo'n vermogen af te voeren.

Met wat zoekwerk vond ik dan dat de hele kast vullen met half-hoge blade servers inderdaad richting de 28-30KW vermogen gaat , en dat waterkoeling dan inderdaad gebruikt wordt.
(bv http://h20000.www2.hp.com/bc/docs/support/SupportManual/c00600082/c00600082.pdf )

Paulewk
19/01/12, 10:02
Mijn natte (ha ) vinger zegt , stevige waterkoeling, want ik betwijfel of je genoeg luchtvolume erdoor kunt blazen om zo'n vermogen af te voeren.

Met wat zoekwerk vond ik dan dat de hele kast vullen met half-hoge blade servers inderdaad richting de 28-30KW vermogen gaat , en dat waterkoeling dan inderdaad gebruikt wordt.
(bv http://h20000.www2.hp.com/bc/docs/support/SupportManual/c00600082/c00600082.pdf )

En dan gebeurd er X waardoor dat hele rack eruit klapt en ben je je hele rack vol met bladeservers kwijt aan capaciteit.... :)

visser
20/01/12, 21:46
En dan gebeurd er X waardoor dat hele rack eruit klapt en ben je je hele rack vol met bladeservers kwijt aan capaciteit.... :)

Ja, ik kan ook niet zo veel goede redenen bedenken voor een dergelijke dichtheid. Normaal gesproken, binnen redelijke verhoudingen, is stroom/koel capaciteit eerder limiterend (cq kostenbepalend) dan fysieke ruimte.
Oftewel, ik zie niet zo gauw dat een DC wel 128A/rack kan doen maar in vloercapaciteit beperkt is.

In dat geval zou je zo'n servercapaciteit toch wat ruimer verdelen zodat je met meer normale (koel/voeding) techniek uit de voeten kunt en gewoon letterlijk en figuurlijk meer ruimte hebt.

Ik kan maar één technisch argument verzinnen waarbij het ook voordeel heeft om de componenten zo dicht mogelijk bij elkaar te brengen, en dat is bij HPC ('supercomputers') met een ultra low-latency interconnect.
De lichtsnelheid (in glas/koper/printbaan) is ca 200,000 KM/sec, oftewel 20 centimeter per nanoseconde. (nano = 10^-9).
[ één periode van een 1 Ghz signaal is dus ook een nanoseconde ]

Bij deze snelheden is de kast-kast afstand, (en een pad door elektrische of optische drivers die over 'wat' langere afstand werken) wel significant vergeleken met backplane connecties over bijvoorbeeld maximaal 10U .

Wat ik zo niet weet is de 'gewone' hoge dichtheid blade centers een dergelijke low-latency interconnect inderdaad hebben, of dat het zich naar een blade (en OS) toe allemaal als 'gewoon' GigE (of 10GE) presenteert.
Als het 'gewoon ethernet' kan een intra row switch hop er ook nog wel bij denk ik zo.
(hoewel er blijkbaar voldoende marktvraag is naar lowest latency ethernet dat een Cisco Nexus (weer) 'cut through switching' doet als het kan, en niet 'store and forward'.
[cut through switching : beginnen met het frame uit te sturen als de destination mac gezien is]

Ijsbox
29/03/12, 10:38
Van de week ben ik wezen kijken in het eurofiber datacenter in Utrecht en het is bijna af. Wat opviel was de vele biometrie en een erg hoge raised floor (1,25 meter).

Wat ik hoorde is dat naast het netwerk van Eurofiber ook de netwerken van KPN en ReliNed er binnenkomen.

redbeenl
29/03/12, 13:48
Als ik even lees op fora is een serieus bruikbare wokbrander 5-9 KW, en alleen een buitenmodel met extra brander ringen is dan maximaal 24KW.
Je moet je dus een aantal wokbranders voorstellen in die ene kast.


Ik zie het rek al wegsmelten onder die hitte, en de mooie opstelling met blade chassis als een kaartenhuis in elkaar storten ;)

visser
29/03/12, 14:33
Ik zie het rek al wegsmelten onder die hitte, en de mooie opstelling met blade chassis als een kaartenhuis in elkaar storten ;)

Als de koeling wegvalt moet je ook wel snel stoppen met de warmte productie, anders gaat het hard mis inderdaad.
Ik had de wokbrander specs even opgezocht om een gevoel te geven hoe veel 30KW vermogen verstoken in een 19" kast wel niet is.
Letterlijk inzakken als een druipkaars zal niet lukken, maar goed kapot wil wel ;-)

CT0
29/03/12, 18:06
Als de koeling uitvalt gaan hooguit je servers down, en niet meteen kapot lijkt me.

visser
29/03/12, 22:22
Als de koeling uitvalt gaan hooguit je servers down, en niet meteen kapot lijkt me.

Als het apparatuur is die ingesteld kan worden om zich bij oververhitting uit te schakelen, en daarvoor ook ingesteld staat, kunnen ze wel wat overleven.
(de opslag temperatuur die hardware aan kan is een stuk hoger dan de maximale omgevingstemperatuur-bij-bedrijf).
Dat is niet altijd het geval : http://tweakers.net/nieuws/63364/oververhitting-easynet-datacenter-leidt-tot-schade-klanten.html

thomas_l
30/03/12, 02:07
De grootste kosten van een datacenter zitten voornamelijk in het bieden van het vermogen (stroomvoorziening en koeling). De kosten voor de racks en ruimte zijn in dat opzicht vrij klein.

Iedereen wil 32 Amp rack in plaats van 16 Amp, maar wil daar niet echt meer voor betalen.
Dus laat staan dat men meer weel betalen voor 64Amp en 128Amp.

Het is daarom niet slecht om 16Amp en 32Amp te bieden, aangezien 64Amp en 128Amp een hele kleine niche is.

Apoc
30/03/12, 13:36
Enig idee hoe duur het koper is?

Voor 32A is 6mm2 naar je racks voldoende, voor 64A heb je al 10mm2 nodig, laat staan 128A! Welke stekkers wou je ook gebruiken voor 64(63)A of 128A? Zoiets kan je niet zo maar veilig aanleggen en mensen mee laten knutselen.

Je kan ook gewoon meerdere 32A feeds leveren.

Wij hebben momenteel ook een lead lopen voor een klant die per se 96A (zo'n 20kW) in een rack wil kunnen gebruiken. Stroomaanvoer is het punt niet zo, maar de koeling moet er uiteraard wel op afgestemd worden.

Wat velen in dit topic over het hoofd lijken te zien, is dat een rack met zo veel stroomcapaciteit, dit niet continu zal verbruiken. Het gaat de klanten meestal erom dat ALS al hun apparatuur tegelijkertijd 100% load draaien, het stroomverbruik opgevangen moet kunnen worden. In de praktijk zal van zo'n situatie vrijwel nooit sprake zijn, het gaat er enkel om dat de boel er niet uit klapt wanneer die theoretische situatie voor zou komen. In de praktijk zal 99% van de tijd amper de helft van de capaciteit gebruikt worden.

Overigens is 96-128Amp helemaal niet heel bijzonder te noemen, als je bijvoorbeeld kijkt naar de Dell Viking servers (12 servers met 4 schijven per stuk in 3U). Je hebt het dan dus over 180 servers (met 720 schijven) in 1 rack. En zo zijn er nog wel wat andere voorbeelden te noemen.

Het punt is wel dat het uiteindelijk qua kosten niet echt een besparing oplevert. Een rack met 96Amp aan feeds kost zeker 3 keer zo veel als een rack met 32Amp aan feeds, en de servers zijn duurder. Mogelijk dat het wel nut heeft als je een hele eigen ruimte bouwt en die helemaal volstampt met dit soort servertjes.

Hoe dan ook; we raken aardig off-topic zo. Wellicht is het beter om dit topic te splitsen?

visser
31/03/12, 02:02
Je kan ook gewoon meerdere 32A feeds leveren.

Wij hebben momenteel ook een lead lopen voor een klant die per se 96A (zo'n 20kW) in een rack wil kunnen gebruiken. Stroomaanvoer is het punt niet zo, maar de koeling moet er uiteraard wel op afgestemd worden.

Wat velen in dit topic over het hoofd lijken te zien, is dat een rack met zo veel stroomcapaciteit, dit niet continu zal verbruiken. Het gaat de klanten meestal erom dat ALS al hun apparatuur tegelijkertijd 100% load draaien, het stroomverbruik opgevangen moet kunnen worden. In de praktijk zal van zo'n situatie vrijwel nooit sprake zijn, het gaat er enkel om dat de boel er niet uit klapt wanneer die theoretische situatie voor zou komen. In de praktijk zal 99% van de tijd amper de helft van de capaciteit gebruikt worden.


Dat kan wel zo zijn, maar maakt dat uit voor de infrastructuur ? Je zult net als de stroom toch je koelcapaciteit op piekgebruik moeten schalen. Minimaal de capaciteit om de warmte uit het rack te trekken zul je onder de worst case belasting moeten dimensioneren.
Ik weet eigenlijk niet of koelvermogen op zaal of gebouw niveau wel overboekt wordt, onder de aanname dat als je naar genoeg racks kijkt de warmte productie op een gemiddelde uitkomt en niet alle pieken samenvallen.

Apoc
04/04/12, 15:39
Dat kan wel zo zijn, maar maakt dat uit voor de infrastructuur ? Je zult net als de stroom toch je koelcapaciteit op piekgebruik moeten schalen. Minimaal de capaciteit om de warmte uit het rack te trekken zul je onder de worst case belasting moeten dimensioneren.
Ik weet eigenlijk niet of koelvermogen op zaal of gebouw niveau wel overboekt wordt, onder de aanname dat als je naar genoeg racks kijkt de warmte productie op een gemiddelde uitkomt en niet alle pieken samenvallen.

Ik heb geen woord gerept over infrastructuur (buiten het feit dat ik juist zei dat de koeling er op afgestemd moet worden). Ik reageerde enkel op de stelling dat er geen behoefte aan zo veel stroom zou zijn.

Vanderblom
07/04/12, 00:02
Van de week ben ik wezen kijken in het eurofiber datacenter in Utrecht en het is bijna af. Wat opviel was de vele biometrie en een erg hoge raised floor (1,25 meter).

Wat ik hoorde is dat naast het netwerk van Eurofiber ook de netwerken van KPN en ReliNed er binnenkomen.

Waar zitten ze precies in Utrecht ? Volgens mij wordt er erg geheim over gedaan.

visser
07/04/12, 13:44
Waar zitten ze precies in Utrecht ? Volgens mij wordt er erg geheim over gedaan.

Met wat google werk kom uit op de Koningin Wilhelminaweg 471 in Groenekan.
(gemeente de Bilt, langs de spoorlijn Utrecht (Overvecht)- Hollandsche Rading - Hilversum en de A27)
Groenekan ligt tussen Overvecht en Hollandse Rading.

(http://www.nieuwsover.nl/debilt/index.php?option=com_content&view=article&id=2260:bezwaar-tegen-overlast-nieuw-datacentrum-groenekan&catid=165:2011-september&Itemid=55 )

joriz
08/04/12, 19:59
Apart dat ze het datacenter hier willen bouwen. Dit is echt een klein dorp bij Utrecht waar niets is.

Waarom bouwen ze het niet op bedrijventerein Papendorp. Hier ligt al glasvezel genoeg en hier zijn al vele bedrijven in de ICT branche die mogelijk ook al klant bij hun zijn.

visser
08/04/12, 21:26
Apart dat ze het datacenter hier willen bouwen. Dit is echt een klein dorp bij Utrecht waar niets is.

Waarom bouwen ze het niet op bedrijventerein Papendorp. Hier ligt al glasvezel genoeg en hier zijn al vele bedrijven in de ICT branche die mogelijk ook al klant bij hun zijn.

Misschien is dat het antwoord ( [niet] bouwen); Op de gekozen locatie is het pand gehuurd .
(meer google: http://www.deboorder.nl/eng/newsitem.php?news=58&PHPSESSID=9875f0fb39f7bbf3276aa5c1ab519b6b )

Ik heb geen idee hoe het kostenplaatje ligt (een DC is natuurlijk een nogal speciale toepassing, dus in een bestaand pand zal nog steeds heel veel veranderd moeten worden), of de tijdslijnen. Aan de andere kant,kijkend naar het bouwproject van TDC bij Delft kan nieuwbouw best snel gaan.
Misschien vergunningen of financiering hiervoor beter uitkwamen.

Glasvezel lijkt me niet zo'n probleem; Eurofiber _is_ al een vezelboer, en langs die lijn Utrecht-Hilversum zal ook wel het nodige in de grond liggen.

Ijsbox
09/04/12, 13:23
Waarom bouwen ze het niet op bedrijventerein Papendorp. Hier ligt al glasvezel genoeg en hier zijn al vele bedrijven in de ICT branche die mogelijk ook al klant bij hun zijn.

Als je kijkt op de netwerkkaart van Eurofiber (http://www.eurofiber.nl/producten/netwerk/network-map/) zie je dat op de locatie van het DC al meerdere routes van hun eigen netwerk lopen, tel daarbij op dat onder de spoorlijn naast het gebouw relined loopt en onder de straat KPN dan denk ik dat ze genoeg ducts in de buurt hebben om flink wat data te handlen.

Ijsbox
11/04/12, 14:46
16 mei is er een kans voor ICT ondernemers uit Midden-Nederland om het datacenter te bekijken, zie deze link (http://www.skillcity.nl/Activiteiten/Agenda/Bezoek_nieuwe_Eurofiber_Datacenter_Utrecht_en_...)

dennis0162
18/04/12, 11:17
Zojuist een foto voorbij zien komen op Twitter van het datacenter aan de buitenkant.

10183