PDA

Bekijk Volledige Versie : Interconnect bouwt opnieuw innovatief datacenter



Interconnect
04/11/10, 14:16
PERSBERICHT

’s-Hertogenbosch, 4 november 2010
Interconnect bouwt opnieuw innovatief datacenter

ISP Interconnect uit ‘s-Hertogenbosch heeft bekend gemaakt binnenkort te starten met de bouw van een tweede datacenter. Interconnect combineert het waarborgen van up-time met optimale efficiëntie om een gemiddelde PUE van 1,15 te realiseren. Hiermee verhoogt Interconnect opnieuw de lat voor professionele datacenters. De nieuwe vestiging wordt gebouwd op het Park Forum in Eindhoven, nabij Eindhoven Airport. Medio 2011 moeten de deuren van het datacenter open gaan.

Net zoals bij de bouw van het datacenter in ’s-Hertogenbosch maakt Interconnect slim gebruik van innovatieve technologieën. Redundantie en de eis voor zekerheid worden gecombineerd met efficiënt gebruik van energie. Door de hoge mate van zekerheid die het datacenter biedt wordt het datacenter geclassificeerd als Tier 3+ datacenter, het hoogst haalbare in Nederland. Het datacenter zal onder normale omstandigheden een ongekend lage PUE waarde halen van 1,1.

Interconnect bouwt het nieuwe datacenter om aan de toenemende vraag naar colocatie te voldoen. In 2006 opende Interconnect haar datacenter in ’s-Hertogenbosch. Dit was destijds het eerste commerciële datacenter dat koeling leverde volgens het Cold Corridor principe. Tegenwoordig is deze methode de standaard voor effectieve koeling in datacenters. Sindsdien is het bedrijf sterk gegroeid en daarnaast neemt de vraag naar colocatie op 2 locaties toe.

Het datacenter biedt in totaal bijna 6000 vierkante meter serverruimte, waarin plek is voor ruim 2000 racks. Het datacenter is opgedeeld in modules van 325 vierkante meter. Deze modulaire opbouw verhoogt de brandveiligheid en de draagkracht van het datacenter. Het pand is tevens voorzien van een automatisch blussysteem.

Koeling is een cruciaal onderdeel van ieder datacenter. In het nieuwe datacenter zal een nieuwe vorm van Direct Free Cooling worden toegepast. Deze zorgt ervoor dat het datacenter 97% van de tijd grotendeels met buitenlucht gekoeld wordt. Het Cold Corridor principe blijft gehanteerd. Actieve koeling zal slechts beperkt ingezet hoeven worden, en ook hier wordt gestreefd naar een optimaal rendement. Door de inzet van meerdere koelmachines wordt het verbruik per machine lager. Zo wordt een gemiddelde PUE van 1,15 verwacht met behoud van 2n+1 redundantie.

De serverruimtes worden voorzien van stroom via 3 gescheiden feeds. De 2 hoofd-feeds worden elk voorzien van een UPS en noodstroomaggregaat. De derde feed fungeert als common bypass. Tijdens onderhoud wordt de derde feed aangesloten op een aggregaat. Zo blijft de 2N redundantie te allen tijde in stand.

In het datacenter zullen 2 meet me rooms gebouwd worden. Hierdoor kunnen carriers eenvoudig hun netwerk aansluiten op het datacenter. De vestigingen van Interconnect worden op elkaar aangesloten met twee dark fiber verbindingen. Ook het interne netwerk wordt volledig redundant en via gescheiden paden bekabeld. Zo wordt van begin tot eind ieder single point of failure geëlimineerd.

Door alle voorzieningen die het datacenter biedt kunnen bedrijven zeker zijn van een goede bereikbaarheid van hun apparatuur. De ruimte wordt ook ingezet voor de eigen hosting diensten van Interconnect. Door het gebruik van 2 locaties wordt up-time nog verder gewaarborgd.

Volg de bouw van het nieuwe datacenter op: www.hetbestedatacenter.nl

Over Interconnect:

Interconnect is een internet service provider voor de zakelijke markt. Met een uitgebreid aanbod van hosting-, breedband- en datacenterdiensten helpen wij ICT-professionals bij het opzetten van betrouwbare automatiseringsoplossingen. Zekerheid en bereikbaarheid staan centraal. Zo zorgen wij ervoor dat onze relaties zich kunnen richten op hun kernactiviteiten.

hostingpower
04/11/10, 16:05
Gefeliciteerd, ze komen als paddenstoelen uit de grond tegenwoordig.

Moet het trouwens niet zijn:
"’s-Hertogenbosch, 4 november 2010" i.p.v. "’s-Hertogenbosch, 4 november 2011"?

Triloxigen
04/11/10, 16:12
maakt Interconnect slim gebruik van innovatieve technologieën

Maar verder zie ik er niks over terugkomen in het persbericht, wat voor innovatie is er dan?

Interconnect
04/11/10, 16:50
Gefeliciteerd, ze komen als paddenstoelen uit de grond tegenwoordig.

Moet het trouwens niet zijn:
"’s-Hertogenbosch, 4 november 2010" i.p.v. "’s-Hertogenbosch, 4 november 2011"?

Dank voor de felicitaties. Het moet inderdaad 4 november 2010 zijn. Foutje..

RichardVD
04/11/10, 16:53
Gefeliciteerd!

Het lijkt wel dat al die nieuwe datacenters flinke subsidies krijgen als ze efficiënt omgaan met energie.

Paulewk
04/11/10, 16:54
Hoe denken jullie 97% free cooling te halen met de huidige zomerse temperaturen in Nederland? Is dat niet extreem optimistisch? Of word het DC gerunt met een inlet temp van 30 graden?

Interconnect
04/11/10, 17:05
Maar verder zie ik er niks over terugkomen in het persbericht, wat voor innovatie is er dan?

Dag Triloxigen,

Voor het datacenter worden de nieuwste technieken toegepast zoals bijvoorbeeld Direct Free Cooling² van Stulz.



Daarin zijn we niet uniek, maar we hebben deze techniek verder geoptimaliseerd zodat we langer met buitenlucht kunnen koelen en we de weerstand van luchtstromen in het datacenter tot een minimum kunnen beperken. Wat ook vrij uniek is, is dat we met 5 koelmachines in de zaal werken, terwijl het ook met twee zou kunnen. De overige machines gelden niet alleen als backup, maar door op een lagere capaciteit te werken, verbruiken ze minder energie.

Door slimme bouwconstructies (qua grootte van de verdiepingen, zalen, waterleidingen, stroomrails etc.) gaat minder energie verloren door transport en weerstand.

Ik kan er op dit moment niet alles over vertellen, maar ik hoop dat ik je vraag hier (gedeeltelijk) heb beantwoord.

Interconnect
04/11/10, 17:15
Hoe denken jullie 97% free cooling te halen met de huidige zomerse temperaturen in Nederland? Is dat niet extreem optimistisch? Of word het DC gerunt met een inlet temp van 30 graden?

Beste Paulewk,

Een goede en logische vraag. Wij kunnen (deels) met buitenlucht blijven koelen tot 30 graden Celsius, zonder dat de temperatuur oploopt in het datacenter. Alle scenario's zijn nagelopen en berekend dus de schatting van 97% free cooling is niet extreem optimistisch.

Gemiddeld is het in Nederland niet vaak boven de 30 graden. Bovendien, een dag duurt natuurlijk 24 uur, maar de temperatuur boven de 30 graden houdt zelden zo lang aan.

Clanhost
04/11/10, 17:21
Het lijkt wel dat al die nieuwe datacenters flinke subsidies krijgen als ze efficiënt omgaan met energie.

Subsidies voor bedrijven die datacenters bouwen? Lijkt me sterk, heb je wat meer informatie hierover?

RichardVD
04/11/10, 17:27
Subsidies voor bedrijven die datacenters bouwen? Lijkt me sterk, heb je wat meer informatie hierover?

Niet specifiek voor datacenters maar wel voor bedrijven die investeren in energie besparen. Ik ben totaal niet op de hoogte hoe het verder werkt maar antwoordvoorbedrijven.nl en de andere websites van de overheid is vast meer op te vinden.

Paulewk
04/11/10, 17:27
Beste Paulewk,

Een goede en logische vraag. Wij kunnen (deels) met buitenlucht blijven koelen tot 30 graden Celsius, zonder dat de temperatuur oploopt in het datacenter. Alle scenario's zijn nagelopen en berekend dus de schatting van 97% free cooling is niet extreem optimistisch.

Gemiddeld is het in Nederland niet vaak boven de 30 graden. Bovendien, een dag duurt natuurlijk 24 uur, maar de temperatuur boven de 30 graden houdt zelden zo lang aan.

30 graden was een voorbeeldje. Maar hoe hoog is de standaard inlet temperatuur in jullie DC dan?

Interconnect
04/11/10, 17:35
30 graden was een voorbeeldje. Maar hoe hoog is de standaard inlet temperatuur in jullie DC dan?

Ons datacenter kent een modulaire bouw. Na de eerste bouwfase beschikken we over 9 modules van 325m². De standaard inlaat temperatuur zal 21 graden zijn, maar dit kunnen we per zaal bepalen. Mochten klanten een andere temperatuur in de zaal willen is dat eenvoudig in te stellen.

Phu
04/11/10, 19:19
Subsidies voor bedrijven die datacenters bouwen? Lijkt me sterk, heb je wat meer informatie hierover?

Bij mijn vorige werkgever hadden ze inhouse een DC gebouwd en hadden hier subsidie kregen omdat ze innovatieve methodes gebruikten dmv waterkoeling.

Naja dc eerder een datavloertje.

Paulewk
04/11/10, 19:56
Ons datacenter kent een modulaire bouw. Na de eerste bouwfase beschikken we over 9 modules van 325m². De standaard inlaat temperatuur zal 21 graden zijn, maar dit kunnen we per zaal bepalen. Mochten klanten een andere temperatuur in de zaal willen is dat eenvoudig in te stellen.

Ok klinkt interressant, maar nogmaals 97% v/d tijd freecooling bij 21 graden inlet temp lijkt me onmogelijk in Nederland. Ik zou graag een onderzoek zien die dit onderbouwd. Ook met het oog op airco veranderingen in ons eigen DC.

phreak
04/11/10, 21:46
Ok klinkt interressant, maar nogmaals 97% v/d tijd freecooling bij 21 graden inlet temp lijkt me onmogelijk in Nederland. Ik zou graag een onderzoek zien die dit onderbouwd. Ook met het oog op airco veranderingen in ons eigen DC.

Die 97% lijkt me ook heel erg stug (zonder iets van "hulp"), wat ik bij mijn vorige werkgever zag was een innovatie van Datacenter Koeling (http://www.datacenterkoeling.nl/home/) wat wel veelbelovend is.

Pirus
04/11/10, 22:14
Gefeliciteerd.

Domenico
04/11/10, 22:36
Jeroen en consorten gefeliciteerd!

t.bloo
05/11/10, 08:56
Gefeliciteerd! Is dat het zelfde initiatief op het Flight Forum waar al jaren een bord staat "hier komt een datacentrum", of is het in het nieuwe gedeelte 500m verderop? Als het af is kom ik graag een keer kijken.

prekz
05/11/10, 09:19
Gefeliciteerd! Ziet er voor de rest goed uit, en is voor mij redelijk dicht in de buurt.

Alleen vraag ik mij ( net zoals zovelen hier ) hoe jullie het precies voor elkaar gaan krijgen met de 97% koelingtechniek.

Tim G
05/11/10, 10:50
Heel stoer, toen ik een paar maanden geleden bij interconnect stage liep hoorde ik ook al over het nieuwe dc. Word 4x zo groot als het huidige datacenter geloof ik. Heel leuk.

Wordt het datacenter trouwens carrier neutraal? Het huidige dc was dat niet.

Interconnect
05/11/10, 16:29
Nogmaals dank voor alle felicitaties.

Ik zal de verschillende vragen weer proberen zo goed mogelijk te beantwoorden.

@ phreak: zoals ik in een eerdere post al aangaf kunnen we (deels) blijven koelen met buitenlucht tot een temperatuur van 30 graden. Ik denk dat je het woordje 'deels' over het hoofd hebt gezien. Natuurlijk moeten wij vanaf temperatuur X bijkoelen.

@ t.bloo: wij zitten inderdaad net verderop, op het Park Forum. Dus niet op het Flight Forum. Je bent van harte welkom om te komen kijken als het af is.

@ Tim G: ik heb je zelf niet gesproken bij Interconnect, maar ik hoop dat je je stage leuk vond. De één interpreteert de term carrier neutraal anders dan een ander. We zijn in zoverre niet carrier neutraal omdat we niet iedere carrier willen toelaten. Er zullen ruime mogelijkheden zijn om je aan te sluiten op andere carriers (vanuit de 2 Meet Me Rooms), maar zonder meer op iedere carrier.

Hierbij een linkje naar een interactieve animatie over Direct Free Cooling²:

http://www.interconnect.nl/uploadextra/dc2/freecoolingdfc2.swf

Dit is een versimpelde weergave. Je kunt zelf rechtsonder de temperatuur aanpassen. In de presentatie van Stulz wordt er al volledig gekoeld op compressoren bij een temperatuur van 24 graden, maar door enkele innovaties kunnen wij dat moment uitstellen.

mdf
05/11/10, 17:47
Die animatie is erg leuk en legt het concept goed uit. Echter staan de chillers/condensors buiten recht onder de luchtinlaat waardoor je bij een temperatuur van 19+ graden de warme lucht van de condensors weer naar binnen haalt. Ik neem aan dat dit in het datacenter design wel goed gedaan is en ze aan de kant van de luchtuitlaat staan :)

Interconnect
05/11/10, 17:53
Dat klopt, de animatie is vormgegeven door Stulz. Bij het ontwerp van ons datacenter is uiteraard rekening gehouden met de ideale positie voor verschillende voorzieningen.

Het is overigens zo dat, mochten de noodaggregaten aan het werk moet, de panelen van de luchtinlaten te allen tijde binnen 2 seconden sluiten zodat de lucht het datacenter niet kan binnendringen.

Alvast een prettig weekend allemaal!

mdf
05/11/10, 17:56
Beetje 'dom' van Stulz als ik het mag zeggen. Top dat jullie er wel goed over nagedacht hebben!

The-BosS
05/11/10, 18:39
Om dan nog een opmerking te geven over goed doordachte koeling, het is veel logischer om de koude lucht langs boven aan te voeren ipv onderaan. Aangezien koude lucht naar beneden valt en warme lucht naar boven stijgt. Als de koude lucht van bovenaan komt wordt het rack optimaal gekoeld (aangezien het naar beneden valt). Als koude lucht van onder komt moet dit nog met ventilators (die ook stroom gebruiken) naar boven gestuwt worden.

Tim G
05/11/10, 18:44
@interconnect, hoe heet je? Misschien heb ik je wel gesproken. Was die week voornamelijk op 1ste en 2de graads support.

Serveo
05/11/10, 19:20
Subsidies voor bedrijven die datacenters bouwen? Lijkt me sterk, heb je wat meer informatie hierover?

Code of Conduct van de EU ;-)

EK-Media
08/11/10, 15:12
Gefeliciteerd :) kom wellicht een keertje kijken.

Interconnect
08/11/10, 23:10
@ Tim G: ik werk niet op de support afdeling. Ik heb je dus helaas gemist, maar misschien spreken we elkaar nog eens bij Interconnect.

@ CompanyTotal: je bent van harte welkom. Wel een eindje rijden vanuit Heerhugowaard. Interconnect zorgt dat de koffie klaar staat.

kilobit
09/11/10, 01:59
Koeling is 1 deel van een lage PUE.

Er zijn andere factoren die de PUE bepalen, een belangrijke daarvan is de UPS installatie.
Kan je daar iets over vertellen?

Als je volledige 2N UPS hebt met dubbele conversie verlies je een boel.
Of gebruiken jullie een "eco mode" UPS systeem voor zowel A & B ? (welke zich nog niet bewezen heeft in produktie?)

Clanhost
09/11/10, 10:42
Om dan nog een opmerking te geven over goed doordachte koeling, het is veel logischer om de koude lucht langs boven aan te voeren ipv onderaan. Aangezien koude lucht naar beneden valt en warme lucht naar boven stijgt. Als de koude lucht van bovenaan komt wordt het rack optimaal gekoeld (aangezien het naar beneden valt). Als koude lucht van onder komt moet dit nog met ventilators (die ook stroom gebruiken) naar boven gestuwt worden.

Ik denk dat dit verhaal niet helemaal opgaat in een datacenter. Die lucht "valt" niet vanzelf door een server heen. Warme lucht stijgt omdat het uitzet maar koude lucht "valt" pas naar beneden als je er een warme luchtlaag boven is die meer ruimte gaat opnemen. Of dat er onder de koude lucht zich nog een laag bevindt met een lagere dichtheid. In een cold corridor heb je dus alleen koude lucht. Dat valt niet uit zichzelf naar beneden. Afgezien daarvan zal de koude lucht altijd de ruimte in geblazen moeten worden om het de gehele voorzijde van een rack van voldoende koude lucht te voorzien zodat de servers deze kunnen aanzuigen.

mdf
09/11/10, 11:20
Of gebruiken jullie een "eco mode" UPS systeem voor zowel A & B ? (welke zich nog niet bewezen heeft in produktie?)
Ik ken datacenters die hun UPS'en in ECO mode (oftewel statische bypass) draaien in productie dus zou niet zeggen dat het niet bewezen is.
De schakeltijd is dermate kort dat je binnen 1 periode over bent.
Net oude UPS'en (vooral die waar relais inzitten) zou ik het niet doen maar met de nieuwe UPS'en kan het prima.