PDA

Bekijk Volledige Versie : Dell EqualLogic gaat naar de 10 Gbit



Randy
11/12/09, 07:41
De nieuwe Dell EqualLogic serie wordt uitgerust met een 10 Gbit controller. Hiermee lijkt het bundelen van 4 Gbit poorten niet langer nodig om het storagenetwerk op te bouwen. Voor servers zal dit weinig schelen, tenzij je ook deze op 2x 10 Gbit gaat connecten. Aan de zijde van de EqualLogic scheelt het je 6 kabels en een hoop configuratie op je switches.

Met name voor veel reads vanaf een server (of writes wanner je SSD's hebt) zal deze snelheid merkbaar zijn, omdat je doorgaang niet lekker boven de maximale snelheid van 1 NIC komt: 1 Gbit/s.

De nieuwe serie staat hier (http://www1.euro.dell.com/content/products/category.aspx/equallogic-ps6010-series?c=nl&cs=nlbsdt1&l=nl&s=bsd) online. @Dennis, weet jij wanneer ze leverbaar zijn?

Overigens, het is vooral leuk dat 1 Gb/s niet meer een limiet is. Als ik kijk wat er gemiddels over het storagenetwerk gaat bij stapels die ik beheer, dan valt dat reuze mee. Denk aan ~250 Mb/s average.

Stina
11/12/09, 10:00
Heb volgende week iemand van Equallogic op bezoek, ben heel benieuwd naar het prijsverschil. Ik heb interesse in de PS6000E, maar dat kan zomaar de PS6010E worden.

Jesperw
11/12/09, 10:12
Erg cool. :) Ik denk alleen dat 't vooral marketing is. Ik ben er ook wel eens tegenaan gelopen dat mensen zeiden 'maar 3 gigabit is veuls te weinig!'. Dat is het niet, maarja.

Zelf doe ik op onze arrays die veel doen ook niet meer dan 200/250mbit/s. Dat valt enorm mee.

Maar ze zijn nu klaar voor de toekomst en da's mooi.

MediaServe
11/12/09, 11:28
Trunk van 4 Gbps heeft ook voordelen. Het is goedkoper qua switch en je hebt nog een stukje extra redundantie. Maar tot 1 TB per seconde is op zich ook best wel lekker ;)

DDX
11/12/09, 12:32
Vraag ik mij af of Dell dan nu ook met een 10gigabit switch komt ?
edit: staat dus ook online:
http://www1.euro.dell.com/nl/nl/bedrijven/networking/switch-powerconnect-8024f/pd.aspx?refid=switch-powerconnect-8024f&s=bsd&cs=nlbsdt1

Wel een beetje jammer dat je bij Dell online niet indicatie prijzen voor de equalogic producten kan zien.
En ze krijgen nu wel erg veel modellen. (4000,5000,5500,6000,6500,6010,6510)

We zijn nu voor een klant bezig met nieuwe omgeving waarin we een offerte hebben liggen voor en 4000 met 16*sata disk. (vmware)

Jesperw
11/12/09, 12:45
Onze Equallogic leverancier heeft wel prijzen online, dus dan heb je alvast een indicatie. Staan alleen die nieuwe modellen nog niet op:

http://www.storagemanagement.nl/EQLline.html

Sander-
11/12/09, 12:55
Vraag ik mij af of Dell dan nu ook met een 10gigabit switch komt ?
edit: staat dus ook online:
http://www1.euro.dell.com/nl/nl/bedrijven/networking/switch-powerconnect-8024f/pd.aspx?refid=switch-powerconnect-8024f&s=bsd&cs=nlbsdt1

Wel een beetje jammer dat je bij Dell online niet indicatie prijzen voor de equalogic producten kan zien.
En ze krijgen nu wel erg veel modellen. (4000,5000,5500,6000,6500,6010,6510)

We zijn nu voor een klant bezig met nieuwe omgeving waarin we een offerte hebben liggen voor en 4000 met 16*sata disk. (vmware)

De 5000 serie is EOL, dus die zal in principe niet meer geleverd worden.

Heb je verder wel eens gekeken naar performance van sata tov sas disks? Voor virtualisatie is sata eigenlijk te krap (in onze ogen en die van onze leverancier), vandaar dat wij op dit moment kijken naar 10k sas schijven. Afhankelijk van de leverancier en rekenmethode zullen de meeste 80/100 iops per sata disk rekenen en 130/150 per 10k sas disk. In ons geval was sata daarom al snel te krap.

DDX
11/12/09, 13:30
We hebben samen met dell gekeken naar de benodigde iops.
Daar is dus idd over nagedacht :)



De performance analyse is gedaan over 24 uur. Hieruit komt dus dat we een performance nodig hebben van 260 IOps met een read / write verhouding van 70/30%
..
Advies:
Voor deze omgeving is een PS4000E (met 16 x sata disken) een juiste keuze. De PS4000 kan een performance leveren van 900 IOps in deze read/write verhouding en heeft 2 x 1Gbit bandbreedte beschikbaar (dus ruim 200MByte/sec throughtput)

Sander-
11/12/09, 14:19
Hoeveel nodes hang je er op dat moment achter dan? Wij kwamen namelijk uit op dat we ongeveer 1500 iops nodig zouden hebben in onze gewenste situatie ;-)

DDX
11/12/09, 14:25
2 Nodes.
we gaan 3 servers virtualiseren.

Voornaamste reden voor keuze vmware is eenvoudiger disaster recovery mogelijkheid. (2e ps4000 op andere lokatie)

Onze eigen vmware omgeving (6 nodes) hangt op dit moment aan een emc cx310 met 30*300gb 15k disken
Voor zo'n omgeving zou de Equalogic met 10gbit wel een goed alternatief zijn. (alleen zal de cx310 waarschijnlijk volgend jaar gewoon extra jaar garantie krijgen)

Sander-
11/12/09, 14:30
2 Nodes.
we gaan 3 servers virtualiseren.

Voornaamste reden voor keuze vmware is eenvoudiger disaster recovery mogelijkheid. (2e ps4000 op andere lokatie)

Onze eigen vmware omgeving (6 nodes) hangt op dit moment aan een emc cx310 met 30*300gb 15k disken
Voor zo'n omgeving zou de Equalogic met 10gbit wel een goed alternatief zijn. (alleen zal de cx310 waarschijnlijk volgend jaar gewoon extra jaar garantie krijgen)

Mwah, die 10gbit heb je volgens mij niet zo snel nodig hoor, zie bovenstaande reacties. Heb inmiddels in ons orientatie-traject redelijk wat van die omgevingen gezien en de meeste hadden soortgelijke reacties, oftewel je komt vaak niet boven de 300mbit, meer capaciteit is eigenlijk pas nodig als je echt streaming ervanaf gaat doen. Of trekken jullie met die EMC wel de gigabit verbindingen vol? (zijn natuurlijk ook bijna 2 x zoveel disks)

Jesperw
11/12/09, 14:32
De 5000 serie is EOL, dus die zal in principe niet meer geleverd worden.

Heb je verder wel eens gekeken naar performance van sata tov sas disks? Voor virtualisatie is sata eigenlijk te krap (in onze ogen en die van onze leverancier), vandaar dat wij op dit moment kijken naar 10k sas schijven. Afhankelijk van de leverancier en rekenmethode zullen de meeste 80/100 iops per sata disk rekenen en 130/150 per 10k sas disk. In ons geval was sata daarom al snel te krap.
Ik virtualiseer nu met 4 Equallogic's een heleboel VM's (honderden) maar onze SATA units zijn echt nooit een bottleneck geweest. Sterker nog, erg snel.

Ik denk dus dat ik uit ervaring kan zeggen dat je gewoon bij virtualisatie zoals wij hosting providers dat doen, een SAS unit niet nodig hebt. Sneller is altijd beter, maar snel dat zijn ze en blijven ze. :)

DDX
11/12/09, 14:43
Mwah, die 10gbit heb je volgens mij niet zo snel nodig hoor, zie bovenstaande reacties. Heb inmiddels in ons orientatie-traject redelijk wat van die omgevingen gezien en de meeste hadden soortgelijke reacties, oftewel je komt vaak niet boven de 300mbit, meer capaciteit is eigenlijk pas nodig als je echt streaming ervanaf gaat doen. Of trekken jullie met die EMC wel de gigabit verbindingen vol? (zijn natuurlijk ook bijna 2 x zoveel disks)

De EMC hangt aan fibre (4gbit) en bij emc kan je de stats zonder extra licentie helaas niet echt zien.
En op sommige momenten trek ik graag meer dan 100megabyte/sec (wat max is bij gigabit iscsi connectie)
Al begrijp ik dat je bij de PS6000 ook port-channels van meerdere gigabits kan doen.

Sander-
11/12/09, 14:58
Ik virtualiseer nu met 4 Equallogic's een heleboel VM's (honderden) maar onze SATA units zijn echt nooit een bottleneck geweest. Sterker nog, erg snel.

Ik denk dus dat ik uit ervaring kan zeggen dat je gewoon bij virtualisatie zoals wij hosting providers dat doen, een SAS unit niet nodig hebt. Sneller is altijd beter, maar snel dat zijn ze en blijven ze. :)

Jullie zijn toch ook helemaal linux of niet? Wij hebben ook nog aardig wat Windows draaien en daarin merken we nu we op locale disks in raid5 draaien dat we snel tegen de grenzen aanlopen. Als ik dat van meerdere machines optel en nog wat marge neem dan kom je al ruimschoots op SAS in ons geval.

Jesperw
11/12/09, 15:01
Jullie zijn toch ook helemaal linux of niet? Wij hebben ook nog aardig wat Windows draaien en daarin merken we nu we op locale disks in raid5 draaien dat we snel tegen de grenzen aanlopen. Als ik dat van meerdere machines optel en nog wat marge neem dan kom je al ruimschoots op SAS in ons geval.
Ja, alleen Linux op een paar VM's na.

Ik moet je zeggen dat ik in het begin ook twijfels had en die sommen ken, maar toch blijkt het niet helemaal op te gaan. Ik heb zware DB's op VM's en Equallogic gezet en alle IO problemen verdwenen als sneeuw voor de zon. Het zal ook voor een groot deel door cache enzo komen. Het is in ieder geval niet 't zelfde als een andere bak met 16 disks.

Sander-
11/12/09, 15:09
Ja, alleen Linux op een paar VM's na.

Ik moet je zeggen dat ik in het begin ook twijfels had en die sommen ken, maar toch blijkt het niet helemaal op te gaan. Ik heb zware DB's op VM's en Equallogic gezet en alle IO problemen verdwenen als sneeuw voor de zon. Het zal ook voor een groot deel door cache enzo komen. Het is in ieder geval niet 't zelfde als een andere bak met 16 disks.

Haha daar waren wij inmiddels al wel van overtuigd, wij zijn op dit moment bezig met een PS4000X met 450 of 600GB 10k sas schijven. Al moet ik zeggen dat jouw verhaal me toch weer enigzins aan het denken zet in de keuze SAS/S-ATA...

Wat halen jullie eruit aan iops met puur sata? Dan kan ik dat eens loslaten op onze eerdere berekeningen. Daar gingen we uit van 80iops per sata disk * 14 = 1120 iops. En wij kwamen door het optellen van de huidige local disk usage per machine rond de 1500 die we nodig zouden hebben.

DDX
11/12/09, 15:15
We hebben hier voor een andere klant een EMC AX150i staan, iscsi sata met 12*250gb
Maar die is echt niet vooruit te branden iets teveel disk IO (disk vmotion bijvoorbeeld) en het vmware guest os reageert amper meer.

gjtje
11/12/09, 18:52
Ja, alleen Linux op een paar VM's na.
Op één van de Windows VM's van jullie schommelt een test tussen de 1 en 50MB/s met 32MB/s average.

Ik was ook van mening, SATA dat kan wel, maar hoe meer je met grote disk arrays werkt hoe meer SATA je tegen gaat staan. 't Is leuk voor de opslag van statische data als documenten en back-ups maar meer ook niet.
Ik denk dat vooral de kleine marge een probleem is, er hoeft maar iets te gebeuren en je zit tegen het iops plafond van zo'n sata disks. 80 is nog optimistisch gerekend, zelf ga ik uit van 60 voor 7200RPM SATA disks.

Sander-
11/12/09, 20:15
Op één van de Windows VM's van jullie schommelt een test tussen de 1 en 50MB/s met 32MB/s average.

Ik was ook van mening, SATA dat kan wel, maar hoe meer je met grote disk arrays werkt hoe meer SATA je tegen gaat staan. 't Is leuk voor de opslag van statische data als documenten en back-ups maar meer ook niet.
Ik denk dat vooral de kleine marge een probleem is, er hoeft maar iets te gebeuren en je zit tegen het iops plafond van zo'n sata disks. 80 is nog optimistisch gerekend, zelf ga ik uit van 60 voor 7200RPM SATA disks.

Tja, dit verhaal komt idd meer overeen met wat ik eerder gehoord heb, dat was ook de reden om te kiezen voor 10K SAS in eerste instantie, door de goede ervaringen van JesperW en enkele anderen gingen we toch weer even rondkijken...

Randy
11/12/09, 21:16
Jullie zijn toch ook helemaal linux of niet? Wij hebben ook nog aardig wat Windows draaien en daarin merken we nu we op locale disks in raid5 draaien dat we snel tegen de grenzen aanlopen. Als ik dat van meerdere machines optel en nog wat marge neem dan kom je al ruimschoots op SAS in ons geval.

RAID-5 is leuk bij veel disken. Hoe meer hoe beter. Met 4 disken zou ik het persoonlijk niet doen. Op mijn nodes heb ik 6x 146G 10K SFF SAS disken en deze keuze is enkel vanuit financieel oogpunt gemaakt, om niet teveel space 'weg te gooien'. Vanaf de SAN wordt er geback-upt naar de localdisk. Mocht de SAN wegvallen, kunnen de images alsnog op de nodes zelf gestart worden. Daarnaast gebruik ik deze disken ook voor VM's zonder HA of SAN (oude omgeving).

Bij SATA heb je echter sneller een beperking. Daar zou ik persoonlijk altijd voor RAID-10 gaan. Zeker omdat de 50% van de ruimte die je dan 'weggooit' toch geen drol kost, zeker in vergelijking tot SATA. RAID-50 is nog leuker, maar dan kom je al aan een grotere set-up.

Snelheid is eigenlijk niet eens zo belangrijk. Alles vanaf 40 Mb/s per VM is acceptabel voor mij. Liever zie ik snelle accesstimes, dit is veel belangrijker. Disken zijn nu eenmaal de traagste factor in je server. In de EONstore heb ik nu 2x 32G SSD's (Intel pro) gezet, maar deze komt met verkoopprijs op 6 euro per Gbyte. Niet iets dat je zou willen voor een VM. Wel ideaal en re-te-snel voor tmp-databases (MS-SQL) bijvoorbeeld. Voor dit doel heb ik ze dan ook aangeschaft.

Randy
11/12/09, 21:18
zelf ga ik uit van 60 voor 7200RPM SATA disks.

yes, hier ook. 60 voor SATA, 90 voor SAS. Dan zit je altijd redelijk veilig.

Randy
11/12/09, 21:24
Om een idee te geven m.b.t. snelheden, even twee screenshots vanuit vCenter met de gebruikte doorvoersnelheid op de disken en de accesstimes die daarbij horen. (12 VM's in deze resource pool, allemaal DA doosjes)

Jesperw
11/12/09, 23:14
Haha daar waren wij inmiddels al wel van overtuigd, wij zijn op dit moment bezig met een PS4000X met 450 of 600GB 10k sas schijven. Al moet ik zeggen dat jouw verhaal me toch weer enigzins aan het denken zet in de keuze SAS/S-ATA...

Wat halen jullie eruit aan iops met puur sata? Dan kan ik dat eens loslaten op onze eerdere berekeningen. Daar gingen we uit van 80iops per sata disk * 14 = 1120 iops. En wij kwamen door het optellen van de huidige local disk usage per machine rond de 1500 die we nodig zouden hebben.
We doen nu op een unit in ieder geval al 2000 IOPS met pieken naar 3000. Nog steeds snel. :)

McRox
12/12/09, 17:57
We doen nu op een unit in ieder geval al 2000 IOPS met pieken naar 3000. Nog steeds snel. :)

En dit is voor een EQ unit met 16 sata disks? Wat voor FS gebruik je?

Zijn er mensen die ervaringen hebben met de 4000 en 6000 serie? Wat zijn de verschillen tussen de twee?

Sander-
13/12/09, 11:25
En dit is voor een EQ unit met 16 sata disks? Wat voor FS gebruik je?

Zijn er mensen die ervaringen hebben met de 4000 en 6000 serie? Wat zijn de verschillen tussen de twee?

Geen ervaringen, kan je wel de verschillen aangeven, de 4000 is eigenlijk het instapmodel. Hierbij heb je per controller 2 x 1Gbit tot je beschikking (+ een management port die op 10mbit gelimit is, maar management kan ook over die 2 x 1Gbit). Bij de 6000 serie zijn dit 4 actieve Gbit poorten per controller. Oftewel meer capaciteit, als je hier leest en rondvraagt krijg je echter overal te horen dat je dat toch niet vol trekt voor zaken als virtualisatie.

Ander verschil is het aantal snapshots dat je mag maken etc, die specs kun je zo opzoeken op de Dell site.

Verder is het zo dat als je gaat uitbreiden dat je 2 x een PS4000 kunt hebben en daarna moet je naar de 6000 serie. Voordeel is wel dat dan de software limieten (aantal snapshots etc) wegvallen en de PS4000's zich softwarematig ook als een 6000 gaan gedragen.

Jesperw
13/12/09, 12:28
En dit is voor een EQ unit met 16 sata disks? Wat voor FS gebruik je?

Yup, klopt. Een 8TB Sata PS5000E unit. Er draaien VM's op, dus dat is 99% Linux met Ext3 en 1% Windows 2008.

wdv
13/12/09, 15:26
We doen nu op een unit in ieder geval al 2000 IOPS met pieken naar 3000. Nog steeds snel. :)
Wat is je methode geweest om dit te meten? Met wat voor RAID-level heb je je volumes ingesteld?

Jesperw
13/12/09, 19:33
Wat is je methode geweest om dit te meten? Met wat voor RAID-level heb je je volumes ingesteld?
Raid50. Ik meet 't met SANHQ, de tool die je gebruikt om je Equallogic te checken.

(Andere units draaien raid6 nu, maar heb niet 't idee dat 't veel boeit)

Screenshotje is van nu (zondag = rustig), maar 't geeft een beeld.

DennisWijnberg
16/12/09, 12:31
Wij hebben ervaring met zowel de PS6000 als de PS4000. De huidige versie van de PS4000 is bedoeld als een enabler om vervolgens mensen richting de PS6000 te sturen.

Er zijn een aantal verschillen:
- PS6000 heeft 512 snapshots en replica's per volume. De PS4000 heeft er 128 per volume.
- PS6000 heeft snellere controllers dan de PS4000.
- Een PS4000 heeft "slechts" drie netwerkpoorten, waarvan er één is afgeknepen op 10Mbit. Dedicated voor management dus.
- De PS4000 is er niet met SSD-schijven.

Daarnaast belangrijk:
- Je kunt er van een PS4000 maximaal 2 in een pool hebben staan. Daarna kun je ze tot 16 stuks aanvullen met PS6000.
- De limieten op snapshots/replica's worden, na het toevoegen van een PS6000 aan een pool van 4000's, ook 512.
- Voor hostingdoeleinden haal je echt geen extra performance uit 10Gbit poorten t.o.v. 1Gbit poort.
- De PS4000 is goedkoper.

wdv
16/12/09, 13:32
Raid50. Ik meet 't met SANHQ, de tool die je gebruikt om je Equallogic te checken.

(Andere units draaien raid6 nu, maar heb niet 't idee dat 't veel boeit)

Screenshotje is van nu (zondag = rustig), maar 't geeft een beeld.

Heb je ook nog een screenshotje van een drukker moment, bijvoorbeeld vanavond 9 uur?