PDA

Bekijk Volledige Versie : welke raid wordt het meeste gebruikt?



YolkNet
14/03/08, 09:51
Ik lees regelmatig hier vragen over raid-opstellingen. Is er een raid sowieso het beste? Of is dat situatie-afhankelijk?
En welke raid gebruiken jullie, WHTers, of wordt het meeste gebruikt door webhosters?

Freezer
14/03/08, 10:05
Situatie afhankelijk. Elk type raid heeft ze voordelen, en de ene heeft meer voordelen dan de ander, maar soms heb je die niet nodig en kan je dus met minder :)

Zelf raid 10 voor een db/web server.

ict-serv
14/03/08, 10:55
Situatie afhankelijk. Elk type raid heeft ze voordelen, en de ene heeft meer voordelen dan de ander, maar soms heb je die niet nodig en kan je dus met minder :)

Zelf raid 10 voor een db/web server.

Hier sluit ik mij bij aan, het is afhankelijk van de situatie. elke RAID heeft een ander doel, dit maakt de RAID niet slechter of beter. Ligt eraan waar ze gebruikt worden, in welke opstelling, enz.

Wij draaien momenteel nog op RAID 1.

umf
14/03/08, 11:10
RAID 1 voor webservers
RAID 5 voor backup servers

Luke B
14/03/08, 12:18
RAID 1 wordt hier gebruikt, helaas wel softwarematig ;)

bakkerl
14/03/08, 12:24
Ik lees regelmatig hier vragen over raid-opstellingen. Is er een raid sowieso het beste? Of is dat situatie-afhankelijk?
En welke raid gebruiken jullie, WHTers, of wordt het meeste gebruikt door webhosters?

Een raid0,1,2,3,4,5,6 (of combi) op zich bestaat er niet een beste, dat is situatie afhankelijk. Wel kun je discusseren over de hardraid en de softraid verschillen.

Ik gebruik alleen de hardraid. Met de meest gebruikte situatie:
raid1: webservers.
raid10: database servers.
raid5/raid10: op SAN in combi met vmware.
raid6: backup/opslag machines.

YolkNet
14/03/08, 12:34
Interesting :-)
en hebben jullie regelmatig dat je terug moet vallen op de andere schijven door een defecte harde schijf o.i.d.? Of gebeurt dit bijna nooit? Net zoals je reservewiel zeg maar. Het zit wel in je wagen maar de meesten hebben hem (gelukkig) nooit nodig.

Bob2
14/03/08, 12:48
Volgens mij heeft Google tijdje terug onderzoek gedaan naar defecte schijven. Vooral schijven van drie jaar die erg warm worden hebben een grotere kans om stuk te gaan. Het aantal defecte schijven na 3 jaar lag meen ik tussen de 2 en 4%.

Draai hier raid 0+1 of te wel raid 10, snelheid en mirroring.

bami82
14/03/08, 13:14
Draai hier raid 0+1 of te wel raid 10, snelheid en mirroring.

RAID0+1 is niet hetzelfde als RAID10

Hier voor all webserver software RAID1

bakkerl
14/03/08, 14:24
Interesting :-)
en hebben jullie regelmatig dat je terug moet vallen op de andere schijven door een defecte harde schijf o.i.d.? Of gebeurt dit bijna nooit? Net zoals je reservewiel zeg maar. Het zit wel in je wagen maar de meesten hebben hem (gelukkig) nooit nodig.

Raid is niet alleen om een defect disk op te vangen. Ook kan het vanwege snelheid voordelen gedaan worden. Daarnaast is je vergelijking van het reserve wiel niet helemaal kloppend. Ik zou een reservere wiel meer als (hot)spare willen zien (al moet je bij een auto nog stoppen om het wiel te vervangen).
En naast alle raid configs die genoemt worden hier, kunnen de meeste hard-/softraid controller/software nog wel aan dat er _ook_ nog een (hot)spare opgenomen wordt ;)

Daarnaast is het makkelijk om grote volumes te krijgen. Als ik een set heb van 16 lossen disken (JBOD) en daar een van verlies mis ik een deel van de data. Daarnaast moet ik de data verdelen over meerdere losse disken. Zet ik die in raid5 of raid6 (lever 1 of 2 disken in). Krijg ik een groter volume en nog bescherming voor als ik toch een disk verlies.

Het is niet vaak dat het gebeurt, maar als het gebeurt, is het altijd die ene disk, waar die ow so belangrijke data opstaat.. en waar het vervelend is dat de backup 4 uur oud is. Die 4 uur data wil je niet missen (en ook die restore tijd niet..).

YolkNet
14/03/08, 14:40
...Daarnaast is je vergelijking van het reserve wiel niet helemaal kloppend. ...

Natuurlijk is de vergelijking niet kloppend. Daarom ook het zinnetje er achter he
"Het zit wel in je wagen maar de meesten hebben hem (gelukkig) nooit nodig."
:p

t.bloo
14/03/08, 15:09
bedenk voor de volledigheid dat "hardware raid" ook maar software is die op een aparte processor draait natuurlijk

umf
14/03/08, 15:58
bedenk voor de volledigheid dat "hardware raid" ook maar software is die op een aparte processor draait natuurlijk

het rebuilden scheelt als er een eigen CPU word gebruikt
als het software matig is kan dat langer duren

Natuurlijk is de vergelijking niet kloppend. Daarom ook het zinnetje er achter he
"Het zit wel in je wagen maar de meesten hebben hem (gelukkig) nooit nodig."
:p

gewoon uit voorzorg je schijven om de 2 jaar vervangen ?
of gewoon extra diskjes op spare zetten kost wat maar een datarecovery is altijd duurder

bakkerl
14/03/08, 16:05
bedenk voor de volledigheid dat "hardware raid" ook maar software is die op een aparte processor draait natuurlijk
hardware raid meestal ook eigen geheugen heeft, welke in veel gevallen ook battery gebackupped is.

GlennMatthys
14/03/08, 17:03
het rebuilden scheelt als er een eigen CPU word gebruikt
als het software matig is kan dat langer duren


Rebuild snelheid maakt niets uit. Een deftige hardware RAID controller heeft maximum een 500 Mhz processortje, terwijl een gemiddelde server toch al een 2 Ghz processor heeft. You do the math, maar ik ben er van overtuigd dat een gewone CPU veel sneller RAID berekeningen kan maken dan dat beperkt processortje op een hardware RAID kaart.
Resultaat van modprobe raid5, dit is een gebenchmarkte waarde, maar moest het in de praktijk nog maar op de helft uitkomen, nog altijd een betere score:
xor: using function: pIII_sse (6364.000 MB/sec)
(dit is op een 2 Ghz processor)

De praktijk wijst trouwens uit dat het rebuilden van zowel met als zonder pariteit maar een fractie CPU tijd kost.

Dennis
14/03/08, 17:21
Bij Citus gebruiken we voor de eigen webservers raid(1).

De laatste servers die we hebben aangekocht voor eigen gebruik waren Q6600-servers met een 3Ware 9650 Raid Controller.

umf
14/03/08, 17:25
Rebuild snelheid maakt niets uit. Een deftige hardware RAID controller heeft maximum een 500 Mhz processortje, terwijl een gemiddelde server toch al een 2 Ghz processor heeft. You do the math, maar ik ben er van overtuigd dat een gewone CPU veel sneller RAID berekeningen kan maken dan dat beperkt processortje op een hardware RAID kaart.
Resultaat van modprobe raid5, dit is een gebenchmarkte waarde, maar moest het in de praktijk nog maar op de helft uitkomen, nog altijd een betere score:
xor: using function: pIII_sse (6364.000 MB/sec)
(dit is op een 2 Ghz processor)

De praktijk wijst trouwens uit dat het rebuilden van zowel met als zonder pariteit maar een fractie CPU tijd kost.

het gaat niet om de mhz of ghz
het gaat erom dat het niet langs je pci bus moet stoeien
maar direct over de controller gaat dus

is een losse raid controller altijd sneller omdat het OS onafhankelijk is
een software set draait de rebuild in het OS terwijl een hardware kaart dat OS onafhankelijk op de background kan doen

GlennMatthys
14/03/08, 17:55
Tegenwoordig zit alles op PCI-express, dat meer dan voldoende bandbreedte heeft om meerdere disken te laten rebuilden.

Wat is jouw bewijs dat een losse RAID controller sneller is omdat het "onafhankelijk" van het OS is?

johnbrand
16/03/08, 14:22
Jullie moeten natuurlijk ook niet vergeten dat de software en hardware van de RAID-controller ontworpen zijn om te doen waarvoor ze ontworpen zijn. Namelijk het beheren van je RAID-array.
Een CPU doet alle activiteiten van de server.

Spiller
16/03/08, 16:07
Raid0 voor snelheid op mn eigen server waar geen belangrijke spullen op staan,
Raid1 voor kleine fileserver met belangrijke documenten
Raid5 voor grote fileserver.
Redelijk standaard setup.

Serveo
16/03/08, 18:30
Bij xsxn gebruiken we alle servers in RAID-1 combinatie.

Dion Wales
17/03/08, 01:34
Alle servers zijn bij ons uitgerust met een raid-1 config.
Deze worden weer naar een raid-5 config op een andere locatie over gepompt. Zo heb je veel zekerheid. De server kan altijd eerst op de mirror terug vallen en mocht het DC afbranden, dan is op de externe locatie nog een recente backup beschikbaar.

IT-worX
17/03/08, 01:43
Op allen een software raid 1

MediaServe
17/03/08, 02:42
Zo'n beetje alles op RAID-1 hier, een backupserver is RAID-6...


Rebuild snelheid maakt niets uit. Een deftige hardware RAID controller heeft maximum een 500 Mhz processortje, terwijl een gemiddelde server toch al een 2 Ghz processor heeft.

Kun je toch niet zomaar vergelijken met elkaar. Een deftige hardware RAID kaart heeft geen x86 processor maar werkt veel efficienter. Bovendien hebben hardware kaarten eigen geheugen. Als je software RAID gebruikt dan zal je hard disk performance flink lager worden zodra je cpu bezig is met andere dingen.

xabin
17/03/08, 10:43
Welk RAID level is gebruikelijk voor backups?

Dus stel, een hardeschijf 'stopt ermee', dat je dan gewoon door kan gaan (geen dataverlies).

Jesperw
17/03/08, 13:49
Wij hebben in alle servers (ook het backup platform) minimaal 1 hotspare. Daarmee wordt de array altijd gerebuild. Daarna vervang je op je gemakje de stukke disk.

Verder doen we:

- Raid5+Hotspare -> Webservers
- Raid5+Hotspare -> Backup

Verder is ons storage platform van Equallogic helemaal RAID50. Nieuwe machines zijn virtueel en draaien daar dus op. Da's snel en veilig. Ook weer met 2 hotspares.

YolkNet
18/03/08, 16:56
hoe werkt zo'n hotspare precies? Ik zie die term wel vaker voorbij komen op WHT. Ik heb op http://en.wikipedia.org/wiki/Hot_spare gelezen dat het is om een uitval op te vangen, maar ik kan niet vinden hoe het precies werkt. Heb je dan drie schijven waarvan eentje als 'reserve' wordt gebruikt en actief wordt als er 1 uitvalt?

bami82
18/03/08, 17:02
hoe werkt zo'n hotspare precies? Ik zie die term wel vaker voorbij komen op WHT. Ik heb op http://en.wikipedia.org/wiki/Hot_spare gelezen dat het is om een uitval op te vangen, maar ik kan niet vinden hoe het precies werkt. Heb je dan drie schijven waarvan eentje als 'reserve' wordt gebruikt en actief wordt als er 1 uitvalt?

Hotspare is standby, zodra 1 disk uitvalt wordt hij automatisch in gebruik genomen om de disk die is uitgevallen te vervangen.

Jandar
01/04/08, 10:38
Hardware raid is altijd te prefereren boven software raid, er zijn meerdere redenen voor, enkele zijn, operating systeem onafhankelijk, snelheid, cache en in sommige gevallen ook hardware onafhankelijk.

Wat een hoop mensen schijnen te vergeten is dat je bij hardware raid vaak ook een berg cache geheugen krijgt waardoor diskacties sneller zijn.

Met Hardware onafhankelijk bedoel ik dat de schijven inclusief de controller in een andere server gezet kan worden waarna de data weer beschikbaar is, dit zou ik overigens niet doen met een Operating system, maar in disaster recovery gevallen wil het wel kunnen werken dat je de schijven inclusief controller in een andere machine zet ( het liefst wel van dezelfde hardware familie, geen amd in intel of omgekeert stoppen) en dat je met een paar kleine aanpassingen weer verder kunt werken.

een typische server instelling is vaak OS op een raid 1 en data op een raid 5
webservers worden vaak op raid 1+0 (10) gezet omdat in het geval van een failure wel alle disken gebruikt worden ten opzichte van een raid 0+1. Het verschil tussen raid 0+1 en Raid 10 is dat in geval van een failure bij raid 10 als er 1 disk uitvalt de andere drie doorgaan. Bij een raid 0+1 als er een disk stuk gaat er 2 disken uitvallen.

De verschillende raid levels onder elkaar:

Raid 0 - striping = erg snel maar geen vorm van redundancy gaat er 1 disk stuk dan is de
hele raid set stuk. (minimaal 1 disk)
Raid 1 - mirroring = Hoge mate van redundancy gaat er 1 disk stuk dan is de volledige
data beschikbaar, voordeel snelle leesacties, data kan van 2 schijven
gelezen worden, nadeel elke schrijf actie moet 2 keer uitgevoerd
worden. duur 2x zoveel schijven (minimaal 2 disken)
Raid 2/3/4 worden niet gebruikt - worden ze wel aangeboden, zou ik ze niet gebruiken.
Raid 5 - striping met gedistribueerde parity = hoge mate van redundancy gaat er 1 disk
stuk dan wordt met behulp van de parity de data terugberekent, dit geeft wel
een performance drop, wordt veel toegepast in grote datavolumes. (minimaal 3
disken)
Raid 6 - striping met dubbele parity = hoge mate van redundancy er kunnen 2 disken stuk
gaan, maar geeft performance verlies ten opzichte van raid 5 omdat de parity 2
keer weggeschreven moet worden. (minimaal 4 disken)
Raid 0+1 - striping met mirror = een stripe set wordt gemirrored, snelle schrijf acties en
snelle leesacties. gaat 1 disk stuk zijn 2 disken buiten gebruik maar geen
dataverlies, 2 disken worden gestriped (raid 0) en daarna gemirrored (Raid 1).
(minimaal 4 disken)
Raid 1+0(10) - mirrored disks striped = elke disk wordt eerst gemirrored en daarna worden
alle gemirrorde paren gestriped, performance identiek aan 0+1 maar
wanneer 1 disk kapot gaat blijven de andere disken doorwerken, dus
betere performance wanneer er een disk kapot gaat. hier worden eerst de
disken gemirrored en daarna wordt er een stripe set opgebouwd. (minimaal
4 disken)

De meeste hardware controllers bieden tegenwoordig ook de mogelijkheid om een hot spare in te stellen, dat is 1 of meerdere schijven die wachten tot een schijf kapot gaat en daarna begint de controller meteen de rebuild van de data op deze hotspare, dit heeft het voordeel dat de periode dat je data gevoelig is voor verlies kleiner is dan wanneer je geen hot spare hebt.

Ik hoop dat ik hiermee wat heb toegevoegd.

YolkNet
03/04/08, 11:17
Bedankt Jandar. Je informatie heeft zeker toegevoegde waarde :)

Die hot spare was me nog vrij onbekend, maar nu weet ik eindelijk wat het precies is en doet.