PDA

Bekijk Volledige Versie : Komt er dan toch eindelijk snel flashgeheugen voor servers?



Wido
27/09/07, 22:41
Hallo,

Ik kom net langs Tweakers.net en las dit: http://core.tweakers.net/nieuws/49540/Fusion-io-ontwikkelt-flashopslag-op-pcie-kaart.html

Dat beloofd wel heel wat!

- 800MegaByte/sec READ
- 600MegaByte/sed WRITE
- 100.000 IOps
- Linux drivers

Het komt neer op 30 dollar per gigabyte, dus voor het 80GB model moet je 2400 dollar, ofwel 1715 euro voor neertellen.

Dat is best schappelijk denk ik zo, zeker voor systemen als database-servers.

Nu zijn er natuurlijk een paar punten waar ik zelf aan dacht:
Wat als die flashdisk kapot gaat? Geen RAID?
Nee, dat klopt. Maar doordat die kaart zo ontzettend snel is, kan je meerdere malen per dag backups draaien naar goedkopere S-ATA schijven. Je kan een redelijk goedkope machine met 16x1TB in RAID-5 zetten waar je heel wat data naartoe kan backuppen. Bij een crash kan je dus snel je data restoren, zonder al te ver in de tijd terug te gaan.

Hoe betrouwbaar is zo'n kaart?
Ik denk betrouwbaar genoeg. Normaal flash geheugen kan je 100.000 tot 1.000.000 keer herschrijven voordat cellen kapot gaan.

In het ergste geval gaan we uit van 100.000 x 80GB = 8000000GB = 8192000000MB

8192000000 / 600 = 13653333,33 sec
13653333,33 / 3600 = 3792,59 uur
3792,59 = 158,02 dagen

Als je dus 158 dagen lang, constant met 600MegaByte per seconde aan het schrijven bent en elke cel blijft herschrijven, dan heb je de kaart na bijna een half jaar om zeep geholpen.

Maar dan ga ik uit van het slechste geval, 100.000 keer herschrijven maximaal en 600MegaByte per seconde.

Dan moeten we reeël zijn, wie schrijft er met 600MB/sec dat voor een half jaar lang?

100.000 IOps
Dat is natuurlijk heel veel, een beetje snelle RAID-5 set met wat 15k schijven blijft bij 2000 IOps toch echt steken, verder komt het niet.

Maar dat is wat wij in servers juist willen, IOps, snel zoeken, héél snel zoeken.

Ik denk er zeker over om een klein lab op te zetten zodra deze kaart beschikbaar is en deze eens enkele maanden flink onder handen te nemen, kijken wat dit kan bieden, misschien ergens als cache server voor static content.


Wat is jullie mening hier over? Een goede ontwikkeling? En hoe denken jullie over de prijs?

Stefan Mensink
28/09/07, 00:28
Wat nu als je zo'n disk als dit in een soft-raid zou zetten met een nette sata disk, waar de bewegende disk als hotspare fungeert? Ik kan me voorstellen dat (eventueel met een ietwat geoptimaliseerde raid-software) dit een gouden combo is van snelheid en betrouwbaarheid. Dus primary lezen vanaf flash en een live backup op disk. Een beetje database leest immers veel meer dan dat-ie schrijft. En bij het schrijven kan je veel doen met cache.

Het lijkt mij in elk geval wel wat qua database-disk. Eventueel kan je natuurlijk ook je database zelf laten repliceren......

Qua kosten is het in elk geval goed te doen voor intensieve webapplicaties.

Ramon Fincken
28/09/07, 00:50
als hotspare ?

dat zou dan betekenen dat je die dus als het even kan constant up to date wil hebben toch ...
en dat zou dan betekenen dat je vanwege de snelheid van je flash erg achter kunt komen te liggen in het bijwerken.

Wido
28/09/07, 02:09
Inderdaad, ik denk niet dat zoiets kan werken, niet in een ideale situatie.

Maar ik denk dat je met deze snelheden prima 1x per 3 uur een backup van je database van zeg 25GB kan draaien, een beetje deftige software zoals Bacula moet hier geen problemen mee hebben.

maxnet
28/09/07, 16:06
Op zich best interessant.

Wel vraag ik me af hoe de prijs/performance verhouding in de praktijk is.

Een van de databases die wij draaien is zo'n 110 GB groot.
Dan zouden we minimaal 2 van die 80 GB kaartjes nodig hebben, en dan is er nog geen redudantie.

I.p.v. 3400 EUR hier aan te besteden, zou je daarvoor ook flink wat normaal geheugen kunnen bijprikken, zodat alle indices en veelgebruikte data in het geheugen passen en de schrijven minder nodig zijn.

Wido
28/09/07, 16:12
110GB is wel extreem groot, zo veel databases kom je niet direct tegen.

Heb je een systeem met echt veel databases en tabellen, dan kan je er op een gegeven moment niet meer tegenaan met geheugen, lijkt mij.

De harddisk is toch altijd het traagste onderdeel in je systeem.

maxnet
28/09/07, 16:47
110GB is wel extreem groot, zo veel databases kom je niet direct tegen.


Voor een zoekmachine is dat nog redelijk compact.

Op het moment draait het met 12 GB geheugen prima onder normaal gebruik.
Helaas zijn bij database onderhoud en het maken van backups de beperkingen van de schijven wel duidelijk zichtbaar.
En dan zou zo'n flash kaartje wel leuk zijn.

Wido
28/09/07, 16:56
Wij hebben vooral database-servers draaien met maximaal 30GB aan data, dan komt een 80GB kaartje dus prima uit :)

Die machine's draaien overigens met 8GB geheugen.

Maar ook daar, bij het maken van backups zijn de disks het traagste.

AlexanderOnline
29/09/07, 16:57
Maar hoe zou jij hem dan in gaan zetten? Als hotspare database server die continu wordt bijgewerkt?

Wido
29/09/07, 22:35
Ik zou hem, na een goede test, inzetten als storage voor mijn database-server, die ik vervolgens met bijvoorbeeld Bacula minimaal 1x per 24 uur volledig backup.

Indien mogelijk zou ik dit bijvoorbeeld naar 1x per 12 uur zetten.

almar
01/10/07, 00:42
Ik twijfel. Dat komt denk ik ook doordat ik al veel van dat flashgeheugen om zeep heb geholpen. Vooralsnog denk ik dat wij geen early adapter gaan worden. De huidige databasesystemen hebben we namelijk al geoptimaliseerd (een aantal machines met 16 Gb en een aantal met 24 Gb geheugen) waardoor de leesbewerkingen al heel snel zijn. (buffering)

Maar je maakt een punt als je zegt dat het nog veel sneller kan op een flashkaart. Kijkend naar de prijs vermoed ik een bottleneck bij een eventuele doorbelasting naar klanten t.o.v. de huidige situatie.

Wido
01/10/07, 11:34
"van dat flashgeheugen?" Er zijn heel veel types op de markt. Een CF kaartje heb je inderdaad snel kapot.

Een bottleneck in de prijsvoering? Ik denk dat dat hier even buiten schot staat. Het gaat mij er juist om dat je al die hdd's en raid-controllers niet meer nodig hebt en een nog betere performance hebt.

Niet hoeveel ik bereken aan mijn klanten.

Wido
19/11/07, 22:08
En kijk nou eens: http://pro.tweakers.net/nieuws/50402/bitmicro-komt-met-ssd-schijf-van-1-komma-6tb.html

Dit gaat steeds de betere kant op!

Deze dingen zouden in theorie in ons EMC platform kunnen of bijv in je EqualLogic systeem, of wat je ook draait op FC.

Vaak zijn je schijven de bottleneck, maar hierbij gaat denk ik je controller de bottleneck worden, die wil op een gegeven moment niet meer IOps verwerken.

Prijzen ben ik naar gaan informeren, maar nog geen resultaat over terug gehad.

Bij hosters blijven altijd de kleine files je nekken, tapes draaien zijn een ramp met zo veel kleine files (indexes bouwen e.d.), ook het eindeloos zoeken naar kleine files.

Qua prijs verwacht ik toch minimaal 15k per stuk voor de 1.6TB versie, al sta ik niet raar te kijken als het minimaal het 3 dubbele is.

Nou, daar zat ik er dus stevig naast. De 896GB versie kost ruim 82.000 dollar, toch best een hoop ;)

ByteMe
20/11/07, 12:51
In de marge hiervan;
De nieuwste blades van IBM hebben de mogelijkheid voor SSD schijven
Lijkt me een mooie evolutie.

Wido
20/11/07, 12:52
In de marge hiervan;
De nieuwste blades van IBM hebben de mogelijkheid voor SSD schijven
Lijkt me een mooie evolutie.Weet jij toevallig welk merk/type zij leveren op hun blades?

Dat zijn neem ik aan 2.5" SSD's met een SAS interface?

ByteMe
20/11/07, 13:06
Zou het niet weten wat er exact in zit.
Was verlede week op een presentatie van IBM waar ze hun nieuwste modellen bespraken en dit viel me op. IBM serieus fier...

Wido
07/01/08, 22:11
Wij hebben vandaag deze besteld: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Benchmark: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Ik verwacht hem met enkele dagen in huis.

Dan gaan we die eens onder handen nemen en flink benchmarken, eens kijken wat er uit de halen valt.

Het gaat mij vooral om database-server werk en mailserver werk. Bij de mailserver gaat het om vele kleine files en ik wil kijken wat daar op te winnen valt.

We gaan druk benchmarken en ik zal resultaten posten als ik die heb.

DeziWeb
07/01/08, 22:29
Wij hebben vandaag deze besteld: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Benchmark: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Ik verwacht hem met enkele dagen in huis.

Dan gaan we die eens onder handen nemen en flink benchmarken, eens kijken wat er uit de halen valt.

Het gaat mij vooral om database-server werk en mailserver werk. Bij de mailserver gaat het om vele kleine files en ik wil kijken wat daar op te winnen valt.

We gaan druk benchmarken en ik zal resultaten posten als ik die heb.

Wat is de voornaamste reden, energie besparing? Wat betaal je nou voor zo'n module als ik vragen mag.

AlexanderOnline
07/01/08, 23:06
Ik denk snelheid he ;)
Wido, sl*t, altijd weer met nieuwe speeltjes mogen spelen :D

Wido
07/01/08, 23:25
Wat is de voornaamste reden, energie besparing? Wat betaal je nou voor zo'n module als ik vragen mag.We waren hiervoor 1090 dollar kwijt.

De reden is vooral snelheid, de ontzettend lage access-times en random-reads.

@ Alexander, tja, ik kan er ook niets aan doen :P

Jesperw
08/01/08, 23:47
Wat zou er nou eigenlijk nog stuk kunnen gaan aan zo'n ding? :P

Er moet iets zijn zou je haast zeggen.

Wat ik ook altijd zo gek vind is dat er een nieuwe ontwikkeling hebt en gewoon iedere 2 weken een dubbele capaciteit mogelijk blijkt. Kunnen ze niet in 1 keer met 80 Gig beginnen?

gjtje
09/01/08, 00:44
RAM en flash geheugen gaat ook stuk, dat is niet veel anders. Je zult dus nog altijd de boel in raid moeten draaien.

Wido
09/01/08, 12:57
Wat zou er nou eigenlijk nog stuk kunnen gaan aan zo'n ding? :P

Er moet iets zijn zou je haast zeggen.

Wat ik ook altijd zo gek vind is dat er een nieuwe ontwikkeling hebt en gewoon iedere 2 weken een dubbele capaciteit mogelijk blijkt. Kunnen ze niet in 1 keer met 80 Gig beginnen?Alles kan kapot.

Maar het beweegt niet, dus de kans op defecten is daardoor kleiner, een mechanisch falen is niet aan de orde. Geen kop die het begeeft, of een motor die het begeeft.

Echter heeft flash geheugen last van wearing out, tegenwoordig lossen ze dat met slimme controllers al heel goed op en zeggen ze dat het langer mee gaat dan een conventionele hdd.

Maar zoals gtje zegt, ook RAM gaat kapot, dat gebeurd nu eenmaal. Al heeft een RAM reepje weinig bescherming tot niets en zit een SSD toch in een betere behuizing, dus dat speelt ook wel mee denk ik.

Ik ga het in ieder geval zien, ik zal seeker.c, hdparm, bonnie++ e.d. er op los laten t.o.v. een single 150GB Raptor.

Dan gaan we eens zien wat voor een performance er uit komt.

Het gaat natuurlijk om de seeks en accesstimes, die zijn in onze business het belangrijkste.

Ik hoef geen doorvoer van 200MB/sec want dat doen mijn mailservers + database-servers toch nooit.

Wido
10/01/08, 15:57
En hij is binnen!

Ongelofelijk die snelheid....

Hij zit in mijn desktop als tweede "schijf".

hdparm

root@wido-desktop:~# hdparm -tT /dev/sdb

/dev/sdb:
Timing cached reads: 6272 MB in 2.00 seconds = 3139.78 MB/sec
Timing buffered disk reads: 308 MB in 3.00 seconds = 102.53 MB/sec
root@wido-desktop:~# hdparm -tT /dev/sdb

/dev/sdb:
Timing cached reads: 6300 MB in 2.00 seconds = 3154.07 MB/sec
Timing buffered disk reads: 308 MB in 3.00 seconds = 102.59 MB/sec
root@wido-desktop:~# hdparm -tT /dev/sdb

/dev/sdb:
Timing cached reads: 6892 MB in 2.00 seconds = 3450.55 MB/sec
Timing buffered disk reads: 306 MB in 3.01 seconds = 101.56 MB/sec
root@wido-desktop:~#

Seeker.c

root@wido-desktop:/root# ./seeker /dev/sdb
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/sdb [30520MB], wait 30 seconds..............................
Results: 7085 seeks/second, 0.14 ms random access time
root@wido-desktop:/root# ./seeker /dev/sdb
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/sdb [30520MB], wait 30 seconds..............................
Results: 7244 seeks/second, 0.14 ms random access time
root@wido-desktop:/root#

Dit even voor zo ver, ik ga verder benchmarken!

maartenb
10/01/08, 16:33
Het ziet er echt indrukwekkend uit! Mag ik vragen wat je CPU verbruik id bij het benchmarken?

Wido
10/01/08, 16:48
Ik test het hier met een core2duo 6300, die heeft bij hdparm een CPU-load van 0 tot 11% en bij de seeker 38 tot 44%

Dit is overigens mijn desktop waar ik ook gewoon op werk.

Cybafish
10/01/08, 18:17
Even ter vergelijking, een WD Raptor schijf die in al onze shared servers zit, een van de betere SATA disks:


root@halon [~]# ./seeker /dev/sdb
Seeker v2.0, 2007-01-15, http://www.linuxinsight.com/how_fast_is_your_disk.html
Benchmarking /dev/sdb [70911MB], wait 30 seconds..............................
Results: 127 seeks/second, 7.87 ms random access time



root@halon [~]# hdparm -tT /dev/sdb
/dev/sdb:
Timing cached reads: 3436 MB in 2.00 seconds = 1716.54 MB/sec
Timing buffered disk reads: 206 MB in 3.02 seconds = 68.13 MB/sec


Wat een verschil! Toch kijk ik de kat nog liever even uit de boom. Geef het nog een paar maanden, dan zijn de schijven, net als THG al schreef 2x zo groot en verfijnd.

Wido
10/01/08, 19:26
Ik blijf verbaasd staan!

Ik heb nog een tooltje gevonden waarmee je +/- 405k random files + directories aanmaakt: http://www.linuxinsight.com/files/make-many-files.c

Dit gebeurd op deze SSD in minder dan 11 seconde, waar 8 Raptors in RAID-5 er bij mij 4 minuten over doen.

Ook een updatedb duurt daarna nog maar 11 seconde, waar de raptors er 23 seconde over doen.

10GB data naar het geheugen lezen ging sustained met 113MB/sec en daar wonnen de raptors met 241MB/sec.

Schrijven daarintegen ging langzamer, daar haalt de SSD 78MB/sec en de raptors 193MB/sec.

Al met al best knap voor een SSD die maar alleen is, zet er maar eens 8 in RAID-5 achter de zelfde Areca controller...

Maar het is vooral de access-time en random reads, dat gaat zo gigantisch snel, daar wordt je bijna stil van.

Ik heb Postmark van NetApp gedraaid met de volgende settings


pm>show
Current configuration is:
The base number of files is 5000
Transactions: 10000
Files range between 500 bytes and 488.28 kilobytes in size
Working directory: /mnt/sdb
Block sizes are: read=4.00 kilobytes, write=4.00 kilobytes
Biases are: read/append=5, create/delete=5
Using Unix buffered file I/O
Random number generator seed is 42
Report format is verbose.
pm>

Ik heb vervolgens de SSD tegenover een 320GB S-ATA disk gezet en weer de 8 Raptors in RAID-5.

De resultaten:

Mtron 32GB SSD

pm>run
Creating files...Done
Performing transactions..........Done
Deleting files...Done
Time:
132 seconds total
114 seconds of transactions (87 per second)

Files:
9950 created (75 per second)
Creation alone: 5000 files (333 per second)
Mixed with transactions: 4950 files (43 per second)
5026 read (44 per second)
4974 appended (43 per second)
9950 deleted (75 per second)
Deletion alone: 4900 files (1633 per second)
Mixed with transactions: 5050 files (44 per second)

Data:
1396.61 megabytes read (10.58 megabytes per second)
2861.03 megabytes written (21.67 megabytes per second)
pm>

320GB S-ATA disk 7200RPM 16MB Cache

pm>run
Creating files...Done
Performing transactions..........Done
Deleting files...Done
Time:
238 seconds total
186 seconds of transactions (53 per second)

Files:
9950 created (41 per second)
Creation alone: 5000 files (121 per second)
Mixed with transactions: 4950 files (26 per second)
5026 read (27 per second)
4974 appended (26 per second)
9950 deleted (41 per second)
Deletion alone: 4900 files (445 per second)
Mixed with transactions: 5050 files (27 per second)

Data:
1396.61 megabytes read (5.87 megabytes per second)
2861.03 megabytes written (12.02 megabytes per second)
pm>

8x WD Raptor 74GB in RAID-5 met Areca controller

pm>run
Creating files...Done
Performing transactions..........Done
Deleting files...Done
Time:
118 seconds total
95 seconds of transactions (105 per second)

Files:
9950 created (84 per second)
Creation alone: 5000 files (250 per second)
Mixed with transactions: 4950 files (52 per second)
5026 read (52 per second)
4974 appended (52 per second)
9950 deleted (84 per second)
Deletion alone: 4900 files (1633 per second)
Mixed with transactions: 5050 files (53 per second)

Data:
1396.61 megabytes read (11.84 megabytes per second)
2861.03 megabytes written (24.25 megabytes per second)
pm>

Hier zie je dus dat 8 Raptors in RAID-5 net nog een fractie sneller zijn. Op sommige gebieden wint de SSD het in zijn eentje nog.

Ik blijf het erg knap vinden.

Heb hopelijk morgen of anders maandag de tweede binnen, dan ga ik eens het een en ander in RAID-0 testen.

Nog een leuke benchmark: http://www.nextlevelhardware.com/storage/battleship/

Wido
12/01/08, 15:06
Ik heb nog een test gedraaid!

Ik heb een 10.000RPM SCSI disk (36GB) tegenover de SSD gezet.

Hierbij ben ik onze klanten en producten database gaan inladen in MySQL 5.0

Eerst de datadir op de SCSI disk en daarna op de SSD.

Het ging om 7.500.000 records wat in totaal 477MB aan data is.

De SSD deed hier 63 minuten over en de SCSI disk 81 minuten.

WilloW
12/01/08, 15:13
Hip spul.... desktop installatie zal daar ook wel lekker op draaien :)

Wido
12/01/08, 15:24
Hip spul.... desktop installatie zal daar ook wel lekker op draaien :)Heb er een Ubuntu desktop op gedraaid.

Heerlijk stil en supersnel. Al je apps starten echt lekker vlot en ook door je systeem bladeren gaat lekker rap.

crazycoder
12/01/08, 16:00
Ik heb nog een test gedraaid!

Ik heb een 10.000RPM SCSI disk (36GB) tegenover de SSD gezet.

Hierbij ben ik onze klanten en producten database gaan inladen in MySQL 5.0

Eerst de datadir op de SCSI disk en daarna op de SSD.

Het ging om 7.500.000 records wat in totaal 477MB aan data is.

De SSD deed hier 63 minuten over en de SCSI disk 81 minuten.
Welke controller had je voor de scsi?

Wido
12/01/08, 16:03
Welke controller had je voor de scsi?


RAID bus controller: Adaptec ASC-29320ALP U320 w/HostRAID (rev 10)

Daar moet ik wel bij zeggen dat ik op de gebruikte S-ATA controller niet het maximale uit de SSD haalt.

Ik haal normaal rond de 101MB/sec, maar met deze controller red ik 96MB/sec vanaf de SSD.


IDE interface: Intel Corporation 82801FR/FRW (ICH6R/ICH6RW) SATA Controller (rev 03)

Wido
15/01/08, 12:57
Om nog even een post te doen hier!

Morgen krijgen we nogmaals 4 van deze SSD's geleverd.

Deze gaan we in RAID-5 zetten (Areca controller) en inzetten voor storage in een database-server.

Mijn backup-window ga ik wel verkleinen voor de zekerheid, hoewel ik natuurlijk de Areca controller achter me heb die de RAID-5 doet.

Zodra ik dit morgen heb draaien zal ik nog wat benchmarks draaien.

Zie overigens ook: http://pro.tweakers.net/nieuws/51300/emc-gaat-de-solidstatemarkt-op.html

KDISS
15/01/08, 19:22
Wij hebben vandaag deze besteld: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Benchmark: http://www.tomshardware.com/2007/11/21/mtron_ssd_32_gb/page7.html

Ik verwacht hem met enkele dagen in huis.

Dan gaan we die eens onder handen nemen en flink benchmarken, eens kijken wat er uit de halen valt.

Het gaat mij vooral om database-server werk en mailserver werk. Bij de mailserver gaat het om vele kleine files en ik wil kijken wat daar op te winnen valt.

We gaan druk benchmarken en ik zal resultaten posten als ik die heb.

Ik zou het ook gelijk in mijn werkstation inbouwen. Mag ik vragen waar je deze hebt bestelt. Klikt namelijk zeer aantrekklijk, en zat er al een tijdje aan te denk om zo'n ding te bestellen. :)

Wido
15/01/08, 20:21
Ik zou het ook gelijk in mijn werkstation inbouwen. Mag ik vragen waar je deze hebt bestelt. Klikt namelijk zeer aantrekklijk, en zat er al een tijdje aan te denk om zo'n ding te bestellen. :)www.ssdisk.eu

Daar hebben we hem besteld. Ga er morgen weer 4 afhalen in Antwerpen.

-Kevin
15/01/08, 20:33
www.ssdisk.eu

Daar hebben we hem besteld. Ga er morgen weer 4 afhalen in Antwerpen.



Alsof het niks is :D

Moet je ze zelf gaan ophalen? of heb je hier voor gekozen?

Wynand
15/01/08, 20:51
Als het over zendingen van een paar duizend euro gaat, zeker voor van die kleine dingetjes, denk ik dat iedereen ze wel liever gaat afhalen. ;)

Wido
15/01/08, 21:07
Alsof het niks is :D

Moet je ze zelf gaan ophalen? of heb je hier voor gekozen?Heb ik zelf voor gekozen. Middelburg -> Antwerpen is 70 kilometer, prima te doen dus.

Heb geen zin om lang op de post te wachten, wil ze graag testen.

Ze mogen overigens dan duur lijken, maar 4 in RAID-5 levert wel 96GB effectief op. Dat is bij ons genoeg voor 7 database-servers wat normaal I/O vreters zijn.

Voorheen moest je daarvoor in elke database-server een RAID-set stoppen van 4 disks, waar je nu maar 1 RAID-set hebt.

Ik weet, SPOF, maar dit is even puur een voorbeeld :)

hendrik87
18/01/08, 00:00
Heb je ze al opgehaald? Ben wel benieuwd naar de performance :)

Wido
18/01/08, 09:46
Heb je ze al opgehaald? Ben wel benieuwd naar de performance :)Ja, heb ze nu in RAID-5 achter een Areca ARC-1220.

Ik haal een sustained read van 274MB/sec en een sustained write van 153MB/sec.

Ik vind dat wat laag, maar na wat onderzoek is dat de max van de 1220 in RAID-5.

De gemiddelde access-time ligt op 0.14ms en ik haal daarbij 7500 seeks per seconde.

Ik heb dit draaien op een machine met Ubuntu Gutsy waar Enterprise iSCSI Target op draait.

Over de iSCSI haal ik 2500 seeks per seconde met een access-time van 0.39ms, daarbij haal ik over Gigabit een sustained read van 95MB/sec.

Ik heb ook Postmark gedraaid (zoals ik hier boven heb gedaan), de resultaten ben ik helaas kwijt, maar de raptors in RAID-5 deden 122 seconde over de hele benchmark, deze setup deed er 48 seconde over.

Verder nog wat informatie gewenst?

Wido
25/01/08, 11:29
Inmiddels zijn de SSD's iets meer dan een week online en het gaat als de brandweer!

Ik heb nu over iSCSI een database-server er op draaien, die is nog nooit zo snel geweest. Zoeken naar data gaat zo ontzettend rap.

Backups maken duurde voorheen 2 uur, wat nu nog maar 40 minuten in beslag neemt. Het grootste probleem bij backups is altijd zoeken naar alle bestanden die gewijzigd zijn en laat een SSD nou net snel zijn in zoeken :)

De Areca controller heeft er ook geen problemen mee, die doet lekker zijn werk.

De CPU load op de iSCSI machine is 0 tot 1% terwijl er 2.500 IOps (1000 read, 1500 write) door heen gaan en soms bursts tot wel 7.000 IOps.

De gemiddelde doorvoer ligt op 20 tot 30Mbit.

Ik ben bezig met een test-rapport te maken, wanneer ik die klaar heb zal ik die hier posten.

cj0
21/05/08, 14:32
<knip>
1 keer je verhaal posten is meer dan voldoende.

maxnet
04/06/08, 18:54
De FusionIO kaarten schijnen inmiddels leverbaar te zijn. Een 80 gb kaartje kost zoals verwacht $2400, daarnaast 20%/jaar extra indien je er een support contract bij wilt.
Heeft iemand er al eentje uitgeprobeert?


Verder heb ik vandaag met een paar low-budget SSDs lopen spelen.
Als je op basis van de doorvoersnelheid vergelijkt, is een MyDigitalSSD SLC welliswaar nog steeds slomer met schrijven dan een Mtron mobi, maar heeft hij hem met lezen ingehaald.



MyDigitalSSD 32 GB SLC SATA
Prijs: $ 460 (298 EUR)



Test finished without errors.
You can now delete the test files *.h2w or verify them again.
Writing speed: 41.8 MByte/s
Reading speed: 79.9 MByte/s
H2testw v1.4



Mtron Mobi 32 GB
Prijs: 437 EUR ex. BTW



Test finished without errors.
You can now delete the test files *.h2w or verify them again.
Writing speed: 65.2 MByte/s
Reading speed: 77.5 MByte/s
H2testw v1.4



Samsung Spinpoint 750 GB normale hardeschijf



Test finished without errors.
You can now delete the test files *.h2w or verify them again.
Writing speed: 89.7 MByte/s
Reading speed: 89.2 MByte/s
H2testw v1.4


---

Laptop harde schijf (ST98823A)



Test finished without errors.
You can now delete the test files *.h2w or verify them again.
Writing speed: 24.8 MByte/s
Reading speed: 25.1 MByte/s
H2testw v1.4


MyDigitalSSD 32 GB MLC PATA (getest in laptop)
Prijs: $249 (161 EUR)



Test finished without errors.
You can now delete the test files *.h2w or verify them again.
Writing speed: 12.9 MByte/s
Reading speed: 25.1 MByte/s
H2testw v1.4

Wido
05/06/08, 11:11
Je vergeet hier natuurlijk helemaal de random access-time e.d. mee te nemen. Dat is juist waar de SSD's een harddisk flink de grond in stampen.

maxnet
05/06/08, 12:55
Je vergeet hier natuurlijk helemaal de random access-time e.d. mee te nemen. Dat is juist waar de SSD's een harddisk flink de grond in stampen.

Ik had even de doorvoersnelheid genomen omdat dat makkelijker te vergelijken is tussen de SSDs. De harde schijf in het rijtje erbij zetten, is inderdaad misschien niet helemaal eerlijk.


Heb moeite met het vinden van een tooltje dat betrouwbaar de access time van SSDs kan meten en consequente resultaten levert.
HDtune en Seeker meten de access time alleen door naar een positie te seeken en vervolgens een blokje te LEZEN.
Dat geeft echter niet aan hoe de performance is bij het schrijven naar willekeurige locaties op de schijf.

Bij harde schijven is dat gerelateerd, bij beiden moet de kop immers naar een bepaalde positie op schijf verplaatst worden.
Dit lijkt bij SSDs niet helemaal op te gaan.


Als ik in HDbench kijk naar "read" en "random read" dan liggen die redelijk dicht bij elkaar. En mag je er dus vanuitgaan dat de access time bij een SSD inderdaad laag en redelijk constant is.
Kijk je naar "write" en "random write" dan is het schrijven naar willekeurige delen van de SSD een stuk slomer.
De normale harde schijf is ondanks dat deze moet seeken sneller dan de SSD bij het schrijven naar willekeurige locaties in de test van HDbench.


Mtron Mobi:



100 mb test:

Read Write RRead RWrite
92335 79012 93687 38832

2000 mb test:

Read Write RRead RWrite
100136 83346 90160 37518


Samsung Spinpoint:



100 mb test:

Read Write RRead RWrite
79012 117162 48971 50468

2000 mb test:

Read Write RRead RWrite
94238 93567 33592 45661

Wido
05/06/08, 13:04
Klopt, dat is nog een bottleneck van SSD's. Echter los je dit op door een RAID controller met leuke cache te gebruiken.

MTron voegt expres geen write-cache aan de SSD's toe, dit omdat ze geen dataverlies uit de cache willen en ze van mening zijn dat een cache het probleem niet moet oplossen.

Trouwens, postapp van NetApp is ook een leuke benchmark tool.

Wido
10/06/08, 14:26
Zijn er nu verder al hosters die SSD's gebruiken in hun systemen en dan ook al in productie?

De discussie merk ik daar nog niet echt op in gaan, of kijkt iedereen de kat nog een beetje uit de boom?

martysmarty
10/06/08, 14:39
Zijn er nu verder al hosters die SSD's gebruiken in hun systemen en dan ook al in productie?

De discussie merk ik daar nog niet echt op in gaan, of kijkt iedereen de kat nog een beetje uit de boom?

Eerder te duur denk ik.

Volgensmij ligt 64 GB zo rond de 900 euro?

Wido
10/06/08, 14:42
Eerder te duur denk ik.

Volgensmij ligt 64 GB zo rond de 900 euro?Klopt inderdaad, daar moet je wel op rekenen.

Alleen de performance die er uit komt is natuurlijk véél groter dan je haalt uit de huidige harddisks.

Dat is natuurlijk ook weer een besparing, je hebt minder grote kasten e.d. nodig.

cj0
27/08/08, 21:15
De Fusion kaart heb ik nog niet geprobeerd omdat er nog geen OS X drivers voor beschikbaar zijn. Een andere verrassing is dat voorlopig alleen 64-bits Windows ondersteunt zal gaan worden door de drivers, geen 32-bits.

Wido
27/08/08, 23:51
Ik ben met FusionIO in gesprek voor een test example.

Ze kunnen me er niet direct een opsturen, maar ze willen me wel remote access geven tot een server waar er een in zit om het te testen.

Niet helemaal wat ik wil, maar toch, het is iets.

cj0
28/08/08, 00:15
Die Fusion ioDrive van mij (80Gb) mag je eventueel overkopen.
Hij staat hier nu in de kast te wachten op de OS X driver, die nog niet beschikbaar is.
Voor minder dan de nieuwprijs gaat het apparaat niet weg.

Wido
28/08/08, 09:22
Kan je mij in een PM sturen wat je er voor wil?

cj0
28/08/08, 13:56
@Wido: zie PM