PDA

Bekijk Volledige Versie : Centos 6.5 vps begint te vertragen in IO



knoll
04/10/14, 12:06
beste,

ik heb een raar probleem ik heb een vps die draait op SSD omgeving

toen de vps nog maar geinstalleerd was tot over een maand (draait al enkele maanden) haalde ik snelheden tot 530mb IO als ik teste
nu meestal ver beneden de 200 tot 101mb enz.

[root@gsi ~]# ./hdtest
16384+0 records gelezen
16384+0 records geschreven
1073741824 bytes (1,1 GB) gekopieerd, 6,13788 s, 175 MB/s
[root@gsi ~]# ./hdtest
16384+0 records gelezen
16384+0 records geschreven
1073741824 bytes (1,1 GB) gekopieerd, 5,40277 s, 199 MB/s
[root@gsi ~]# ./hdtest
16384+0 records gelezen
16384+0 records geschreven
1073741824 bytes (1,1 GB) gekopieerd, 6,05321 s, 177 MB/s
[root@gsi ~]#

op dit moment iets beter maar ver onder het pijl

als ik de vps herstart in Resque mode haal ik tot 1gigabyte/sec meestal rond de 800mb

start ik de vps terug normaal terug hetzelfde IO snelheiden beneden het pijl

[root@gsi ~]# free -m
total used free shared buffers cached
Mem: 3830 3530 300 0 186 2471
-/+ buffers/cache: 872 2958
Swap: 3967 5 3962
[root@gsi ~]#

[root@gsi ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_14921016912-lv_root
50G 11G 37G 23% /
tmpfs 1,9G 0 1,9G 0% /dev/shm
/dev/vda1 485M 121M 339M 27% /boot
/dev/mapper/vg_14921016912-lv_home
95G 17G 74G 19% /home
[root@gsi ~]#

[root@gsi ~]# w
10:58:52 up 14:26, 1 user, load average: 0,01, 0,03, 0,00

deze server draait 5 websites 4 wordpress 1 gewoontje

[root@gsi ~]# iostat -xNt 60 5
Linux 2.6.32-431.29.2.el6.x86_64 (gsi.opelmanta.be) 04-10-14 _x86_64_ (2 CPU)

04-10-14 11:02:13
avg-cpu: %user %nice %system %iowait %steal %idle
3,63 0,64 0,97 0,39 0,72 93,66

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
vda 0,67 83,78 5,00 5,81 521,03 745,62 117,18 0,24 22,46 1,58 1,71
vg_14921016912-lv_root 0,00 0,00 1,19 64,80 80,08 552,66 9,59 19,51 295,60 0,13 0,84
vg_14921016912-lv_swap 0,00 0,00 0,01 0,03 0,06 0,22 8,00 0,00 6,36 0,63 0,00
vg_14921016912-lv_home 0,00 0,00 4,46 24,09 440,76 192,73 22,19 6,06 212,29 0,31 0,90

04-10-14 11:03:13
avg-cpu: %user %nice %system %iowait %steal %idle
1,06 0,00 0,96 0,08 0,48 97,42

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
vda 0,00 1,25 0,03 2,27 0,40 28,27 12,46 0,01 2,79 1,24 0,29
vg_14921016912-lv_root 0,00 0,00 0,02 3,17 0,13 27,87 8,80 0,01 3,74 0,87 0,28
vg_14921016912-lv_swap 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
vg_14921016912-lv_home 0,00 0,00 0,00 0,05 0,00 0,40 8,00 0,00 1,00 0,67 0,00

04-10-14 11:04:13
avg-cpu: %user %nice %system %iowait %steal %idle
2,63 0,00 1,45 0,22 0,79 94,91

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
vda 0,33 2,75 1,65 6,07 32,53 111,60 18,68 0,04 4,95 1,33 1,03
vg_14921016912-lv_root 0,00 0,00 1,98 8,03 32,53 111,07 14,34 0,05 4,77 1,02 1,02
vg_14921016912-lv_swap 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
vg_14921016912-lv_home 0,00 0,00 0,00 0,07 0,00 0,53 8,00 0,00 1,75 1,50 0,01

04-10-14 11:05:13
avg-cpu: %user %nice %system %iowait %steal %idle
0,99 0,00 0,48 0,02 0,45 98,06

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
vda 0,00 1,08 0,02 1,23 0,13 17,33 13,97 0,00 3,40 1,20 0,15
vg_14921016912-lv_root 0,00 0,00 0,00 2,15 0,00 17,20 8,00 0,02 7,30 0,64 0,14
vg_14921016912-lv_swap 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
vg_14921016912-lv_home 0,00 0,00 0,02 0,02 0,13 0,13 8,00 0,00 4,00 4,00 0,01

04-10-14 11:06:13
avg-cpu: %user %nice %system %iowait %steal %idle
1,03 0,00 0,54 0,12 0,51 97,80

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
vda 0,00 0,98 0,18 2,90 6,53 52,93 19,29 0,02 7,42 1,30 0,40
vg_14921016912-lv_root 0,00 0,00 0,00 3,27 0,00 50,80 15,55 0,03 8,05 1,13 0,37
vg_14921016912-lv_swap 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
vg_14921016912-lv_home 0,00 0,00 0,18 0,27 6,53 2,13 19,26 0,00 2,07 1,48 0,07

[root@gsi ~]#


heb laatste maanden niks meer veranderd software matig enkel wat updates gedaan

ik draai directadmin met ConfigServer Firewall&Security

als ik alle services en de firewall compleet uitschakel maakt het totaal niet uit IO gaat niet veel hoger
de isp zegt dat de andere vps'n op dezelfde hardware wel de snelheden halen

iemand een idee hoe dit kan komen?

alvast bedankt want ben ten einde raad greets alex

systemdeveloper
04/10/14, 13:43
Dat komt omdat je met een bestand test dat kleiner dan je ram is. Probeer eens niet met een 1,1GB bestand maar iets dat 3-4 keer groter is dan je totale ram.
Als je een 'dd' doet in je hdtest proggie, let op dat je de 'input' uit /dev/random haalt en niet uit /dev/null.
En negeer je eerste test altijd.

Daarnaast kan het ook gewoon zijn dat andere vpssen op de server meer IO gebruiken. Dat gaat ook ten koste van je eigen snelheid natuurlijk. Daar is het een vps voor :)

Bart L
04/10/14, 13:53
Of dat ze simpelweg I/O limitatie per VM uitvoeren?

24x7hosting
04/10/14, 15:33
Wat wil je precies bereiken met 500MB sequentiële data test? Je hebt meer aan IOps en die kan je testen met bijvoorbeeld Bonnie++.

Het zal niet vaak voor komen dat jou website vele GBs achter elkaar gaat verwerken op 1 groot bestand (kopie van DVD of video's). Een website laden gaat vaak over veel kleine bestandjes en daarom heb je hoge IOps nodig waar SSDs zo goed in zijn.

Ik heb zelf zojuist een bak getest met 12x2TB disk en haalt in RAID10 zo'n 1550MBs read en 780MBs write. Dit zijn leuke getallen maar straks in de praktijk draaien er veel VPSjes op die ieder een klein bestandje op gaan opvragen of schrijven en daardoor zal ik deze snelheid in de praktijk nooit meer gaan halen. Hoe meer VPSjes erop komen te draaien, hoe minder makkelijk je in 1 vloeiende/sequentiële lijn je data kan lezen en schrijven.

Test dus even met Bonnie wat de IOps zijn. Bij een normale harde schijf is dit 150 ongeveer, bij een SSD onder belasting verwacht ik minimaal 5000+

Sent from my GT-I9505 using webhostingtalk mobile app

24x7hosting
04/10/14, 15:39
Overigens heb je 4GB geheugen en test je met 1GB bestand, dat staat een programma als Bonnie++ niet eens toe omdat er dan nog sprake kan zijn van geheugen cache. De test is rescue mode kan dus heel goed vals zijn omdat er geheugen gebruikt wordt.

Sent from my GT-I9505 using webhostingtalk mobile app

knoll
04/10/14, 16:14
ben aan het proberen met bonnie nu
inderdaad kan zijn dat die vals is in rescue mode daardoor is bij transip vind het vreemd dat dit blijft aanslepen , vind het raar dat ik het paar maand geleden wel haalde net voor ze aankondigden dat ze naar ssd over gingen

hierbij de resultaten:

[root@gsi ~]# bonnie++ -n 0 -u 0 -r `free -m | grep 'Mem:' | awk '{print $2}'` -s $(echo "scale=0;`free -m | grep 'Mem:' | awk '{print $2}'`*2" | bc -l) -f -b -d /tmp/foo
Using uid:0, gid:0.
Writing intelligently...done
Rewriting...done
Reading intelligently...done
start 'em...done...done...done...done...done...
Version 1.96 ------Sequential Output------ --Sequential Input- --Random-
Concurrency 1 -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
gsi.opelmanta 7660M 216094 77 52573 32 102635 25 1186 131
Latency 209ms 271ms 40386us 126ms

1.96,1.96,gsi.opelmanta.be,1,1412416661,7660M,,,,2 16094,77,52573,32,,,102635,25,1186,131,,,,,,,,,,,, ,,,,,,,209ms,271ms,,40386us,126ms,,,,,,
[root@gsi ~]#

zijn de IOps waarden goed of test ik ze niet zo greets

24x7hosting
04/10/14, 19:08
Dit zijn geen spectaculaire resultaten, ik had meer verwacht.

216 write
52 rewrite (lezen en schrijven)
102 read
MBps

En 1186 IOps.

Sent from my GT-I9505 using webhostingtalk mobile app

knoll
04/10/14, 20:07
is niet echt om naar huis te schrijven deze resultaten zeker dat het niet met een instelling op de vps zelf te maken heeft iets in centos bv

denkelijk niet maar kom je weet maar nooit als iemand op iets komt die opeens de boel vertraagt terwijl er feitelijk geen tot weinig verkeer op de IO zit langs mijn kant toch niet bij gewoon gebruik

24x7hosting
06/10/14, 20:11
Ik denk niet dat je op de VPS hier met een foute instelling iets aan kan rommelen. Denk eerder dat ze:
Je VPS gelimiteerd hebben
Je een IDE disk gegeven hebben ipv een snelle disk
Het opslag systeem overbelast is

Probeer op verschillende tijden een bonnie test en vergelijk de resultaten. Als ze vrijwel altijd hetzelfde zijn is het een limiet of verkeerde disk. Als het soms snel is en soms langzaam dan zal hun opslag systeem de oorzaak zijn.

Sent from my GT-I9505 using webhostingtalk mobile app

T. Verhaeg
06/10/14, 20:49
Nou moet ik eerlijk zeggen dat voor een VPS bij TransIP, dit nog prima prijs / prestatie is. Natuurlijk krijgen zij ook steeds meer VPSsen op hun platform dus waarschijnlijk is dit gewoon inherent aan het feit dat de storage opgevuld wordt.

24x7hosting
06/10/14, 21:12
Het is inderdaad nog prima acceptabel maar had wel meer verwacht.

1000+ IOps onder load... als ik een RAID10 maak van 12 sata disks haal ik nog geen 800 IOps zonder load. Dus in die zin heb je toch nog flinke performance maar ben wel benieuwd naar meerdere momentopnames.

Een RAID5 van 4 SSDs haalt zo'n 16.000 IOps in Bonnie++, ook afhankelijk van type SSD.

Sent from my GT-I9505 using webhostingtalk mobile app

Domenico
08/10/14, 21:03
Nou moet ik eerlijk zeggen dat voor een VPS bij TransIP, dit nog prima prijs / prestatie is. Natuurlijk krijgen zij ook steeds meer VPSsen op hun platform dus waarschijnlijk is dit gewoon inherent aan het feit dat de storage opgevuld wordt.


is niet echt om naar huis te schrijven deze resultaten zeker dat het niet met een instelling op de vps zelf te maken heeft iets in centos bv

denkelijk niet maar kom je weet maar nooit als iemand op iets komt die opeens de boel vertraagt terwijl er feitelijk geen tot weinig verkeer op de IO zit langs mijn kant toch niet bij gewoon gebruik

Welke prestaties zijn je belooft als ik vragen mag? En is het ondertussen wat beter geworden? Zoals 24x7hosting aangeeft is een meting op verschillende tijden noodzakelijk om hier meer over te zeggen.

systemdeveloper
08/10/14, 22:23
Als ik zelf momenteel naar de performance van een dns servertje bij transip kijk, dan ben ik blij dat ik nog een zooi andere heb. Anders kon ik beter postduiven gebruiken.