PDA

Bekijk Volledige Versie : HA multi master cluster



Mark17
23/10/12, 17:11
Op dit moment ben ik bezig met het opzetten van een omgeving die voor zover mogelijk dubbel is uitgevoerd (met automatische failover indien nodig). Voor bijna alle onderdelen hebben we een oplossing, enkel heb ik nog geen oplossing voor het aanspreken van gedeelde schijven zonder problemen. Op storage niveau is dit al dubbel uitgevoerd, enkel heb ik nog geen bestandssysteem gevonden dat goed bruikbaar is en veilig vanaf meerdere locaties is aan te spreken (gelijktijdig) met lezen/schijven.

NFS heb ik naar gekeken, hiervoor moet ik echter een enkel uitgevoerde VPS/server er bij tussen zetten. Dit wil ik juist voorkomen. Iemand tips/ideeën?

Pantsy
23/10/12, 17:37
Wat je zou moeten doen is network raid, het vreet iops dat wel.. maar het doet wel wat je dan wilt. Je sans redundant maken, kunnen sans weg vallen zonder dat het OS dat in de gaten heeft. Maar goed dit is de HP Lefthand techniek: http://h10010.www1.hp.com/wwpc/us/en/sm/WF05a/12169-304616-3930449-3930449-3930449-4118659.html?dnr=1

Lijkt me stug dat je het even 1 2 3 kan maken op zo'n manier. Wij gebruiken nu ruim 2 jaar lefthand, eerst wat performance problemen gehad maar nadat HP dit heeft opgelost werkt het prima en het doet wat het belooft.

asusk7m550
23/10/12, 17:40
Je kunt kiezen voor Ceph, Swift, OCFS2 of GFS.

Zie ook http://en.wikipedia.org/wiki/Shared_disk_file_system

Je hebt ook de mogelijk om master-master te gebruiken bij DRBD. Maar daar heb ik zelf geen goed gevoel bij.

Eflicta
23/10/12, 17:56
Als je echt naar NFS wilt kijken, kijk eens naar Nexenta. Als ik het goed heb, bieden zij een HA NFS cluster license aan :)

Wido
23/10/12, 18:58
Ceph en RBD, daar zou ik naar kijken! ;)

Mark17
23/10/12, 21:05
Wat je zou moeten doen is network raid, het vreet iops dat wel.. maar het doet wel wat je dan wilt. Je sans redundant maken, kunnen sans weg vallen zonder dat het OS dat in de gaten heeft. Maar goed dit is de HP Lefthand techniek: http://h10010.www1.hp.com/wwpc/us/en/sm/WF05a/12169-304616-3930449-3930449-3930449-4118659.html?dnr=1

Lijkt me stug dat je het even 1 2 3 kan maken op zo'n manier. Wij gebruiken nu ruim 2 jaar lefthand, eerst wat performance problemen gehad maar nadat HP dit heeft opgelost werkt het prima en het doet wat het belooft.

Storage zelf is al redundant via het netwerk (enige nadeel is geen NFS, dus een bestandssysteem dat tegen meerdere hosts die lees/schrijfacties uitvoeren is in dit geval vereist en kan ik nog niet vinden). Storage bestaat in ons geval uit 4 machines die van belang zijn (de helft mag uitvallen).

Mark17
23/10/12, 21:07
Je kunt kiezen voor Ceph, Swift, OCFS2 of GFS.

Zie ook http://en.wikipedia.org/wiki/Shared_disk_file_system

Je hebt ook de mogelijk om master-master te gebruiken bij DRBD. Maar daar heb ik zelf geen goed gevoel bij.

GFS ga ik zo nog even mee bezig om te kijken of dat doet wat we zoeken (ik hoop het). We zitten nog met 1 structurele SPOF die we op het eerste gezicht hiermee kunnen wegnemen, we hebben al een block device dat we vanaf alle apparaten tegelijk kunnen benaderen.

Mark17
23/10/12, 21:10
Ceph en RBD, daar zou ik naar kijken! ;)

Ga ik op/na 2 november ook zeker over nadenken. Enkel heeft het (voor zover ik tot nu toe gezien heb) in dit geval niet de voorkeur.

Pantsy
23/10/12, 21:55
Storage zelf is al redundant via het netwerk (enige nadeel is geen NFS, dus een bestandssysteem dat tegen meerdere hosts die lees/schrijfacties uitvoeren is in dit geval vereist en kan ik nog niet vinden). Storage bestaat in ons geval uit 4 machines die van belang zijn (de helft mag uitvallen).

Ik denk dat je dan iets te complex denkt... je schrijft het op 1 node weg, die synced naar de andere nodes real time. Door middel van network bonding word er on the fly naar een andere node omgeschakeld en je data is overal compleet en intact. Dit is in een nutshell wat lefthand doet, dit wil jij ook als ik het zo lees.

Op elke node staat exact dezelfde data, in een cluster van 10 nodes mogen er 5 wegvallen en alles blijft nog up and running. OS heeft er geen last van, geen data loss. Bij 6 nodes die uitvallen word het cluster stopgezet en heb je nog steeds geen data loss.

Mark17
24/10/12, 00:14
Ik denk dat je dan iets te complex denkt... je schrijft het op 1 node weg, die synced naar de andere nodes real time. Door middel van network bonding word er on the fly naar een andere node omgeschakeld en je data is overal compleet en intact. Dit is in een nutshell wat lefthand doet, dit wil jij ook als ik het zo lees.

Op elke node staat exact dezelfde data, in een cluster van 10 nodes mogen er 5 wegvallen en alles blijft nog up and running. OS heeft er geen last van, geen data loss. Bij 6 nodes die uitvallen word het cluster stopgezet en heb je nog steeds geen data loss.

Dat deel hebben we al geregeld binnen het storage deel. Echter moet ik met NFS er nog een server bij tussen zetten die enkel is uitgevoerd om het te kunnen bereiken (en ik wil eigenlijk elk enkel uitgevoerd onderdeel er uit halen voor zover het van belang is voor de beschikbaarheid van de websites). Het schijven deel van de storage is al geregeld, ik ben nu bezig om uit te werken hoe ik het deel ervoor het beste kan doen.

Mark17
24/10/12, 15:51
Met GFS2 als bestandssysteem is het laatste deel dat nog ontbrak opgelost voor de webservers. De webservers werken nu zonder SPOF (nu MySQL/FTP/email nog).