Hallo allemaal,
Ik ben momenteel aan het testen om een zo'n goed mogelijke storage omgeving op te zetten om te gebruiken als SAN storage voor XEN.
Ik heb de DRBD optie van Wido overwogen, daarnaast ben ik door dit verhaal over ZFS (Leuke SAN) hier ook helemaal enthousiast over geworden.
Nu ben ik aan het testen met Solaris en ZFS, en moet ik zeggen dat het management van ZFS pools echt heel leuk werkt!
Nu wil ik HA storage opzetten om een 12 tal fysieke servers om te zetten naar virtuele XEN servers.
Uiteraard ben ik als de dood dat wanneer de storage uitvalt al mijn servers ineens down zijn, dus zoek ik naar een HA oplossing.
Helaas heb ik geen budget van 10 duizenden euros.
Sterker nog: mijn budget haalt de 4000 euro vermoedelijk niet eens.
Het mooie van de linux DRBD opstelling is het feit dat je op storage niveau een mirror hebt van je data. Een nadeel vind ik alleen dat alle disks daarin eigenlijk niks doen. (Ze bieden geen IOPS aan je storage netwerk.)
Dit allemaal in oogschauw nemend wil ik de volgende setup met jullie overleggen:
Nu heb ik een aantal prangende vragen!
Ik heb er een ander topic over gevonden,
maar daar vond ik niet een heel sterke reactie kunnen vinden met mensen die ervaring hebben.
1.
Op mijn Dom0 wil ik per VM LUN een RAID 1 mirror draaien tussen NAS1 & NAS2.
Nu begrijp ik dat dit bij writes een grotere capaciteit van je ip netwerk vereist, maar ht
voordeel in mijn optiek is een hoger aantal IOPS voor read's daar beide disk arrays aangesproken worden.
Wat is echter de consequentie van veel (10?) raid 1 mirrors over iSCSI voor de Dom0?
2. Heeft iemand ervaring met linux software raid over geexporteerde iSCSI ZFS blocks?
Ik vraag me af of ZFS niet zorgt dat de disks voor de software raid altijd out-of-sync lijken?
3. Weet iemand of de SSD cache ook effect heeft voor iSCSI exports?
Ik begrijp dat de ZIL (logging) er wel sneller van wordt, maar ik dacht te begrijpen
dat ZFS ook veel aangeroepde bestanden cachde om zo sneller te kunnen aanbieden.
Heeft deze cache ook effect op puur blockdevices?
4. Als al deze obstakels overwinbaar blijken, kom ik op de volgende afweging.
Is 500GB te hoog voor een mirrord SATA disk? Ik lees veel dat IOPS eerder het probleem zijn
dan diskspace, echter heb ik voor 500GB beschikbare data in deze setup 4 disks die de toevoer regelen.
( 2x SAN1 + 2x SAN2 ) Is het interssanter om in dit geval nog grotere disks te nemen?
5. Aansluitend op het vraagstuk hiervoor, kan ik nog snapshots maken als ik iSCSI lun's exporteer? Of heeft ZFS dan het ZFS filesystem nodig? (Dit heb ik nog niet kunnen testen.)
Al jullie feedback wordt uiteraard zeer gewaardeerd!
Ook m.b.t. systeemeisen voor een Solaris systeem;
ik denk zelf aan dual AMD met 4/8 GB geheugen.
Als het me lukt het live te krijgen ga ik uiteraard een mooie howto schrijven voor iedereen.
Ik wil op NAS1 en NAS2 ook een kleine NFS of cluster iscsi maken voor het management van de pool.
Dit om bij te houden welke Dom0 een DomU mag hosten.
Met vriendelijke groet,
Armand