Bekijk Volledige Versie : MooseFS released versie 1.6.24
Moosefs heeft onlangs een nieuwe versie gereleased (versie 1.6.24), na een flinke tijd van stilte. Er zitten een aantal verbeteringen in die wel de moeite waard zijn, oa: rack awareness en beveiliging tegen metadata verlies bij een volle disk
http://www.moosefs.org/news-reader/items/moose-file-system-v-1624-released.html
Het lijkt alsof het project een nieuwe impuls heeft gekregen, met een nieuwe roadmap een een commerciele support mogelijkheid door Core Technology. Core Technology lijkt opgericht te zijn door een aantal mensen van de originele makers Gemius, maar daar kan ik verder niet zo veel van vinden, misschien heeft iemand hier daar meer over gehoord?
Blijft leuk, tijden terug eens mee gespeeld, maar ik baalde van die enkele metadata server.
Je kan wel een logger opzetten er naast, maar je bent wel even down, zeker als je log groot wordt.
Ik ben en blijf een Ceph fan, maar ik denk dat MooseFS voor bepaalde situaties best kan werken.
Iemand het al in productie draaiend?
Jep, de enkele metadata server is wel een nadeel, maar ik vind het allemaal wel lekker overzichtelijk vergeleken met Ceph. Heb MooseFS een paar keer getest als storage platform voor VPS images. Dat had een redelijke performance en tijdens de tests ook geen enkel probleem gehad met FUSE.
In theorie ziet Ceph er beter uit, en de ontwikkeling gaat gestaag door en lijkt redelijk stabiel nu. De laatste disk format changes zijn al weer een tijdje geleden. Ik weet eigenlijk niet of er nog disk format changes op de planning staan. Dat is voor mij wel een reden om productie nog even uit te stellen. Ik volg het nu zo'n beetje 2 jaar sinds de client in de linux kernel is opgenomen. Ik heb er een tijd geleden een paar keer mee gespeeld, maar wacht nog even met toepassing in productie totdat ze dat zelf ook vertrouwd vinden.
Ben wel van plan om komend kwartaal weer een testje te gaan doen om weer eens met een recente versie te kijken en eens een performance vergelijking te doen tussen Ceph en Moosefs. Voorlopig ben ik nog fan van beiden :).
Ceph is gewoon een stuk complexer en kan ook véél grotere omgevingen aan.
Ik moet MooseFS wellicht nog eens gaan testen, maar iets met tijd enzo?
Wij hebben paar mooseFS setups in productie. Lijkt so far goed te gaan. Wel onthouden dat het een zeer grote block size heeft!
MooseFS zien wij vooral als een vervanging voor Gluster-setups (als je je data kwijt wil, dan kan je gluster inzetten, prima technologie daarvoor...).
Ik gebruik MooseFS prive om mijn belangrijke data over een aantal geografisch gescheiden VPS'en te verspreiden. Zijn belachelijk goedkope VPS'en, maar dat maakt weinig uit, want ik draai 3 copies. Als er eentje uitvalt is er niks aan de hand. Qua stabiliteit heb ik gewoon 0 problemen. Het werkt altijd perfect. Fijn is ook dat er al een CGI webinterface bij zit, waar je de status van belangrijke dingen kunt bekijken, inclusief leuke grafiekjes.
Voor storage binnen het bedrijf waar ik werk heb ik er ook wel eens naar gekeken. Grootste probleem daarbij is de eerder genoemde enkele master. Je kunt wel een master failover doen naar een server waar je een metadata backup hebt lopen, maar ik heb toch het gevoel dat dat iets is waar ik zelf controle over wil hebben, ipv dat dat een automatisch proces zou zijn.
Ik heb bij MooseFS ook een beetje mijn twijfels over de snelheid van veel metadata acties icm de metadata backup servers. Dus bijvoorbeeld als je verschrikkelijk veel kleine bestanden aanmaakt of juist verwijdert. Heeft iemand dat toevallig al eens getest? Want dat is wel interessant voor bijv. een mail cluster.
Ik zou er zowiezo geen mail cluster op draaien, gezien de heel grote blocksize. Je gaat een pak plek verliezen bij een typische mailsetup waarbij je 1 file per mail hebt
Dat is wel waar inderdaad. Maar goed, stel je doet heel veel wijzigingen op grote files (bijv. VM's die je op MooseFS hebt staan) dan vraag ik me nog wel af wat de performance van MooseFS gaat zijn. Ik kan het hier jammer genoeg niet even simpel testen in een wat grotere setup.
Dat is wel waar inderdaad. Maar goed, stel je doet heel veel wijzigingen op grote files (bijv. VM's die je op MooseFS hebt staan) dan vraag ik me nog wel af wat de performance van MooseFS gaat zijn. Ik kan het hier jammer genoeg niet even simpel testen in een wat grotere setup.Is dat niet afhankelijk van de blocksize binnen de VM? Een grote file betekend niet altijd dat je blocks die je wijzigt ook direct groot zijn.
Als er binnen de VM allemaal hele kleine writes worden gedaan merk je dat op je onderliggende storage ook nog.
Ik zou er zowiezo geen mail cluster op draaien, gezien de heel grote blocksize. Je gaat een pak plek verliezen bij een typische mailsetup waarbij je 1 file per mail hebt
Je kan ook een onefile filesystem creeeren waarbij je van te voren de kleinere bs aangeeft. Deze is te mounten, en neemt op je grote blocksize zijn volwaardige ruimte in, maar de interne blocksizes verpesten niet de grote :)
Is dat niet afhankelijk van de blocksize binnen de VM? Een grote file betekend niet altijd dat je blocks die je wijzigt ook direct groot zijn.
Als er binnen de VM allemaal hele kleine writes worden gedaan merk je dat op je onderliggende storage ook nog.
Zal hoogstwaarschijnlijk van invloed zijn. Ik vraag me alleen af hoe MooseFS dat trekt qua performance. Zeker als je ook een extra metadata server draait, betekent het dus dat 2 (of meer) chunkserver de wijziging moeten gaan opslaan en dus de metadata ook dubbel wordt afgehandeld. Dat zijn wel wat meer handelingen vergeleken met storage op een SAN of DRBD.
Eigenlijk moet ik het gewoon gaan testen :)