Ok, ceph is (zoals zfs) slim genoeg om te kunnen omgaan met disk failures ed?
We hebben dus de volgende smaken:
- GlusterFS: draait boven op een filesystem, eenvoudig in richten. Mijn ervaring is dat de performance tegenvalt
- NFS via ZFS: ZFS stuurt disks rechtstreeks aan, maar alleen lokaal. Mirror (standby) ZFS server via ZFS sync, loopt telkens iets achter. Performance is goed. Wel 2 aparte storage bakken.
- Ceph: stuurt disks rechtstreeks aan en via netwerk. Geen aparte standby server nodig. Hoe meer disks/nodes hoe beter de performance. Kan op de hypervisor zelf, voorkeur is losse storage.
Dan zou ceph de beste keuze zijn?