Allen,
Ik ben al dagen de haren uit mijn hoofd aan het trekken dus mogelijk dat iemand hier nog een idee heeft voordat ik echt kaal ben. Ik heb een CEPH cluster op basis 4 servers ieder met 10 SATA en 2 SSD schijven. Hiernaast nog 2 SSD voor het OS zelf.
Ik heb pools aangemaakt:
Ik heb de pool_cache als write-back overlay gezet (voor pool_data). Dit werkt. Als ik naar het verbruik kijk lijkt alles goed:Code:wipa@CEPH-OSD-01:~$ ceph osd lspools 0 rbd,1 pool_cache,2 pool_data,
Maar kijk ik nu naar health detail:Code:wipa@CEPH-OSD-01:~$ ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 115T 109T 5975G 5.05 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 0 0 0 55341G 0 pool_cache 1 512G 0.87 94758M 133864 pool_data 2 2469G 4.17 55341G 636475
en:Code:HEALTH_WARN 2 near full osd(s) osd.0 is near full at 85% osd.44 is near full at 85%
Ik vind het vreemd dat osd.0 en osd.44 deze warning geven zeker omdat ze niet de zelfde weight hebben.Code:ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -11 1.27800 root ssd -9 1.27800 rack 6_13_24-SSD -8 0.42599 host CEPH-OSD-01-CACHE 2 0.21300 osd.2 up 1.00000 1.00000 44 0.21300 osd.44 up 0.95001 1.00000 -6 0.42599 host CEPH-OSD-03-CACHE 0 0.21300 osd.0 up 1.00000 1.00000 6 0.21300 osd.6 up 0.79999 1.00000 -7 0.42599 host CEPH-OSD-04-CACHE 1 0.21300 osd.1 up 0.79999 1.00000 7 0.21300 osd.7 up 0.79999 1.00000
Iemand enig idee ?