Allen,

Ik ben al dagen de haren uit mijn hoofd aan het trekken dus mogelijk dat iemand hier nog een idee heeft voordat ik echt kaal ben. Ik heb een CEPH cluster op basis 4 servers ieder met 10 SATA en 2 SSD schijven. Hiernaast nog 2 SSD voor het OS zelf.

Ik heb pools aangemaakt:
Code:
wipa@CEPH-OSD-01:~$ ceph osd lspools
0 rbd,1 pool_cache,2 pool_data,
Ik heb de pool_cache als write-back overlay gezet (voor pool_data). Dit werkt. Als ik naar het verbruik kijk lijkt alles goed:
Code:
wipa@CEPH-OSD-01:~$ ceph df
GLOBAL:
    SIZE     AVAIL     RAW USED     %RAW USED
    115T      109T        5975G          5.05
POOLS:
    NAME           ID     USED      %USED     MAX AVAIL     OBJECTS
    rbd            0          0         0        55341G           0
    pool_cache     1       512G      0.87        94758M      133864
    pool_data      2      2469G      4.17        55341G      636475
Maar kijk ik nu naar health detail:
Code:
HEALTH_WARN 2 near full osd(s)
osd.0 is near full at 85%
osd.44 is near full at 85%
en:
Code:
ID  WEIGHT    TYPE NAME                      UP/DOWN REWEIGHT PRIMARY-AFFINITY
-11   1.27800 root ssd
 -9   1.27800     rack 6_13_24-SSD
 -8   0.42599         host CEPH-OSD-01-CACHE
  2   0.21300             osd.2                   up  1.00000          1.00000
 44   0.21300             osd.44                  up  0.95001          1.00000
 -6   0.42599         host CEPH-OSD-03-CACHE
  0   0.21300             osd.0                   up  1.00000          1.00000
  6   0.21300             osd.6                   up  0.79999          1.00000
 -7   0.42599         host CEPH-OSD-04-CACHE
  1   0.21300             osd.1                   up  0.79999          1.00000
  7   0.21300             osd.7                   up  0.79999          1.00000
Ik vind het vreemd dat osd.0 en osd.44 deze warning geven zeker omdat ze niet de zelfde weight hebben.

Iemand enig idee ?