GerBra(offline) schrieb
Zum Vergleich mal die df Ausgabe von meinem Btrfs-System, was schon einige Jahre läuft, nur als Anhalt:
...
Ich werde die Tage hier mal mit 5% und mit realistischeren 50-70% testen, wie sich ggf., used= und total= gegenüber darstellen nach dem Balancing.
Das habe ich nun mal gemacht, hier das Ergebniss:
# btrfs file df -g --si /
Data, RAID1: total=1162.86GB, used=1160.04GB
System, RAID1: total=0.04GB, used=0.00GB
Metadata, RAID1: total=3.22GB, used=1.58GB
GlobalReserve, single: total=0.54GB, used=0.00GB
---------------------------
# time btrfs balance start -dusage=5 /
Done, had to relocate 0 out of 1088 chunks
real<-->0m0.748s
user<-->0m0.000s
sys<--->0m0.137s
----------------------------
# time btrfs balance start -dusage=50 /
Done, had to relocate 2 out of 1088 chunks
real<-->0m26.539s
user<-->0m0.000s
sys<--->0m4.667s
# btrfs file df -g --si /
Data, RAID1: total=1161.79GB, used=1160.04GB
System, RAID1: total=0.01GB, used=0.00GB
Metadata, RAID1: total=3.22GB, used=1.58GB
GlobalReserve, single: total=0.54GB, used=0.00GB
----------------------------------
# time btrfs balance start -musage=75 -dusage=75 /
Done, had to relocate 4 out of 1086 chunks
real<-->1m31.653s
user<-->0m0.010s
sys<--->0m14.093s
# btrfs file df -g --si /
Data, RAID1: total=1161.79GB, used=1160.04GB
System, RAID1: total=0.03GB, used=0.00GB
Metadata, RAID1: total=3.22GB, used=1.58GB
GlobalReserve, single: total=0.54GB, used=0.00GB
Bei usage=5 - wie erwartet<g> - Null Effekt (0 chunks), die anderen Läufe brachten mir jetzt keine wesentliche Änderungen. Zumindest keine, die mich an diesem System veranlassen würden, den 75%-Balance-Lauf irgendwie periodisch z.B. im nächsten Monat wiederholen zu wollen.
Mein System wird dient hauptsächlich als $HOME für meine Clients und als VideoDiskRecorder(VDR) und Massengrab für Filme. Die Datenveränderungen bewegen sich pro Tag eher im (kleiner ~10)Gigabyte-Bereich, und das verwaltet Btrfs wohl vorab schon "intelligent". Anders kann sich das wieder auf Systemen darstellen, die z.B. Änderungen im TB-Bereich haben (und halt auch kein raid1 aus 2 Devices).
Zu den Tests mit dem "Ausgangsproblem": Schaue ich die nächsten Tage mal, bin mir aber aus den bisherigen schon angeführten Dingen sicher, daß zweite/dritte zusätzliche Btrfs-Volumegroups/Pools - von denen *nicht* gebootet wird - "ausfallsicher" nur außerhalb der /etc/fstab handhabbar wären. Zum Btrfs-Status-Skript habe ich bisher nur "Ideen" *wie*, aber noch nichts *gemacht* ;-)