Debian
lsblk 和 df 之間的磁碟大小不匹配
我最近用一組兩個 4TB raid 1 磁碟升級了兩個 soft raid1 2TB 磁碟。(請參閱用更大的磁碟替換軟 RAID1 LUKS 磁碟)該指南很棒,但是我發現自己的大小有兩個不同的結果,我不知道是否相信
df -h
。請專注於驅動器
/dev/mapper/backup
又名/media/backup``md4
root@SRVR:~$ df -h Filesystem Size Used Avail Use% Mounted on udev 13G 0 13G 0% /dev tmpfs 2.6G 888K 2.6G 1% /run /dev/md127 117G 8.3G 103G 8% / tmpfs 13G 4.0K 13G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock /dev/mapper/4tb 3.6T 2.3T 1.2T 67% /media/4tb /dev/mapper/3tb 2.7T 855G 1.8T 33% /media/3tb /dev/mapper/vm 1.8T 97G 1.7T 6% /media/vm /dev/mapper/backup 1.8T 1.5T 238G 87% /media/backup
或相信
lsblk
:root@SRVR:~$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 3.6T 0 disk `-sda1 8:1 0 3.6T 0 part `-md4 9:4 0 3.6T 0 raid1 `-4tb 253:1 0 3.6T 0 crypt /media/4tb sdb 8:16 0 3.6T 0 disk `-sdb1 8:17 0 3.6T 0 part `-md4 9:4 0 3.6T 0 raid1 `-4tb 253:1 0 3.6T 0 crypt /media/4tb sdc 8:32 0 119.2G 0 disk `-sdc1 8:33 0 119.2G 0 part `-md127 9:127 0 119.2G 0 raid1 / sdd 8:48 0 119.2G 0 disk `-sdd1 8:49 0 119.2G 0 part `-md127 9:127 0 119.2G 0 raid1 / sde 8:64 0 465.8G 0 disk `-sde1 8:65 0 465.8G 0 part `-md0 9:0 0 465.6G 0 raid1 sdf 8:80 0 2.7T 0 disk `-sdf1 8:81 0 2.7T 0 part `-3tb 253:2 0 2.7T 0 crypt /media/3tb sdg 8:96 1 1.8T 0 disk `-sdg1 8:97 1 1.8T 0 part `-md1 9:1 0 1.8T 0 raid1 `-vm 253:3 0 1.8T 0 crypt /media/vm sdh 8:112 1 3.6T 0 disk `-sdh1 8:113 1 3.6T 0 part `-md2 9:2 0 3.6T 0 raid1 `-backup 253:0 0 3.6T 0 crypt /media/backup sdi 8:128 1 1.8T 0 disk `-sdi1 8:129 1 1.8T 0 part `-md1 9:1 0 1.8T 0 raid1 `-vm 253:3 0 1.8T 0 crypt /media/vm sdj 8:144 1 3.6T 0 disk `-sdj1 8:145 1 3.6T 0 part `-md2 9:2 0 3.6T 0 raid1 `-backup 253:0 0 3.6T 0 crypt /media/backup
並相信
mdadm
:root@SRVR:~$ mdadm -D /dev/md4 /dev/md4: Version : 1.2 Creation Time : Tue Oct 20 00:17:12 2020 Raid Level : raid1 Array Size : 3906885440 (3725.90 GiB 4000.65 GB) Used Dev Size : 3906885440 (3725.90 GiB 4000.65 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Fri Dec 10 16:00:12 2021 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : GC01SRVR:4 (local to host GC01SRVR) UUID : 18dfa172:e97bd6ce:9e379633:0e8a0f28 Events : 57617 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1
我的猜測是 lsblk 報告設備中的空閒塊,其中 df 報告使用的文件系統的一部分。
要確定您的不同軟體 RAID 的結構,您應該提供類似的
/proc/mdstat
視圖cat /proc/mdstat
然後與
lvs -o +devices
以確保自己正確的捲與正確的 RAID 設備相關。如果仍然存在差異,則可能是因為設備上使用的文件系統(尚未)適應設備,就像您忘記根據新設備大小擴展或調整文件系統大小一樣。您可以使用正確的工具來執行此操作,具體取決於您使用的文件系統。通常用於 ext 系列文件系統,您可以使用
resize2fs /dev/mapper/backup
而對於 xfs 你應該使用 xfs_growfs
xfs_growfs /dev/mapper/backup
btrfs 或 zfs 有自己的命令來調整大小,我讓你檢查一下你的文件系統是什麼。