Debian

lsblk 和 df 之間的磁碟大小不匹配

  • December 13, 2021

我最近用一組兩個 4TB raid 1 磁碟升級了兩個 soft raid1 2TB 磁碟。(請參閱用更大的磁碟替換軟 RAID1 LUKS 磁碟)該指南很棒,但是我發現自己的大小有兩個不同的結果,我不知道是否相信df -h

請專注於驅動器/dev/mapper/backup又名/media/backup``md4

root@SRVR:~$ df -h
Filesystem          Size  Used Avail Use% Mounted on
udev                 13G     0   13G   0% /dev
tmpfs               2.6G  888K  2.6G   1% /run
/dev/md127          117G  8.3G  103G   8% /
tmpfs                13G  4.0K   13G   1% /dev/shm
tmpfs               5.0M     0  5.0M   0% /run/lock
/dev/mapper/4tb     3.6T  2.3T  1.2T  67% /media/4tb
/dev/mapper/3tb     2.7T  855G  1.8T  33% /media/3tb
/dev/mapper/vm      1.8T   97G  1.7T   6% /media/vm
/dev/mapper/backup  1.8T  1.5T  238G  87% /media/backup

或相信lsblk

root@SRVR:~$ lsblk
NAME         MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda            8:0    0   3.6T  0 disk  
`-sda1         8:1    0   3.6T  0 part  
 `-md4        9:4    0   3.6T  0 raid1 
   `-4tb    253:1    0   3.6T  0 crypt /media/4tb
sdb            8:16   0   3.6T  0 disk  
`-sdb1         8:17   0   3.6T  0 part  
 `-md4        9:4    0   3.6T  0 raid1 
   `-4tb    253:1    0   3.6T  0 crypt /media/4tb
sdc            8:32   0 119.2G  0 disk  
`-sdc1         8:33   0 119.2G  0 part  
 `-md127      9:127  0 119.2G  0 raid1 /
sdd            8:48   0 119.2G  0 disk  
`-sdd1         8:49   0 119.2G  0 part  
 `-md127      9:127  0 119.2G  0 raid1 /
sde            8:64   0 465.8G  0 disk  
`-sde1         8:65   0 465.8G  0 part  
 `-md0        9:0    0 465.6G  0 raid1 
sdf            8:80   0   2.7T  0 disk  
`-sdf1         8:81   0   2.7T  0 part  
 `-3tb      253:2    0   2.7T  0 crypt /media/3tb
sdg            8:96   1   1.8T  0 disk  
`-sdg1         8:97   1   1.8T  0 part  
 `-md1        9:1    0   1.8T  0 raid1 
   `-vm     253:3    0   1.8T  0 crypt /media/vm
sdh            8:112  1   3.6T  0 disk  
`-sdh1         8:113  1   3.6T  0 part  
 `-md2        9:2    0   3.6T  0 raid1 
   `-backup 253:0    0   3.6T  0 crypt /media/backup
sdi            8:128  1   1.8T  0 disk  
`-sdi1         8:129  1   1.8T  0 part  
 `-md1        9:1    0   1.8T  0 raid1 
   `-vm     253:3    0   1.8T  0 crypt /media/vm
sdj            8:144  1   3.6T  0 disk  
`-sdj1         8:145  1   3.6T  0 part  
 `-md2        9:2    0   3.6T  0 raid1 
   `-backup 253:0    0   3.6T  0 crypt /media/backup

並相信mdadm

root@SRVR:~$ mdadm -D /dev/md4
/dev/md4:
          Version : 1.2
    Creation Time : Tue Oct 20 00:17:12 2020
       Raid Level : raid1
       Array Size : 3906885440 (3725.90 GiB 4000.65 GB)
    Used Dev Size : 3906885440 (3725.90 GiB 4000.65 GB)
     Raid Devices : 2
    Total Devices : 2
      Persistence : Superblock is persistent

    Intent Bitmap : Internal

      Update Time : Fri Dec 10 16:00:12 2021
            State : clean 
   Active Devices : 2
  Working Devices : 2
   Failed Devices : 0
    Spare Devices : 0

Consistency Policy : bitmap

             Name : GC01SRVR:4  (local to host GC01SRVR)
             UUID : 18dfa172:e97bd6ce:9e379633:0e8a0f28
           Events : 57617

   Number   Major   Minor   RaidDevice State
      0       8        1        0      active sync   /dev/sda1
      1       8       17        1      active sync   /dev/sdb1

我的猜測是 lsblk 報告設備中的空閒塊,其中 df 報告使用的文件系統的一部分。

要確定您的不同軟體 RAID 的結構,您應該提供類似的/proc/mdstat 視圖

cat /proc/mdstat

然後與

lvs -o +devices

以確保自己正確的捲與正確的 RAID 設備相關。如果仍然存在差異,則可能是因為設備上使用的文件系統(尚未)適應設備,就像您忘記根據新設備大小擴展或調整文件系統大小一樣。您可以使用正確的工具來執行此操作,具體取決於您使用的文件系統。通常用於 ext 系列文件系統,您可以使用

resize2fs /dev/mapper/backup

而對於 xfs 你應該使用 xfs_growfs

xfs_growfs /dev/mapper/backup

btrfs 或 zfs 有自己的命令來調整大小,我讓你檢查一下你的文件系統是什麼。

引用自:https://unix.stackexchange.com/questions/681061