Debian

Raid 1 硬體故障 - 新硬體 MDADM - 如何恢復

  • March 14, 2022

我有一個 NAS,但硬體出現故障。我把它放在一個全新的機器和硬體中——這是一個帶有 MDADM 的標準 sata 埠上的軟體突襲。移動了兩個磁碟 - Raid1。大約有十億個文章,但大多數似乎都是意見。

德班 OMV 6

這是狀態:

mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
df
Filesystem     1K-blocks    Used Available Use% Mounted on
udev            16215324       0  16215324   0% /dev
tmpfs            3246744    2780   3243964   1% /run
/dev/nvme0n1p2 981876212 2164156 929761748   1% /
tmpfs           16233712       0  16233712   0% /dev/shm
tmpfs               5120       0      5120   0% /run/lock
/dev/nvme0n1p1    523248    3484    519764   1% /boot/efi
tmpfs           16233712       0  16233712   0% /tmp
tmpfs            3246740       0   3246740   0% /run/user/1000
lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda           8:0    0   7.3T  0 disk
└─md127       9:127  0   7.3T  0 raid1
sdb           8:16   0   7.3T  0 disk
└─md127       9:127  0   7.3T  0 raid1
nvme0n1     259:0    0 953.9G  0 disk
├─nvme0n1p1 259:1    0   512M  0 part  /boot/efi
├─nvme0n1p2 259:2    0 952.4G  0 part  /
└─nvme0n1p3 259:3    0   977M  0 part  [SWAP]
mdadm --detail /dev/md127
/dev/md127:
          Version : 1.2
    Creation Time : Tue May 25 12:04:21 2021
       Raid Level : raid1
       Array Size : 7813894464 (7451.91 GiB 8001.43 GB)
    Used Dev Size : 7813894464 (7451.91 GiB 8001.43 GB)
     Raid Devices : 2
    Total Devices : 2
      Persistence : Superblock is persistent

    Intent Bitmap : Internal

      Update Time : Thu Mar  3 07:04:07 2022
            State : clean
   Active Devices : 2
  Working Devices : 2
   Failed Devices : 0
    Spare Devices : 0

Consistency Policy : bitmap

             Name : helios64:H64
             UUID : 50a5d620:6b4f3ca9:624622fd:7b786dff
           Events : 35118

   Number   Major   Minor   RaidDevice State
      0       8        0        0      active sync   /dev/sda
      1       8       16        1      active sync   /dev/sdb
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md127 : active (auto-read-only) raid1 sdb[1] sda[0]
     7813894464 blocks super 1.2 [2/2] [UU]
     bitmap: 0/59 pages [0KB], 65536KB chunk
blkid
/dev/nvme0n1p1: UUID="7DAA-51D0" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="589937f6-c05c-4b6b-b3a7-c4a069e7c752"
/dev/nvme0n1p2: UUID="603d2633-6e9f-48f0-b9ac-25f4e0009404" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="c93a0c02-c9cb-4d2c-a945-83b548da7176"
/dev/nvme0n1p3: UUID="096b416d-447c-475e-9f3a-feb38405ed52" TYPE="swap" PARTUUID="2d539d95-f0b9-4f57-86db-a98f7c081b85"
/dev/sda: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="fa9dbb6b-980d-c393-12b0-6ef6b0f9da17" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/sdb: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="23ccb86c-9517-2574-c8dd-78f588517fa6" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/md127: LABEL="H64" UUID="42a00ab6-37fb-4d90-bba4-5d1d2321d75a" BLOCK_SIZE="4096" TYPE="ext4"

來自 OMV 在此處輸入圖像描述

在此處輸入圖像描述

好的 - 對我來說,如果我覺得我唯一需要做的就是安裝驅動器?我不想塞滿,這些只是插入它們的結果。

乾杯

對我來說一切都很好,除了創建一個掛載點目錄並將 RAID 卷掛載到它之外,別無他法。就像是:

# mkdir /srv/data 
# mount /dev/md127 /srv/data

如果系統打算用作網路共享,那麼您需要配置和執行一些網路文件系統。

如果你想讓 raid 在啟動時永久掛載,你必須將你的新記錄寫入/etc/mdadm/mdadm.conf(閱讀手冊頁mdadm)然後執行

# update-initramfs -u

這使 raid 陣列在重新啟動後立即可用,您可以將掛載記錄添加到 中/etc/fstab,例如:

LABEL=H64 /srv/data ext4 rw,realtime 0 0

如果出現問題,/var/log/syslog請先諮詢。如果您對 RAID1 的一致性有疑問,可能會按照答案中的說明進行一些檢查。

引用自:https://unix.stackexchange.com/questions/694296