Debian
Raid 1 硬體故障 - 新硬體 MDADM - 如何恢復
我有一個 NAS,但硬體出現故障。我把它放在一個全新的機器和硬體中——這是一個帶有 MDADM 的標準 sata 埠上的軟體突襲。移動了兩個磁碟 - Raid1。大約有十億個文章,但大多數似乎都是意見。
德班 OMV 6
這是狀態:
mdadm --assemble --scan mdadm: No arrays found in config file or automatically
df Filesystem 1K-blocks Used Available Use% Mounted on udev 16215324 0 16215324 0% /dev tmpfs 3246744 2780 3243964 1% /run /dev/nvme0n1p2 981876212 2164156 929761748 1% / tmpfs 16233712 0 16233712 0% /dev/shm tmpfs 5120 0 5120 0% /run/lock /dev/nvme0n1p1 523248 3484 519764 1% /boot/efi tmpfs 16233712 0 16233712 0% /tmp tmpfs 3246740 0 3246740 0% /run/user/1000
lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 7.3T 0 disk └─md127 9:127 0 7.3T 0 raid1 sdb 8:16 0 7.3T 0 disk └─md127 9:127 0 7.3T 0 raid1 nvme0n1 259:0 0 953.9G 0 disk ├─nvme0n1p1 259:1 0 512M 0 part /boot/efi ├─nvme0n1p2 259:2 0 952.4G 0 part / └─nvme0n1p3 259:3 0 977M 0 part [SWAP]
mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Tue May 25 12:04:21 2021 Raid Level : raid1 Array Size : 7813894464 (7451.91 GiB 8001.43 GB) Used Dev Size : 7813894464 (7451.91 GiB 8001.43 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Thu Mar 3 07:04:07 2022 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : helios64:H64 UUID : 50a5d620:6b4f3ca9:624622fd:7b786dff Events : 35118 Number Major Minor RaidDevice State 0 8 0 0 active sync /dev/sda 1 8 16 1 active sync /dev/sdb
cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md127 : active (auto-read-only) raid1 sdb[1] sda[0] 7813894464 blocks super 1.2 [2/2] [UU] bitmap: 0/59 pages [0KB], 65536KB chunk
blkid /dev/nvme0n1p1: UUID="7DAA-51D0" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="589937f6-c05c-4b6b-b3a7-c4a069e7c752" /dev/nvme0n1p2: UUID="603d2633-6e9f-48f0-b9ac-25f4e0009404" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="c93a0c02-c9cb-4d2c-a945-83b548da7176" /dev/nvme0n1p3: UUID="096b416d-447c-475e-9f3a-feb38405ed52" TYPE="swap" PARTUUID="2d539d95-f0b9-4f57-86db-a98f7c081b85" /dev/sda: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="fa9dbb6b-980d-c393-12b0-6ef6b0f9da17" LABEL="helios64:H64" TYPE="linux_raid_member" /dev/sdb: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="23ccb86c-9517-2574-c8dd-78f588517fa6" LABEL="helios64:H64" TYPE="linux_raid_member" /dev/md127: LABEL="H64" UUID="42a00ab6-37fb-4d90-bba4-5d1d2321d75a" BLOCK_SIZE="4096" TYPE="ext4"
好的 - 對我來說,如果我覺得我唯一需要做的就是安裝驅動器?我不想塞滿,這些只是插入它們的結果。
乾杯
對我來說一切都很好,除了創建一個掛載點目錄並將 RAID 卷掛載到它之外,別無他法。就像是:
# mkdir /srv/data # mount /dev/md127 /srv/data
如果系統打算用作網路共享,那麼您需要配置和執行一些網路文件系統。
如果你想讓 raid 在啟動時永久掛載,你必須將你的新記錄寫入
/etc/mdadm/mdadm.conf
(閱讀手冊頁mdadm
)然後執行# update-initramfs -u
這使 raid 陣列在重新啟動後立即可用,您可以將掛載記錄添加到 中
/etc/fstab
,例如:LABEL=H64 /srv/data ext4 rw,realtime 0 0
如果出現問題,
/var/log/syslog
請先諮詢。如果您對 RAID1 的一致性有疑問,可能會按照此答案中的說明進行一些檢查。