Raid
mdadm 軟體突襲問題
希望有人能幫忙!以前從未使用過軟體 RAID,我注意到 2 磁碟 RAID 1 顯示為降級
$$ U_ $$:
# cat /proc/mdstat Personalities : [raid1] md1 : active raid1 sda3[0] 3905836032 blocks super 1.2 [2/1] [U_] bitmap: 29/30 pages [116KB], 65536KB chunk md0 : active raid1 sda2[0] 1046528 blocks super 1.2 [2/1] [U_] bitmap: 1/1 pages [4KB], 65536KB chunk unused devices: <none>
我無法確定磁碟是否出現故障或發生了什麼。兩個磁碟都是可見的,並且可以使用 smartctl 進行測試。
這是 mdadm –detail 輸出:
# mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Mon Sep 9 17:04:24 2019 Raid Level : raid1 Array Size : 1046528 (1022.00 MiB 1071.64 MB) Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Tue Sep 10 16:01:36 2019 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : xxx:0 (local to host xxx) UUID : 40713c03:b0a45738:aae59e3a:541556fe Events : 117 Number Major Minor RaidDevice State 0 8 2 0 active sync /dev/sda2 - 0 0 1 removed # mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : Mon Sep 9 17:03:48 2019 Raid Level : raid1 Array Size : 3905836032 (3724.90 GiB 3999.58 GB) Used Dev Size : 3905836032 (3724.90 GiB 3999.58 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent Intent Bitmap : Internal Update Time : Tue Sep 10 16:51:52 2019 State : active, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Consistency Policy : bitmap Name : xxx:1 (local to host xxx) UUID : c76c221f:33fff959:e95e90d6:f350c30b Events : 71886 Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 - 0 0 1 removed
我知道我可以重新同步陣列,但我什至不清楚缺少什麼。
感謝您的任何建議!
–
編輯 - 在接受斯蒂芬斯的建議後,它現在看起來像這樣:
我想如果我能看到它過去的樣子會有所幫助..
執行這些命令後看起來像這樣:
# mdadm --detail /dev/md0 Number Major Minor RaidDevice State 0 8 2 0 active sync /dev/sda2 1 8 18 1 active sync /dev/sdb2 # mdadm --detail /dev/md1 Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sda3 1 8 19 1 spare rebuilding /dev/sdb3
看起來已經解決了這個問題:)
缺少的是第二張磁碟。兩個 MD 設備都在 上使用分區
/dev/sda
,並且大概他們曾經在另一台設備上擁有鏡像…你有另一個磁碟嗎?它還在工作嗎?
一旦你弄清楚情況是什麼,或者確認現有磁碟正在工作,或者更換它(並再次創建分區),你應該使用
sudo mdadm --add /dev/md0 /dev/sdb2
和
sudo mdadm --add /dev/md1 /dev/sdb3
將數組恢復到它們的標稱狀態。