Debian
如何修復 mdadm:inactive RAID1 陣列,在這兩種情況下拔掉一個驅動器後?
TL;博士
當然,在兩種情況下拔下驅動器之一併將它們從+ 更新中
mdadm
註釋掉後,我需要從 / 到 2 個 RAID1 陣列讀取和寫入。/etc/mdadm/mdadm.conf``initramfs
系統
作業系統:GNU/Linux Debian 9 (Stretch),完全更新。
MD :
mdadm
RAID1 中的 2 個陣列,這兩個陣列都在啟動時出現,如下所示。HW
mdadm
:從兩個陣列中拔下 RAID1 中的一個驅動器。在啟動時,它們都被視為
inactive
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : inactive sdc1[1](S) 1953382471 blocks super 1.2 md1 : inactive sdb1[1](S) 976630471 blocks super 1.2 unused devices: <none>
解釋
我故意在以下位置註釋掉這些數組
/etc/mdadm/mdadm.conf
:# newer drives | 2 TB #ARRAY /dev/md0 metadata=1.2 name=server:0 UUID=<Array UUID #0> # older drives | 1 TB #ARRAY /dev/md1 metadata=1.2 name=server:1 UUID=<Array UUID #1>
最後,我
initramfs
在重啟前更新如下:# update-initramfs -u
問題
暫時說,此時我如何使兩個數組都處於活動狀態和可寫狀態?
首先,您需要停止這些數組:
**```
mdadm –stop /dev/md127 && mdadm –stop /dev/md1
你應該看到: > > > ``` > mdadm: stopped /dev/md127 > mdadm: stopped /dev/md1 > > ``` > > --- 然後,您需要再次組裝它們: **``` # mdadm --assemble --scan
你應該看到:
mdadm: /dev/md/1 has been started with 1 drive (out of 2). mdadm: /dev/md/0 has been started with 1 drive (out of 2).
讓我們看看,我們現在有什麼:
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active (auto-read-only) raid1 sdc1[1] 1953382464 blocks super 1.2 [2/1] [_U] bitmap: 0/15 pages [0KB], 65536KB chunk md1 : active (auto-read-only) raid1 sdb1[1] 976630464 blocks super 1.2 [2/1] [_U] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none>
所以,我們基本上完成了,除了數組是只讀的。
我們可以使用以下命令解決這個問題:
**```
mdadm –readwrite /dev/md[01]
如果命令成功,您現在應該什麼也看不到,您可以簡單地再次驗證:
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdc1[1] 1953382464 blocks super 1.2 [2/1] [_U] bitmap: 0/15 pages [0KB], 65536KB chunk
md1 : active raid1 sdb1[1] 976630464 blocks super 1.2 [2/1] [_U] bitmap: 0/8 pages [0KB], 65536KB chunk
unused devices: <none>