おまけの質問:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
/etc/mdadm/mdadm.conf
で配列を手動で追加する必要があることがわかりました Linuxが再起動時にマウントするようにします。それ以外の場合は、ここにあるものを正確に取得します - md_d1
-非アクティブなデバイスなど
conf-file は以下のようになります - つまり、1 つの ARRAY
-各 md-device の行。私の場合、新しい配列がこのファイルにありませんでしたが、それらがリストされている場合、これはおそらく問題の修正にはなりません.
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d
md-device ごとに 1 つの配列を追加し、上記のコメントの後に追加するか、そのようなコメントが存在しない場合はファイルの末尾に追加します。 sudo mdadm -E --scan
を実行して UUID を取得します :
$ sudo mdadm -E --scan
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d
ご覧のとおり、スキャン結果の出力をファイルにコピーするだけです。
私はubuntuデスクトップ10.04 LTSを実行しています.この動作はUbuntuのサーバーバージョンとは異なることを覚えている限りですが、サーバー上にmd-devicesを作成したのはかなり前のことで、間違っている可能性があります.また、いくつかのオプションを見逃した可能性もあります。
とにかく、配列を conf-file に追加するとうまくいくようです。上記の RAID 1 と RAID 5 を何年も問題なく実行しています。
警告: まず最初に、(「--force」を使用しているため) 以下はリスクが高いように思われます。回復不能なデータがある場合は、何かを試す前に、関連するパーティションのコピーを作成することをお勧めします。下。しかし、これはうまくいきました。
アレイが非アクティブとして表示されるという同じ問題があり、ここで他の人が示唆したように、「mdadm --examine --scan>/etc/mdadm.conf」を含めて何もしませんでしたが、まったく役に立ちませんでした.
私の場合、ドライブの交換後に RAID-5 アレイを起動しようとしたときに、それがダーティーであると言っていました (dmesg
経由) ):
md/raid:md2: not clean -- starting background reconstruction
md/raid:md2: device sda4 operational as raid disk 0
md/raid:md2: device sdd4 operational as raid disk 3
md/raid:md2: device sdc4 operational as raid disk 2
md/raid:md2: device sde4 operational as raid disk 4
md/raid:md2: allocated 5334kB
md/raid:md2: cannot start dirty degraded array.
/proc/mdstat
で非アクティブとして表示されるようにする :
md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5]
3888504544 blocks super 1.2
交換したドライブ (/dev/sdb4
) を除いて、すべてのデバイスで同じイベントが発生していることがわかりました。 ):
[[email protected] sr]# mdadm -E /dev/sd*4 | grep Event
mdadm: No md superblock detected on /dev/sdb4.
Events : 8448
Events : 8448
Events : 8448
Events : 8448
ただし、アレイの詳細では、5 つのデバイスのうち 4 つが使用可能であることが示されました:
[[email protected] sr]# mdadm --detail /dev/md2
/dev/md2:
[...]
Raid Devices : 5
Total Devices : 4
[...]
Active Devices : 4
Working Devices : 4
[...]
Number Major Minor RaidDevice State
0 8 4 0 inactive dirty /dev/sda4
2 8 36 2 inactive dirty /dev/sdc4
3 8 52 3 inactive dirty /dev/sdd4
5 8 68 4 inactive dirty /dev/sde4
(上記は「状態」列のメモリからのもので、スクロールバック バッファには見つかりません)。
アレイを停止してから再組み立てすることで、これを解決できました:
mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[acde]4
その時点で、アレイは稼働しており、5 台のデバイスのうち 4 台で動作していました。交換用デバイスを追加することができ、再構築中です。問題なくファイル システムにアクセスできます。