GNU/Linux >> Linux の 問題 >  >> Linux

非アクティブな RAID デバイスを再び動作させるにはどうすればよいですか?

おまけの質問:

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

/etc/mdadm/mdadm.conf で配列を手動で追加する必要があることがわかりました Linuxが再起動時にマウントするようにします。それ以外の場合は、ここにあるものを正確に取得します - md_d1 -非アクティブなデバイスなど

conf-file は以下のようになります - つまり、1 つの ARRAY -各 md-device の行。私の場合、新しい配列がこのファイルにありませんでしたが、それらがリストされている場合、これはおそらく問題の修正にはなりません.

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

md-device ごとに 1 つの配列を追加し、上記のコメントの後に追加するか、そのようなコメントが存在しない場合はファイルの末尾に追加します。 sudo mdadm -E --scan を実行して UUID を取得します :

$ sudo mdadm -E --scan
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=f10f5f96:106599e0:a2f56e56:f5d3ad6d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=aa591bbe:bbbec94d:a2f56e56:f5d3ad6d

ご覧のとおり、スキャン結果の出力をファイルにコピーするだけです。

私はubuntuデスクトップ10.04 LTSを実行しています.この動作はUbuntuのサーバーバージョンとは異なることを覚えている限りですが、サーバー上にmd-devicesを作成したのはかなり前のことで、間違っている可能性があります.また、いくつかのオプションを見逃した可能性もあります。

とにかく、配列を conf-file に追加するとうまくいくようです。上記の RAID 1 と RAID 5 を何年も問題なく実行しています。


警告: まず最初に、(「--force」を使用しているため) 以下はリスクが高いように思われます。回復不能なデータがある場合は、何かを試す前に、関連するパーティションのコピーを作成することをお勧めします。下。しかし、これはうまくいきました。

アレイが非アクティブとして表示されるという同じ問題があり、ここで他の人が示唆したように、「mdadm --examine --scan>/etc/mdadm.conf」を含めて何もしませんでしたが、まったく役に立ちませんでした.

私の場合、ドライブの交換後に RAID-5 アレイを起動しようとしたときに、それがダーティーであると言っていました (dmesg 経由) ):

md/raid:md2: not clean -- starting background reconstruction
md/raid:md2: device sda4 operational as raid disk 0
md/raid:md2: device sdd4 operational as raid disk 3
md/raid:md2: device sdc4 operational as raid disk 2
md/raid:md2: device sde4 operational as raid disk 4
md/raid:md2: allocated 5334kB
md/raid:md2: cannot start dirty degraded array.

/proc/mdstat で非アクティブとして表示されるようにする :

md2 : inactive sda4[0] sdd4[3] sdc4[2] sde4[5]
      3888504544 blocks super 1.2

交換したドライブ (/dev/sdb4) を除いて、すべてのデバイスで同じイベントが発生していることがわかりました。 ):

[[email protected] sr]# mdadm -E /dev/sd*4 | grep Event
mdadm: No md superblock detected on /dev/sdb4.
         Events : 8448
         Events : 8448
         Events : 8448
         Events : 8448

ただし、アレイの詳細では、5 つのデバイスのうち 4 つが使用可能であることが示されました:

[[email protected] sr]# mdadm --detail /dev/md2
/dev/md2:
[...]
   Raid Devices : 5
  Total Devices : 4
[...]
 Active Devices : 4
Working Devices : 4
[...]
    Number   Major   Minor   RaidDevice State
       0       8        4        0      inactive dirty  /dev/sda4
       2       8       36        2      inactive dirty  /dev/sdc4
       3       8       52        3      inactive dirty  /dev/sdd4
       5       8       68        4      inactive dirty  /dev/sde4

(上記は「状態」列のメモリからのもので、スクロールバック バッファには見つかりません)。

アレイを停止してから再組み立てすることで、これを解決できました:

mdadm --stop /dev/md2
mdadm -A --force /dev/md2 /dev/sd[acde]4

その時点で、アレイは稼働しており、5 台のデバイスのうち 4 台で動作していました。交換用デバイスを追加することができ、再構築中です。問題なくファイル システムにアクセスできます。


Linux
  1. Ubuntu 16.04で4:2:0で4k @ 60hzを使用するにはどうすればよいですか?

  2. ソフトウェア RAID アレイ (mdadm) で故障したミラー ディスクを交換する

  3. Bashの配列から一意の値を取得するにはどうすればよいですか?

  1. シンプルな mdadm RAID 1 がスペアをアクティブにしない

  2. RAID デバイスを停止できません

  3. Linux RAID5 アレイでまだ故障していないディスクを安全に交換するにはどうすればよいですか?

  1. Mumbleのオーバーレイを機能させる方法は?

  2. Android - Linux で ADB によってデバイスが検出されるようにするにはどうすればよいですか?

  3. Linux ソフトウェア RAID を新しいマシンに移動するにはどうすればよいですか?