GNU/Linux >> Linux の 問題 >  >> Linux

データの整合性の検証

常に実行:

cd /filesystem; \
find . -type f -exec md5sum {} \; >& /filesystem-md5.log

そして

cd /filesystem-new; \
md5sum -c /filesystem-md5.log

大量のデータをコピーする前後。

現実世界でどれだけランダムなデータ破損が発生するかに驚くことでしょう。

破損したファイルを見つけたら cmp -l badfile goodfile 腐敗の性質を理解しようとします。

これが、あらゆる場合にエンドツーエンドの整合性チェックをお願いする理由です。残念ながら、ファイルシステムと OS のベンダーはこれを真剣に受け止めていません。


Linux
  1. シンプルなハードドライブのデータ回復

  2. PHP構文の検証。

  3. クラウドからクラウドへの移行

  1. ncview:コマンドが見つかりません

  2. mysql インポートの速度を向上させる

  3. mdadm raid6 上の Btrfs?

  1. md5sumを使用したファイルの整合性の検証

  2. SSD 暗号化の落とし穴

  3. 16 TB のデータ ディスクに GPT は必要ですか?