GNU/Linux >> Linux の 問題 >  >> Linux

重複の非常に巨大なサイズのキャッシュ

メーリングリストによると

<ブロック引用>

手動で除外する必要があります..

バックアップ チェーンのインデックス ファイル (バックアップ リポジトリの目次) を保持します。それらをローカルにキャッシュすると、ステータスや増分バックアップなどのオプションが高速化されます。これらの操作は、機能するために既にバックアップされているものを認識する必要があります。それらがキャッシュされている場合、何度も何度も転送して復号化する必要はありません。

..えで

それ以外は、長年のバグのようです。

Debian バグトラッカーでは、

duplicity cleanup --extra-clean --force ....

警告 :提案された --extra-clean オプションは危険であり、非常に激しく噛む可能性があります。通常の方法ではバックアップを復元できなくなります。


Linux
  1. MySQLデータベースのキャッシュを改善する

  2. Linux – LinuxでのO_directの使用?

  3. btrfs:巨大なメタデータが割り当てられました

  1. Linuxでメモリキャッシュをクリアする方法

  2. Ubuntu 20.04にDuplicityをインストールする-最良の方法は?

  3. Fedora –重複を使用してDeja-dupバックアップを検証する方法は?

  1. イメージバックアップの作成(クローン作成)

  2. .cache は何をしますか?膨大なディスク容量を消費します

  3. Linuxで差分バックアップを作成するには?