比較的小さなファイルを大量に含むFTPサイト(実際にはWebサイトのソースコード)をダウンロードする必要があります(FileZillaでダウンロードするには1日以上かかりましたが、多くのファイルをダウンロードすると、はるかに高速にダウンロードできると思います。一度)。残念ながら、サイトへのSSHアクセスはなく、サーバー側でファイルをアーカイブする方法もありません。
したがって、少なくとも問題は、コマンドラインツールを使用してFTPサイト全体をフォルダにダウンロードする方法です。 1つずつではなく、同時に多数のファイルをダウンロードすることで、ダウンロードを並列化できるとよいでしょう。
承認された回答:
次のことを試してください:
wget -r ftp://username:[email protected]
これは5つの深度レベルになります。増やすには、 -l
を追加します オプション
一部のサーバーはこの動作を嫌い、サーバーの負荷が原因でブラックリストに登録されるリスクがあります。これを回避するには、 -w
を使用します 指定した秒数待機するオプション。
詳細(および警告)はここにあります:
http://www.gnu.org/software/wget/manual/wget.html#Recursive-ダウンロード
http://linuxreviews.org/quicktips/wget/
-ユーザーコード> および
--password
引数は、特殊文字を含むユーザー名/パスワードに役立ちます。