GNU/Linux >> Linux の 問題 >  >> Linux

Web ページのすべての外部リンクを抽出してファイルに保存するにはどうすればよいですか?

オオヤマネコの 2 つのツールが必要です そしてあらあら 、これを試してください:

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' > links.txt

行に番号を付ける必要がある場合は、コマンド nl を使用してください 、これを試してください:

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' | nl > links.txt

これは、lelton の回答を改善したものです。lynx にはいくつかの便利なオプションがあるため、awk はまったく必要ありません。

lynx -listonly -nonumbers -dump http://www.google.com.br

数字が欲しいなら

lynx -listonly -dump http://www.google.com.br

Linux
  1. すべての端末出力をファイルに保存しますか?

  2. シンボリック リンク (ソフト リンク) とは何か、および Linux でそれらを作成する方法

  3. 特定のサイズを超えるファイルをすべて取得して削除する方法

  1. Linuxコマンドを保存してオンデマンドで使用する方法

  2. この awk コマンドの出力をファイルに保存する方法は?

  3. 一連の PDF の最後のページを抽出および/または削除する方法は?

  1. Linuxで.gzファイルと.tar.gzファイルを抽出する方法

  2. シンボリックリンクとハードリンクの違いは?

  3. Imgファイルのタイプを見つけてマウントする方法は?