GNU/Linux >> Linux の 問題 >  >> Linux

Curlを使用してWebリクエストを自動化しますか?

職場で使用しなければならない「企業」システムがいくつかあります。それらのいくつかはひどいもので、フレームやポップアップなどがあります。

カールなどを使って自動化することを考えていました。ログインして、ハイパーリンクをクリックし、データを設定すると、投稿が必要になります。

カールは使えますか?それとも、Seleniumのようなものを使用したほうがよいでしょうか?

承認された回答:

はい、カールで完全に可能です。最も重要なのは、--cookie-jarでcurlを使用する間にCookieを保存して再読み込みすることです。 。必要に応じてフォームデータを投稿することもできます。私は通常、ライブHTTPヘッダーと呼ばれるFirefoxアドオンを使用して、Webサイトをナビゲートしたときに何が起こるかをキャプチャします。ヘッダーだけでなく、curlをどうするかを理解しようとするときに非常に役立つフォーム投稿も記録します。さまざまなcurl呼び出しを自動化し、パイプと一時ファイルを使用するbashスクリプトを作成しました(mktemp提供) )Webページで限定的な処理を行うためですが、多くのWebページ処理を行う必要がある場合は、通常、LibWWWを使用してPerlに切り替えます。


Linux
  1. SSHを使用したSOCKSWebプロキシの作成

  2. Curlを使用したWebページのヘルスチェック?

  3. cURL を使用して GitHub から tarball をダウンロードするにはどうすればよいですか?

  1. PuTTY を使用して Windows から Linux で実行するコマンドを自動化する

  2. Curl コマンド ライン ユーティリティを使用した並列ダウンロード

  3. cURL で HTTP リクエストを実行する (PROXY を使用)

  1. cURL コマンドでの環境変数の使用 - Unix

  2. Ubuntu:curl を使用してイメージをダウンロードする

  3. 一部のファイルのみを含めるために正規表現を使用して rsync