Files

Cronjob 訪問列表的每個 url 但不保存它們

  • November 7, 2022

我有一個 txt 文件 list.txt 有一堆 url,每行一個。我想設置一個 cron 作業,每天一次 wget/curl 文件的每個 url,但不將它們保存在電腦中。

我嘗試先在終端上執行它。

wget -i /root/list.txt -O /dev/null

該命令無法理解。它將 list.txt 保存到 /dev/null,而不是 list.txt 中 url 中的文件。然後它說“找不到網址”。

那麼我該如何正確地做到這一點呢?從列表中獲取每個 url 但不在電腦上保存任何內容?

如果您不想下載 URL,請使用--spider. 並且您可以使用 刪除混亂-q,這具有額外的好處,如果設置正確,實際錯誤仍由 crond 處理並轉發。

wget -i /root/list.txt --spider -q

不知道為什麼在這裡使用 wget,因為該工具的主要目標是下載文件。

使用 curl 和一個簡單的循環,它應該可以工作,如下所示:

for i in `cat list.txt`; do curl $i; done

並且不會下載任何內容,只需點擊文本列表中的目標網站即可。

引用自:https://serverfault.com/questions/1115021