Files
Cronjob 訪問列表的每個 url 但不保存它們
我有一個 txt 文件 list.txt 有一堆 url,每行一個。我想設置一個 cron 作業,每天一次 wget/curl 文件的每個 url,但不將它們保存在電腦中。
我嘗試先在終端上執行它。
wget -i /root/list.txt -O /dev/null
該命令無法理解。它將 list.txt 保存到 /dev/null,而不是 list.txt 中 url 中的文件。然後它說“找不到網址”。
那麼我該如何正確地做到這一點呢?從列表中獲取每個 url 但不在電腦上保存任何內容?
如果您不想下載 URL,請使用
--spider
. 並且您可以使用 刪除混亂-q
,這具有額外的好處,如果設置正確,實際錯誤仍由 crond 處理並轉發。wget -i /root/list.txt --spider -q
不知道為什麼在這裡使用 wget,因為該工具的主要目標是下載文件。
使用 curl 和一個簡單的循環,它應該可以工作,如下所示:
for i in `cat list.txt`; do curl $i; done
並且不會下載任何內容,只需點擊文本列表中的目標網站即可。