Apache-2.2
Googlebot 反複查找不在我的伺服器上的文件
我正在為一個志願者組織託管一個網站。我已將該網站移至 WordPress,但並非總是如此。我懷疑在某一時刻它被嚴重黑客攻擊了。
在過去的 18 小時內,我的 Apache 錯誤日誌文件已增長到 122 kB。記錄的大部分錯誤都是這種形式——僅在今天我的日誌文件中就重複了數百次:
[Mon Nov 12 18:29:27 2012] [error] [client xx.xxx.xx.xxx] File does not exist: /home/*******/public_html/*******.org/calendar.php [Mon Nov 12 18:29:27 2012] [error] [client xx.xxx.xx.xxx] File does not exist: /home/*******/public_html/*******.org/404.shtml
(我確認 xx.xxx.xx.xxx 是 Google 伺服器。)
我懷疑之前某個地方存在安全漏洞,可能在 中
calendar.php
,被利用了。這些文件不再存在,但這裡可能存在許多引用的反向連結,因此 googlebot 對抓取它們如此感興趣。
我該如何優雅地解決這個問題?我仍然希望 Google 為該網站編制索引。我只是想以某種方式告訴它不要再尋找這些文件了。
這是可以使用410 Gone錯誤的一件事。
Google和其他搜尋引擎可以使用此資訊來確定 URL 不再有效並且預計永遠不會再次有效,從而將其從索引中刪除。