屏蔽百度蜘蛛方法之一二
...
繼淘寶屏蔽百度蜘蛛以后,各大門戶先后屏蔽百度,屏蔽百度已經(jīng)成為今天的熱門話題.如果你也想屏蔽百度,那就試試下面的方法把
首先我自己不會屏蔽baiduspider,也不大相信baiduspider會故意忽略robots.txt,但如果你真的想屏蔽 baiduspider,可嘗試以下方法:
1. 上傳一個robots.txt到根目錄,內(nèi)容為:
User-agent: baiduspider
Disallow: /
一個搜索引擎爬蟲工作前首先應(yīng)該訪問/robots.txt制定排除列表,baiduspider還無法高級到故意忽略某些網(wǎng)站的robots.txt,不知道baiduspider怎么折騰才能讓robots.txt失效。
2. 如果僅僅因?yàn)榉?wù)器吃不消,不防按照的指示寫信給百度。估計(jì)很多人試過得不到回復(fù)(Google基本都是2個工作日內(nèi)回復(fù))。
3. 如果還沒有辦法,可嘗試.htaccess屏蔽,上傳一個.htaccess文件到根目錄,內(nèi)容為:
SetEnvIfNoCase User-Agent "^baiduspider" ban_bot
deny from env=ban_bot
還可以擴(kuò)大這個列表,屏蔽那些Email提取爬蟲、網(wǎng)站克隆爬蟲等(小偷一般不守法,但總比自己什么都不做強(qiáng)):
SetEnvIfNoCase User-Agent "^baiduspider" ban_bot
SetEnvIfNoCase User-Agent "^HTTrack" ban_bot
SetEnvIfNoCase User-Agent "^EmailCollector" ban_bot
SetEnvIfNoCase User-Agent "^EmailWolf" ban_bot
SetEnvIfNoCase User-Agent "^ExtractorPro" ban_bot
SetEnvIfNoCase User-Agent "^Offline" ban_bot
SetEnvIfNoCase User-Agent "^WebCopier" ban_bot
SetEnvIfNoCase User-Agent "^Webdupe" ban_bot
SetEnvIfNoCase User-Agent "^WebZIP" ban_bot
SetEnvIfNoCase User-Agent "^Web Downloader" ban_bot
SetEnvIfNoCase User-Agent "^WebAuto" ban_bot
SetEnvIfNoCase User-Agent "^WebCapture" ban_bot
SetEnvIfNoCase User-Agent "^WebMirror" ban_bot
SetEnvIfNoCase User-Agent "^WebStripper" ban_bot
deny from env=ban_bot
.htaccess要用文本方式上傳,有些Apache配置比較怪異,防止引起沖突建議上傳后立刻看看是否影響普通用戶的訪問。如果瀏覽正常,再用FlashGet模擬baiduspider測試這個.htaccess是否工作,方法是:
FlashGet->工具->選項(xiàng)->協(xié)議,把HTTP用戶代理改成用戶自定義:baiduspider;然后用FlashGet下載該網(wǎng)站任意頁面,在FlashGet的下載日志里得到HTTP/1.1 403 Forbidden則成功.
上一條:百度針對頁面排名規(guī)則
下一條:ASP字符串函數(shù)大全