萬盛學電腦網

 萬盛學電腦網 >> 電腦基本常識 >> 通過.htaccess文件屏蔽不良蜘蛛

通過.htaccess文件屏蔽不良蜘蛛

class="area"> 一周前,筆者分享過一篇文章《SEO診斷:透過Log日志找到網站死結》,並在最後附上了兩條改善建議。由於客觀條件所限,最後采用robots屏蔽的方法。先一起來看看一周後的蜘蛛變化,三大主流蜘蛛總抓取量銳減,證明robots文件開始生效。從圖上的訪問次數、總停留時間和總抓取量看,有所進步但路還很遠。

  

 

  然而,從11號開始,網站LOG日志開始出現眾多中文非主流蜘蛛訪問,其中不乏知名俄羅斯搜索引擎蜘蛛Yandexbot,還有不明“飛行物”AhrefsBot & ezooms.bot。 按照思維中定型的屏蔽蜘蛛方法,本能地將以上所有蜘蛛(對中文網站seo而言,以上的蜘蛛就是垃圾蜘蛛)通過Robots.txt文件disallow掉。本以為這樣就算搞定了,但是今早打開最近3天的LOG日志一看,垃圾蜘蛛抓取更加頻繁,凶猛,尤其以ezooms.bot為甚。

  一般來說,搜索引擎對待Robots.txt文件有個生效期,大概2-7天。但是ezooms.bot的迅猛發展,讓我不得不懷疑他是個Robots協議違反者。

  今天要分享的就是如何通過.htaccess文件屏蔽不良蜘蛛。

  以下是14號的網站日志,導入到Excel進行篩選分析,發現在當天所有訪問日志(包括真實用戶和蜘蛛)中,竟然有多達342次訪問記錄。而尤以AhrefsBot & ezooms.bot居多。

  (注:此例輸入“Bot”進行篩選;國外蜘蛛一般叫Bot,國內一般叫Spider)

  

 

  Ezooms.bot究竟是何方神聖?於是通過百度去搜索相關的記錄,但是很不理想,百度沒有任何相關的記錄。沒辦法,只能求助於谷歌,滿篇幅都是英文,頭大了,咬咬牙慢慢咀嚼吧。

  翻閱了七八篇國外有關ezooms.bot的博客文章,對該bot也沒有一個明確的說法,有的認為是SEOMoz Bot,有的認為是個文章采集者,但是大家對它的評價都很不好,被描繪成諸如吸血鬼、水蛭等。截取一段外文評語:

  

 

  從了解到的知識來看,ezooms.bot對爬行的網站沒有任何的幫助,遂下定決心屏蔽之。由於ezooms.bot不遵守Robots.txt協議,又想起了通過htaccess文件屏蔽IP段的方法。國外的博文也多次提到此方法,

  

 

  圖上的IP段與網站記錄的ezooms.bot爬行ip段基本吻合,應該是個方法。但是屏蔽整個ip段,可能會造成一定的誤殺(畢竟並不能確認所有的ip都是ezooms.bot)。有沒有更穩妥的辦法呢?還是翻閱資料,最後找到了通過.htaccess來解決的辦法。規則如下:

  RewriteEngine on

  RewriteCond %{HTTP_USER_AGENT} ^Ezooms

  RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0

  RewriteRule ^(.*)$ http://getlostbadbot/

  為什麼這麼寫,網上翻翻更多關於Apache中 RewriteCond 規則參數介紹,我也是菜鳥正在學習中。

  以上是筆者個人關於如何屏蔽不良蜘蛛的真實經歷,希望對大家有所幫助。SEO就是在不斷的學習中進步的。

copyright © 萬盛學電腦網 all rights reserved