当前位置:首页 » SEO思维 » 正文

巧用robots防止蜘蛛黑洞

作者:盖 继东 时间:2015-11-05 标签:
文章摘要:      关于baidu搜索引擎来说,蜘蛛黑洞特指网站经过极低的本钱制造出许多参数过多,及内容相同但详细参数不一样的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了许多资本抓取的却是无效页面。   比方许多网站都有挑选功用,经过挑选功用发生的页面常常会被搜索引擎许多抓取,而这其间很大…

  甘肃兰州SEO

  关于baidu搜索引擎来说,蜘蛛黑洞特指网站经过极低的本钱制造出许多参数过多,及内容相同但详细参数不一样的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了许多资本抓取的却是无效页面。

  比方许多网站都有挑选功用,经过挑选功用发生的页面常常会被搜索引擎许多抓取,而这其间很大一部分检索价值不高,如“500-1000之间报价的租房”,首要网站(包含实际中)上根本没有有关资本,其次站内用户和搜索引擎用户都没有这种检索习气。这种页面被搜索引擎许多抓取,只能是占用网站名贵的抓取配额。那么该怎么防止这种状况呢?

  咱们以北京某团购网站为例,看看该网站是怎么运用robots奇妙防止这种蜘蛛黑洞的:

  关于一般的挑选成果页,该网站挑选运用静态连接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

  同样是条件挑选成果页,当用户挑选不一样排序条件后,会生成带有不一样参数的动态连接,并且即使是同一种排序条件(如:都是按销量降序摆放),生成的参数也都是不一样的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

  http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

  关于该团购网来说,只让搜索引擎抓取挑选成果页就可以了,而各种带参数的成果排序页面则经过robots规矩回绝供给给搜索引擎。

  robots.txt的文件用法中有这么一条规矩:Disallow: /*?* ,即制止搜索引擎拜访网站中所有的动态页面。该网站恰是经过这种方法,对Baiduspider优先展现高质量页面、屏蔽了低质量页面,为Baiduspider供给了更友爱的网站构造,防止了黑洞的构成。

更多
没有评论

抱歉,评论被关闭


网站地图