巧用robots避免蜘蛛黑洞

访客4年前黑客文章1018

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

相关文章

百度蜘蛛抓取规则分析(一招让百度蜘蛛迷路)

百度蜘蛛抓取规则分析(一招让百度蜘蛛迷路)

排名是硬道理,那么收录就是关键,没有收录绝对是没有排名,那么在收录之前我们要搞清楚百度蜘蛛是怎么来到你网站的,又是如何收录,那么我们今天教大家一招,让百度蜘蛛在你网站迷路! 要想搞清楚百度蜘蛛的...

百度蜘蛛抓取规则

百度蜘蛛抓取规则

相信大家对百度蜘蛛这个词都不陌生吧,记得我在第一次听到百度蜘蛛这个词的时候,是在11年初,那时候百度蜘蛛并没有如今的人性化,那时候的百度蜘蛛抓取释放几乎么有任何规则。但对现在的百度蜘蛛而言,那时候等于...

如何与恶意“蜘蛛”暗度陈仓?

如何与恶意“蜘蛛”暗度陈仓?

在搜索引擎优化的进程中,您是否碰着过这样的问题:处事器会见的CPU操作率险些是100%,页面加载速度很是慢,看起来像是受到了DDOS的进攻。 颠末一番查抄,发明本来的方针网站常常被大量不相关的“爬虫”...

冰冻之心(蜘蛛冰冻之心特效)

  冰冻之心实装要加"物理防止"么?(附来由)冰冻之心实装要加"施放"还。   选择1 物理防止, 冰洁师物防很低。并且许多时候得去近战拼命。尤其远古图很痛复生无意义了。精力高不缺魔防。选择2进攻速度...

网站蜘蛛日志分析

网站蜘蛛日志分析

    不清楚我们的网站百度蜘蛛是否来过,不知道我们网站百度蜘蛛是否能来,那你可以利用网站日志来分析蜘蛛是否来过,爬行过哪些页面,什么时候来过等问题,那么我们应该如何去分析网站蜘蛛日志。...

搜索引擎友好_蜘蛛友好性操作规范详解(攻略篇)

搜索引擎友好_蜘蛛友好性操作规范详解(攻略篇)

搜索引擎友好_蜘蛛友好性操纵类型详解(攻略篇) 值得一看几天前,一位从事阿里巴巴网站运营的伴侣将一个网站扔给该博客,辅佐阐明该网站是否可以优化。被抛出的第一页的链接以index.php末了。页面上的大...