对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?
我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:
对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun
同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c
对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。
robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。
光学瞬态观测已经发现了数十个星系中心的大质量黑洞引起的恒星潮汐中断事件(TDEs)。尽管进行了广泛的搜索,但X射线后续观察在其中大多数没有或只显示了微弱的X射线探测线索。 即便是经过了30多年的...
中新网北京9月22日电 (记者 孙自法)中国“慧眼”(HXMT)卫星又有重磅发现——其最新观测结果发现距离黑洞最近的高速喷流,这对于研究黑洞附近的广义相对论效应、物质动力学过程和辐射机制等具有重大意义...
《星际侠探》海报 2月4日,科幻动画电影《星际侠探》宣布定档于2021年3月13日全国公映。一场星际大战即将在开年后引爆,且看特工小队如何在宇宙力挽狂澜。 《星...
话说今晚将要发布人类首张关于黑洞的照片,大家开始纷纷猜想黑洞到底长什么样子? 不过说起黑洞,很多人只是对这“黑洞”两个字很熟悉,但要问它到底是什么,为什么会有黑洞?很少人能够回答上来,今天,我们就来...
在公共纷纷叹息黑洞终于揭开它神秘面纱的同时,诸多品牌都纷纷参加了一场创意比拼的营销盛宴。 人类首张黑洞图片,北京时间4月10日晚在全球多地同步宣布,这个黑洞距我们约莫5500万光年,质量为太阳的65...
了解宇宙如何运行(黑洞为宇宙中心)银河系有数千亿颗恒星,围绕中心旋转,并有两个旋臂。是什么力量促使数亿颗恒星绕银河系中心旋转?天文学家想象:银河系中心必然存在一个超大型黑洞。 为观测银河系中心黑洞,天...