网站优化诊断的其中一项,就是检查有无做robots文件,是否规范。如果网站的robots协议文件禁止了搜索引擎蜘蛛,那么无论你怎么优化都不会被收录。
趁着写这篇文章,给这句话做个纠正,请大家认真阅读并且理解。如下:
如果你的网站添加了robots协议文件,并且设置了禁止搜索引擎蜘蛛的指令,那么你的网站内容将不会被抓取,但有可能会被收录(索引)。
有些人可能会有疑问,搜索引擎蜘蛛爬行url页面,页面需要有内容呈现出来反馈给到蜘蛛,才有可能会被收录。那么,如果内容都被禁止了还会被收录吗?这是什么意思呢?这个问题这里先不解释,大家先看看下面的图片吧。
如图所示,以上是site: *** 域名出现被收录的结果。从site结果里面可以清楚的看到,从site结果里面可以清楚的看到,这里收录了很多 *** 网站的页面,显示收录结果为2亿6159万个页面。但是大家不知道有没有发现一个问题,这些页面抓取的描述内容都是提示了这样一段文字:由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述
robots禁止搜索引擎蜘蛛后为什么会被收录呢?
这里有个认知上的错误,也可能是惯性逻辑思维的错误思考。大家都认为蜘蛛不能抓取内容就不会收录,实际上爬行、抓取、索引(收录)是不同的概念。很多人学习SEO的时候,经常性的对一些SEO的概念混肴不清,导致在后面的SEO优化过程当中并不能发挥出很好的效果。
还是先来说说robots协议到底是在做什么?既然是协议,那肯定是双方同意、认可的规矩。这个甲乙自然就是网站和搜索引擎(或者说搜索引擎蜘蛛)之间的协议。robots文件会放在根目录下,蜘蛛进入网站会之一时间访问这个文件,然后看看协议里面有没有禁止了那些页面不能抓取,如果禁止了就不会再去抓取。
一个页面想要去搜索引擎索引(收录),收录要有蜘蛛爬行和抓取,既然不抓取,理所当然的就会被认为这个页面是不会被收录。这样的思维是错误的,不抓取也是可以被索引(收录)。如 *** 就是一个典型的案例,网站添加了禁止协议,最后还是被收录。原因在于,百度从其它渠道平台推荐的外部链接了解到这个网站,虽然被禁止抓取,但从标题和推荐链接的数据里还是可以判断出与该页面相应的内容信息。
此刻互联网创业找项目加盟的人很是多。为什么呢?主要照旧因为社会成长趋势的问题,互联网成为人们糊口中完全无法支解的一点,我们都知道这样一个环境,大街上每天捧着手机的又有几多呢?互联网项目假如乐成,那么必...
少年儿童棉衣和羽绒衣都有优点和缺点,防寒保暖实际效果类似,相对而言棉衣看起来更为厚实一些,在购买上能够从各个方面来下手,那麼小宝宝穿棉衣好么?棉衣怎么选择?下边我产生详细介绍。 少年儿童棉衣优缺...
Vulnhub简介Vulnhub是一个提供了很多漏洞环境的靶场平台,其中的环境基本上都是做好的虚拟机镜像文件,需要使用VMware或者是VirtualBox运行。每个镜像会有破解的目标,大多是Boot...
2017年温州市州挪动企业响应国家呼吁,提速降费,现对温州移动客户,宽带网络全方位对外开放提速降费。出示全新升级规范,质量更强:百兆光纤线,迅速更平稳。轻轻松松交费,感受更强:一号(手机上号)交费...
编辑导读:近几年,抖音的成长势头很猛,在短视频规模是当之无愧的领头羊。视频平台这么多,为什么抖音能一枝独秀呢?将来几年,还会不会呈现雷同于抖音这样的平台?对付这些问题,本文作者提出了本身的一点思考,与...
梅根哈里退出王室得到了英国女王的许可,女王还是非常疼爱这个孙子的,哈里不想当王子,而是选择和梅根去过自己的生活,这也是一种勇气和胆量。都说梅根嫁对了人了,哈里一直都是站在梅根这一边,而梅根也终于达成了...