看到很多网站都没有robots文件,那么一个常规的robots.txt文件应该要这么写呢,小编今天给大家来说说robots.txt怎么写,robots文件常规的写法。
上图是小编的robots文件,我的个人博客是织梦的系统,织梦默认是有部分robots文件的,小编先给大家解释一下其中的写法。
1、允许所有搜索引擎访问 User-agent: * Allow:
2、禁止所有搜索引擎访问 User-agent: * Disallow: /
3、网站地图:Sitemap:
哪些页面要用robots.txt屏蔽
知道怎么写了,但很多朋友还是不知道哪些页面需要屏蔽,让搜索引擎不被访问,其实很简单,不想被搜索引擎抓取的页面就屏蔽,那么哪些页面是我们不想被搜索引擎抓取的呢。
空白页面:什么是空白页面,比如注册页面、联系我们、关于我们等页面属于空白页面,因为这种页面在搜索引擎看来是没有意义的,没有人会搜索注册来到你的网站。
后台页面:后台是不被搜索引擎收录的,所以我们需要robots屏蔽后台登陆页面。
动态页面:通常情况下,我们网站都会做伪静态,那么动态页面我们会屏蔽掉。
总结:robots文件有必要写,一来给搜索引擎做个更好的之一印象,其次是给搜索引擎做一个网站地图。
99%的人还阅读了:
robots是什么,robots怎么写?
屏蔽百度蜘蛛的 ***
想要网站健康收录,那一定离不开Robots协议的设置以及robots正确写法,如何设置robots协议,首先从了解robots协议开始。 第一:认识Robots Robots简单来说就是搜索引...
“三百大战”让Robots协议从台前走向幕后,这个舶来品引爆了整个互联网世界。这个由荷兰籍网络工程师Martijn Koster在1994年首次提出的“Robots协议”,缘何被百度作为尚方宝剑,...
对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的...
深入认识robots 搜索引擎使用spider程序自动范文互联网上的网页并获取网页信息。Spider在访问一个网站时,会首页检查该网站的根域名下是否有一个叫robots.txt...