robots.txt怎么写,robots.txt文件的写法!

访客4年前黑客资讯827

看到很多网站都没有robots文件,那么一个常规的robots.txt文件应该要这么写呢,小编今天给大家来说说robots.txt怎么写,robots文件常规的写法。

robots文件

上图是小编的robots文件,我的个人博客是织梦的系统,织梦默认是有部分robots文件的,小编先给大家解释一下其中的写法。

1、允许所有搜索引擎访问 User-agent: * Allow:

2、禁止所有搜索引擎访问 User-agent: * Disallow: /

3、网站地图:Sitemap:

哪些页面要用robots.txt屏蔽

知道怎么写了,但很多朋友还是不知道哪些页面需要屏蔽,让搜索引擎不被访问,其实很简单,不想被搜索引擎抓取的页面就屏蔽,那么哪些页面是我们不想被搜索引擎抓取的呢。

空白页面:什么是空白页面,比如注册页面、联系我们、关于我们等页面属于空白页面,因为这种页面在搜索引擎看来是没有意义的,没有人会搜索注册来到你的网站。

后台页面:后台是不被搜索引擎收录的,所以我们需要robots屏蔽后台登陆页面。

动态页面:通常情况下,我们网站都会做伪静态,那么动态页面我们会屏蔽掉。

总结:robots文件有必要写,一来给搜索引擎做个更好的之一印象,其次是给搜索引擎做一个网站地图。

99%的人还阅读了:

robots是什么,robots怎么写?

屏蔽百度蜘蛛的 ***

相关文章

robot爬虫协议是什么(Robots协议的正确书写规则与

robot爬虫协议是什么(Robots协议的正确书写规则与

想要网站健康收录,那一定离不开Robots协议的设置以及robots正确写法,如何设置robots协议,首先从了解robots协议开始。 第一:认识Robots Robots简单来说就是搜索引...

百度滥用Robots协议360不会坐以待毙

百度滥用Robots协议360不会坐以待毙

“三百大战”让Robots协议从台前走向幕后,这个舶来品引爆了整个互联网世界。这个由荷兰籍网络工程师Martijn Koster在1994年首次提出的“Robots协议”,缘何被百度作为尚方宝剑,...

巧用robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的...

robots是什么,robots怎么写?

    深入认识robots 搜索引擎使用spider程序自动范文互联网上的网页并获取网页信息。Spider在访问一个网站时,会首页检查该网站的根域名下是否有一个叫robots.txt...